Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alors Python 3.14 est enfin sorti pour de bon hier. Il supprime enfin le GIL (verrou global de l'interpréteur), ce qui permet d'avoir un code multithreadé beaucoup plus rapide sans avoir à gérer tous les tracas et la surcharge du multiprocessing ou d'autres solutions de contournement. Et uv le prend déjà entièrement en charge, ce qui est incroyablement impressionnant.
Mais bon, j'étais un peu déçu, car le projet principal sur lequel je travaille a un nombre massif de dépendances de bibliothèques, et il faut toujours beaucoup de temps pour obtenir un support principal pour les nouvelles versions de Python, en particulier quand elles sont aussi révolutionnaires et différentes que la version 3.14.
J'étais donc résigné à endurer l'enfer du GIL pour un avenir indéfini.
Mais ensuite, je me suis dit, pourquoi pas ? Laissez-moi juste voir si codex et GPT-5 peuvent surmonter tout ça. J'ai donc sauvegardé mes paramètres et demandé à codex d'essayer, en lui donnant le récent article de blog de l'équipe uv pour commencer.
Il y avait quelques obstacles majeurs. J'utilise PyTorch, qui est notoirement lent à se mettre à jour. Et aussi pyarrow, qui ne supportait pas non plus 3.14. Même chose pour cvxpy, le wrapper de la bibliothèque d'optimisation convexe.
Pourtant, je voulais voir ce que nous pouvions faire même si nous devions gérer les tracas de "vendoring" certaines bibliothèques et construire certaines choses à partir de zéro en C++, Rust, etc. en utilisant les derniers dépôts GitHub nocturnes au lieu des bibliothèques PyPi habituelles.
J'ai dit à codex de chercher sur le web, de lire les pages de problèmes GitHub, etc., afin que nous ne réinventions pas la roue (ou WHL, devrais-je dire, 🤣) inutilement.
Pourquoi pas ? Je pouvais toujours tester des choses, et si je ne pouvais pas le faire fonctionner, je pouvais simplement revenir à Python 3.13, non ? Pas de mal, pas de faute.
Eh bien, cela a pris de nombreuses heures de travail, presque tout fait par codex pendant que je vérifiais de temps en temps, mais il a réussi à faire fonctionner tout !
Bien sûr, cela a nécessité plusieurs itérations, et j'ai dû ajuster certaines choses pour éviter des avertissements de dépréciation ennuyeux (certains d'entre eux proviennent d'autres bibliothèques, donc j'ai finalement dû les filtrer).
Mais ces bibliothèques se mettront à jour avec le temps pour mieux supporter 3.14 et finalement je n'aurai plus besoin d'utiliser ces solutions de contournement ennuyeuses.
Codex a même suggéré de télécharger les artefacts whl compilés sur R2 de Cloudflare (comme s3) afin que nous puissions les réutiliser facilement sur différentes machines, et s'est occupé de tous les détails pour moi. Je n'aurais jamais pensé à faire ça tout seul.
Chaque fois qu'il y avait une autre complication ou un problème (par exemple, ce qui est montré dans la capture d'écran ci-dessous), codex a simplement trouvé une solution et a tout surmonté comme si de rien n'était.
Si vous n'avez jamais essayé de faire quelque chose comme ça dans les "mauvais vieux jours" avant les LLM, c'était un travail ingrat qui pouvait prendre des jours et ensuite rencontrer un obstacle, entraînant un effondrement total.
Il était donc tout simplement trop risqué d'essayer la plupart du temps ; il valait mieux attendre 6 ou 9 mois que les choses redeviennent simples.
Quoi qu'il en soit, je n'arrive toujours pas à croire que tout fonctionne ! Nous vivons dans le futur.

Quand vous réalisez que le tweet va probablement bien fonctionner :

1,87K
Meilleurs
Classement
Favoris