Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Așa că Python 3.14 a apărut în sfârșit cu adevărat ieri. În cele din urmă, eliminarea GIL (blocare globală a interpretului), care permite un cod multithread mult mai rapid, fără a face față tuturor leziunilor cerebrale și suprasolicitării multiprocesării sau a altor soluții hacky. Și uv îl susține deja pe deplin, ceea ce este extrem de impresionant.
Dar oricum, am fost puțin dezamăgit, pentru că proiectul principal la care lucrez are un număr masiv de dependențe de bibliotecă și întotdeauna durează foarte mult timp pentru a obține suport principal pentru noile versiuni python, mai ales când sunt la fel de revoluționare și diferite ca versiunea 3.14.
Așa că m-am resemnat să îndur iadul GIL pentru un viitor nedefinit.
Dar apoi m-am gândit, de ce nu? Permiteți-mi să văd dacă codex și GPT-5 pot trece prin toate. Așa că mi-am făcut o copie de rezervă a setărilor și am cerut codex să încerce, oferindu-i postarea recentă pe blog de la echipa uv pentru a-l începe.
Au existat câteva obstacole majore. Folosesc PyTorch, care este notoriu de lent de actualizat. Și, de asemenea, Pyarrow, care nu suporta 3.14. La fel și cu cvxpy, învelișul bibliotecii de optimizare convexă.
Totuși, am vrut să văd ce am putea face chiar dacă ar trebui să ne ocupăm de leziunile cerebrale de a "vinde" unele biblioteci și de a construi unele lucruri de la zero în C++, Rust etc. folosind cele mai recente depozite GitHub în loc de bibliotecile PyPi obișnuite.
I-am spus codexului să caute pe web, să citească paginile de probleme GitHub etc., astfel încât să nu reinventăm roata (sau WHL ar trebui să spun) 🤣 inutil.
De ce nu? Aș putea oricând să testez lucrurile, iar dacă nu puteam să le fac să funcționeze, atunci aș putea să mă retrag înapoi la Python 3.13, nu? Fără rău, fără fault.
Ei bine, a fost nevoie de multe ore de muncă, aproape toate făcute de codex, în timp ce am verificat ocazional cu el, dar a reușit să facă totul să funcționeze!
Sigur, a fost nevoie de o grămadă de iterații și a trebuit să modific unele lucruri pentru a evita avertismentele enervante de depreciere (dintre care unele provin din alte biblioteci, așa că în cele din urmă a trebuit să le filtrez).
Dar acele biblioteci se vor actualiza în timp pentru a suporta mai bine 3.14 și, în cele din urmă, nu va trebui să folosesc niciuna dintre aceste soluții enervante.
Codex chiar a sugerat încărcarea artefactelor whl compilate în R2 de la Cloudflare (cum ar fi s3) pentru a le putea reutiliza cu ușurință pe mașini și s-a ocupat de toate detaliile pentru mine. Nu m-aș gândi niciodată să fac asta singură.
De fiecare dată când a existat o altă complicație sau problemă (de exemplu, ceea ce este prezentat în captura de ecran de mai jos), codex și-a dat seama și a trecut prin totul ca nimic.
Dacă nu ați încercat niciodată să faceți așa ceva în "vremurile proaste" înainte de LLM-uri, a fost o rutină ingrată care putea mânca zile și apoi s-a lovit de un obstacol, rezultând o distrugere totală.
Așa că era pur și simplu prea riscant să încerci de cele mai multe ori; Era mai bine să așteptați doar 6 sau 9 luni pentru ca lucrurile să devină din nou simple.
Oricum, încă nu-mi vine să cred că totul funcționează! Trăim în viitor.

Când îți dai seama că tweet-ul probabil va merge bine:

1,89K
Limită superioară
Clasament
Favorite