Also, Python 3.14 ist gestern endlich wirklich erschienen. Endlich wird der GIL (globaler Interpreter-Sperre) entfernt, was viel schnelleren Multithread-Code ermöglicht, ohne sich mit all dem Gehirnschaden und dem Overhead von Multiprocessing oder anderen hacky Lösungen herumschlagen zu müssen. Und uv unterstützt es bereits vollständig, was unglaublich beeindruckend ist. Aber ich war ein bisschen enttäuscht, denn das Hauptprojekt, an dem ich arbeite, hat eine riesige Anzahl von Bibliotheksabhängigkeiten, und es dauert immer sehr lange, bis die Hauptversionen neue Python-Versionen unterstützen, insbesondere wenn sie so revolutionär und anders sind wie Version 3.14. Also war ich resigniert, die GIL-Hölle für die unbestimmte Zukunft zu ertragen. Aber dann dachte ich, warum nicht? Lass mich einfach sehen, ob codex und GPT-5 das alles durchdrücken können. Also habe ich meine Einstellungen gesichert und codex gebeten, es zu versuchen, indem ich den aktuellen Blogbeitrag des uv-Teams zur Verfügung stellte, um es zu starten. Es gab einige große Hindernisse. Ich benutze PyTorch, das notorisch langsam aktualisiert wird. Und auch pyarrow, das ebenfalls 3.14 nicht unterstützte. Gleiches gilt für cvxpy, den Wrapper zur konvexen Optimierungsbibliothek. Dennoch wollte ich sehen, was wir tun könnten, auch wenn wir uns mit dem Gehirnschaden des "Vendoring" einiger Bibliotheken und dem Aufbau von Dingen von Grund auf in C++, Rust usw. unter Verwendung der neuesten nächtlichen GitHub-Repositories anstelle der üblichen PyPi-Bibliotheken auseinandersetzen mussten. Ich habe codex gesagt, es solle das Web durchsuchen, GitHub-Issue-Seiten lesen usw., damit wir das Rad nicht unnötig neu erfinden (oder WHL, sollte ich sagen, 🤣). Warum nicht? Ich könnte immer Dinge testen, und wenn ich es nicht zum Laufen bringen könnte, könnte ich einfach zu Python 3.13 zurückkehren, oder? Kein Schaden, kein Vergehen. Nun, es hat viele Stunden Arbeit gekostet, fast alles davon wurde von codex erledigt, während ich gelegentlich nachgefragt habe, aber es hat es geschafft, alles zum Laufen zu bringen! Sicher, es hat viele Iterationen gebraucht, und ich musste einige Dinge anpassen, um nervige Abwertungswarnungen zu vermeiden (einige davon stammen von anderen Bibliotheken, also musste ich sie letztendlich filtern). Aber diese Bibliotheken werden sich im Laufe der Zeit aktualisieren, um 3.14 besser zu unterstützen, und schließlich werde ich keine dieser nervigen Umgehungen mehr benötigen. Codex hat sogar vorgeschlagen, die kompilierten whl-Artefakte in Cloudflares R2 (wie s3) hochzuladen, damit wir sie einfach über Maschinen hinweg wiederverwenden können, und hat sich um alle Details für mich gekümmert. Ich hätte nie daran gedacht, das selbst zu tun. Jedes Mal, wenn es eine weitere Komplikation oder ein Problem gab (zum Beispiel, was im Screenshot unten gezeigt wird), hat codex es einfach herausgefunden und alles durchgezogen, als wäre nichts. Wenn du noch nie versucht hast, so etwas in den "schlechten alten Tagen" vor LLMs zu tun, war es ein undankbarer Grind, der Tage in Anspruch nehmen konnte und dann auf ein Hindernis stieß, was zu einem totalen Ausfall führte. Es war also einfach zu riskant, es die meiste Zeit überhaupt zu versuchen; es war besser, einfach 6 oder 9 Monate zu warten, bis die Dinge wieder einfach wurden. Wie auch immer, ich kann immer noch nicht wirklich glauben, dass alles funktioniert! Wir leben in der Zukunft.
Wenn dir klar wird, dass der Tweet wahrscheinlich gut ankommen wird:
1,87K