Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Así que Python 3.14 finalmente salió de verdad ayer. Finalmente, eliminar el GIL (bloqueo global del intérprete), que permite un código multiproceso mucho más rápido sin lidiar con todo el daño cerebral y la sobrecarga del multiprocesamiento u otras soluciones alternativas. Y los rayos UV ya lo soportan por completo, lo cual es tremendamente impresionante.
Pero de todos modos, estaba un poco desanimado, porque el proyecto principal en el que estoy trabajando tiene una gran cantidad de dependencias de bibliotecas, y siempre lleva mucho tiempo obtener soporte principal para las nuevas versiones de Python, particularmente cuando son tan revolucionarias y diferentes como lo es la versión 3.14.
Así que me resigné a soportar el infierno de Gil en un futuro indefinido.
Pero luego pensé, ¿por qué no? Déjame ver si el códice y GPT-5 pueden superarlo todo. Así que hice una copia de seguridad de mi configuración y le pedí a Codex que lo intentara, dándole la reciente publicación del blog del equipo de uv para comenzar.
Hubo algunos obstáculos importantes. Uso PyTorch, que es notoriamente lento para actualizar. Y también pyarrow, que tampoco era compatible con 3.14. Lo mismo con cvxpy, el envoltorio de la biblioteca de optimización convexa.
Aún así, quería ver qué podíamos hacer incluso si tuviéramos que lidiar con el daño cerebral de "vender" algunas bibliotecas y construir algunas cosas desde cero en C ++, Rust, etc. usando los últimos repositorios nocturnos de GitHub en lugar de las bibliotecas habituales de PyPi.
Le dije a Codex que buscara en la web, que leyera las páginas de problemas de GitHub, etc., para que no reinventáramos la rueda (o WHL, debería decir, 🤣 ) innecesariamente.
¿Por qué no? Siempre podía probar cosas, y si no podía hacer que funcionara, entonces podía volver a Python 3.13, ¿verdad? Sin daño, sin falta.
Bueno, tomó muchas horas de trabajo, casi todo hecho por codex mientras ocasionalmente lo revisaba, ¡pero logró que todo funcionara!
Claro, tomó un montón de iteraciones, y tuve que modificar algunas cosas para evitar molestas advertencias de obsolescencia (algunas de las cuales provienen de otras bibliotecas, por lo que finalmente tuve que filtrarlas).
Pero esas bibliotecas se actualizarán con el tiempo para admitir mejor 3.14 y, finalmente, no necesitaré usar ninguna de estas molestas soluciones.
Codex incluso sugirió cargar los artefactos whl compilados en el R2 de Cloudflare (como s3) para que pudiéramos reutilizarlos fácilmente en todas las máquinas, y se encargó de todos los detalles por mí. Nunca pensaría en hacer eso por mi cuenta.
Cada vez que había otra complicación o problema (por ejemplo, lo que se muestra en la captura de pantalla a continuación), el códice simplemente lo descubría y lo atravesaba todo como si nada.
Si nunca ha intentado hacer algo como esto en los "malos viejos tiempos" antes de los LLM, era una rutina ingrata que podía consumir días y luego chocar con un obstáculo, lo que resultaba en una aniquilación total.
Así que era simplemente demasiado arriesgado intentarlo la mayor parte del tiempo; Era mejor esperar 6 o 9 meses para que las cosas volvieran a ser simples.
De todos modos, ¡todavía no puedo creer que todo esté funcionando! Vivimos en el futuro.

Cuando te des cuenta de que el tweet probablemente va a funcionar bien:

1.88K
Populares
Ranking
Favoritas