o1/o3 eran el verdadero gpt5 y realmente entregaron duro, tal vez un salto más grande que de gpt3 a 4, RL sigue continuando siguiendo la ley de escalado. El preentrenamiento también escala, pero la inferencia es simplemente demasiado cara con un modelo gigante. Sin embargo, estoy de acuerdo en que el código abierto ganará.
Yuchen Jin
Yuchen Jin10 ago, 12:04
GPT-5 failed twice. Scaling laws are coming to an end. Open-source AI will have the Mandate of Heaven.
4,31K