o1/o3 були справжнім GPT5, і вони забезпечили важкий, можливо, більший стрибок, ніж GPT3 до 4, RL все ще продовжує дотримуватися закону масштабування Попереднє навчання також масштабується, але висновок занадто дорогий з гігантською моделлю Погодьтеся, що відкритий вихідний код виграє
Yuchen Jin
Yuchen Jin10 серп., 12:04
GPT-5 failed twice. Scaling laws are coming to an end. Open-source AI will have the Mandate of Heaven.
4,32K