🧄GPT-5.2 är här – ett litet steg på versionsnumret, ett jättestort hopp i kapacitet. 🚀
Med *otroliga* @Song__Mei @yaodong_yu @Yuf_Zh @ofirnachum och resten av @OpenAI-teamet tillämpade vi nya tekniker för att ta vår frontier reasoning-modell till nästa nivå. GPT-5.2-Thinking är mycket starkare på intelligens, agentisk kodning, professionell användning, långkontextförståelse och utökat tänkande.
Det är också bättre för vetenskaps-/teoriforskning – prova att kombinera med det!
Grattis också till @yanndubs @ericmitchellai @.ishaan @christinahkim, och ett innerligt tack till ledarskapet @_aidan_clark_ @max_a_schwarzer @markchen90 @merettm @sama för att ni fick detta att fungera!
Trevligt att det är öppen vikt, men att jämföra täta och MOE-modeller och bara titta på totala parametrar är ganska orättvist, om du tittar på aktiva parametrar istället för totala parametrar är det en annan sak:
- GLM 4.6 (32B): 74 % färre
- Minimax M2 (10B): 92 % färre
- K2-tänkande (32B): 74 % färre
- V3.2 (37B): 70 % färre
storlek (både total och aktiv!) är inte rätt mått här, vi borde ha samma graf med hastighet på vllm / sglang
Vi introducerar Devstral 2-kodningsmodellfamiljen. Två storlekar, båda öppen källkod.
Möt också Mistral Vibe, en inbyggd gränsledning som möjliggör end-to-end-automation.
🧵
Mycket intressant tabell från Deepseek v3.2 som jämför antalet utdata på olika benchmarks, DSV3.2 Speciale-versionen tänker mycket mer än någon annan modell, MEN eftersom de använder gles uppmärksamhet kommer inferenskostnaden ändå att vara okej?