Chiedendo a Claude di rivedere un post su cui sto lavorando e trovare errori...
(Chiedere di utilizzare la ricerca web risolve il problema, ovviamente)
Microsoft ora ha il proprio modello di fondazione, MAI-1, addestrato su una quantità relativamente ridotta di calcolo e con un punteggio LM Arena piuttosto modesto.
Sarò curioso di vedere se riusciranno a raggiungere i leader, il che è diventato qualcosa di difficile da fare, ma vedremo!
Questo è un punto piuttosto importante, ci siamo affidati al fatto che tutti i LLM siano ampiamente simili tra loro (fino al punto che il prompting è compatibile tra i modelli). Questo potrebbe iniziare a cambiare con l'apprendimento per rinforzo.
tutte le aziende di modelli sono state pre-addestrate sulla ~stessa internet. ovviamente, grok ha accesso al dataset di twitter e gemini può pre-addestrarsi su youtube & così via. ma è per lo più la stessa internet
oh, gli ambienti rl saranno ciò che il laboratorio sceglie di dare priorità. quindi dovresti aspettarti più speciazione.