Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GPT-5 è un esercizio di riduzione dei costi? 🤔


14 ago, 19:14
Questo è un articolo interessante che riassume alcune delle cose che già conosciamo—ma lo riassume di nuovo: il taglio dei costi di OpenAI con GPT-5.
Quando consideri che ChatGPT è utilizzato da 700 milioni di utenti attivi settimanali, di cui solo il 3% sono utenti paganti, si rivela l'enorme scala e, allo stesso tempo, uno dei problemi che OpenAI deve affrontare: i costi.
Come ho già detto più volte, il grande vantaggio che OpenAI ha attualmente rispetto ai suoi concorrenti è principalmente la distribuzione. Per molti al di fuori della nostra bolla AI, l'AI è quasi sinonimo di ChatGPT, proprio come la ricerca online è spesso sinonimo di Google. Tuttavia, questo vantaggio di distribuzione ha un prezzo elevato - letteralmente.
Allo stesso tempo, OpenAI ha costantemente bisogno di nuovi fondi per mantenere sia l'addestramento che l'inferenza in funzione. Anche se la cooperazione con Microsoft sta dando i suoi frutti, OpenAI si trova in una posizione peggiore rispetto a concorrenti come Google, che hanno un flusso di cassa sano e costante e ottime fonti di reddito, oltre ai propri data center con TPU sviluppati internamente. In questo contesto, è solo logico che GPT-5 abbia posto anche un forte focus sull'efficienza.

16,65K
Principali
Ranking
Preferiti