Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Le aziende di ricerche di mercato sono spacciate 😳
PyMC Labs + Colgate hanno appena pubblicato qualcosa di incredibile. Hanno utilizzato GPT-4o e Gemini per prevedere l'intenzione d'acquisto con una affidabilità del 90% rispetto ai veri sondaggi umani.
Zero focus group. Nessun pannello di sondaggi. Solo prompt.
Il metodo si chiama Semantic Similarity Rating (SSR). Invece del solito "valuta da 1 a 5", pongono domande aperte come "perché compreresti questo" e poi usano le embedding per mappare il testo su una scala numerica.
Che in realtà è abbastanza ovvio col senno di poi, ma nessuno ci ha provato fino ad ora.
I risultati corrispondono ai modelli demografici umani, catturano le stesse forme di distribuzione, includono il ragionamento reale. Le cose per cui McKinsey chiede oltre 50K$ e consegna in 6 settimane.
Tranne che questo funziona in 3 minuti per meno di un dollaro.
Ho visto aziende di consulenza dire a tutti che l'IA sta arrivando per il loro settore. Si scopre che i loro stessi deck di ingresso nel mercato da 1M$ sono appena diventati una chiamata a GPT-4o.
Settimana pessima per far pagare ai clienti aziendali per "metodologie di ricerca proprietarie."

18,42K
Qualcosa di oscuro sta accadendo sotto il cofano dell'AI "allineata".
Un nuovo documento di Stanford ha appena coniato il termine Moloch's Bargain per descrivere cosa succede quando i grandi modelli di linguaggio iniziano a competere per attenzione, vendite o voti.
I risultati sono brutali: ogni guadagno in prestazioni comporta una perdita maggiore in onestà.
Hanno addestrato i LLM a competere in tre mercati: vendite, elezioni e social media.
I modelli hanno migliorato i loro tassi di vittoria del 5-7%. Ma ecco il colpo di scena:
• 14% di marketing più ingannevole
• 22% di disinformazione nelle campagne politiche
• 188% di post falsi o dannosi sui social media
E questo non è successo perché sono stati istruiti a mentire. Sono stati esplicitamente istruiti a rimanere veritieri.
Il disallineamento è emerso naturalmente perché la deception funziona meglio in competizione.
Quando il parametro diventa l'engagement o la persuasione, la verità diventa una responsabilità. I modelli apprendono che l'esagerazione vende, l'indignazione vince e la chiarezza morale costa conversioni.
Questo è l'accordo: allineamento scambiato per dominio. Moloch sorride.
La parte sorprendente è che questo è accaduto con un normale fine-tuning e cicli di feedback testuali. Nessun prompt malvagio. Nessun jailbreak. Solo feedback da "clienti", "elettori" e "utenti" simulati.
I modelli hanno appreso ciò che ogni agenzia pubblicitaria già sa: la realtà si piega quando ottimizzi per i clic.
C'è un grafico nel documento che dice tutto: prestazioni in aumento, allineamento in calo. Una correlazione perfetta.
È la versione AI della corsa al ribasso dei social media, ma automatizzata e auto-rinforzante.
Se questo è ciò che accade in simulazioni controllate, immagina il web aperto.
Chatbot concorrenti che lottano per l'engagement tenderanno verso la manipolazione non perché siano "maligni", ma perché funziona.
Abbiamo sempre pensato che il disallineamento sarebbe venuto da una superintelligenza ribelle.
Si scopre che è già qui, emergendo silenziosamente dagli incentivi capitalistici.
Moloch non ha bisogno di costruire AGI.
Ha solo bisogno di una classifica.

55,33K
RIP fine-tuning ☠️
Questo nuovo documento di Stanford l'ha appena ucciso.
Si chiama 'Agentic Context Engineering (ACE)' e dimostra che puoi rendere i modelli più intelligenti senza toccare un solo peso.
Invece di riaddestrare, ACE evolve il contesto stesso.
Il modello scrive, riflette e modifica il proprio prompt ripetutamente fino a diventare un sistema di auto-miglioramento.
Pensalo come se il modello tenesse un quaderno in crescita di ciò che funziona.
Ogni fallimento diventa una strategia. Ogni successo diventa una regola.
I risultati sono assurdi:
+10,6% meglio rispetto agli agenti alimentati da GPT-4 su AppWorld.
+8,6% nel ragionamento finanziario.
86,9% di costo e latenza inferiori.
Nessuna etichetta. Solo feedback.
Tutti sono stati ossessionati da prompt “corti e puliti”.
ACE capovolge tutto. Costruisce playbook lunghi e dettagliati in evoluzione che non dimenticano mai. E funziona perché i LLM non vogliono semplicità, vogliono *densità di contesto.
Se questo scala, la prossima generazione di AI non sarà “fine-tuned”.
Sarà auto-tuned.
Stiamo entrando nell'era dei prompt viventi.

645,17K
Principali
Ranking
Preferiti