RIP fine-tuning ☠️ Questo nuovo documento di Stanford l'ha appena ucciso. Si chiama 'Agentic Context Engineering (ACE)' e dimostra che puoi rendere i modelli più intelligenti senza toccare un solo peso. Invece di riaddestrare, ACE evolve il contesto stesso. Il modello scrive, riflette e modifica il proprio prompt ripetutamente fino a diventare un sistema di auto-miglioramento. Pensalo come se il modello tenesse un quaderno in crescita di ciò che funziona. Ogni fallimento diventa una strategia. Ogni successo diventa una regola. I risultati sono assurdi: +10,6% meglio rispetto agli agenti alimentati da GPT-4 su AppWorld. +8,6% nel ragionamento finanziario. 86,9% di costo e latenza inferiori. Nessuna etichetta. Solo feedback. Tutti sono stati ossessionati da prompt “corti e puliti”. ACE capovolge tutto. Costruisce playbook lunghi e dettagliati in evoluzione che non dimenticano mai. E funziona perché i LLM non vogliono semplicità, vogliono *densità di contesto. Se questo scala, la prossima generazione di AI non sarà “fine-tuned”. Sarà auto-tuned. Stiamo entrando nell'era dei prompt viventi.