Det är extremt bra att Anthropic inte har backat, och det är tydligt att OpenAI har tagit en liknande hållning.
I framtiden kommer det att finnas mycket mer utmanande situationer av denna typ, och det kommer att vara avgörande för de relevanta ledarna att ta steget till, för att hårdföra konkurrenter lägger sina meningsskiljaktigheter åt sidan. Kul att se det hända idag.
Det är oerhört bra att Anthropic inte har backat, och det är betydelsefullt att OpenAI nu har antagit samma villkor.
I framtiden kommer det att finnas mycket mer utmanande situationer av denna typ, och det kommer att vara avgörande för de relevanta ledarna att ta steget till, för att hårdföra konkurrenter lägger sina meningsskiljaktigheter åt sidan. Kul att se det hända idag.
En poäng jag tog upp som inte gick fram:
- Att skala upp det nuvarande kommer att fortsätta leda till förbättringar. Särskilt kommer den inte att stanna.
- Men något viktigt kommer fortsätta saknas.
Här är de viktigaste punkterna från dagens Ilya Sutskever podcast:
- superintelligens på 5–20 år
- strömmätning kommer att stanna hårt; Vi är tillbaka till riktig forskning
- superintelligens = supersnabb kontinuerlig lärande, inte färdig orakel
- modeller generaliserar 100 gånger sämre än människor, den största AGI-blockeraren
- behöver helt nytt ML-paradigm (jag har idéer, kan inte dela just nu)
- AI:s påverkan kommer att slå hårt, men först efter ekonomisk spridning
- genombrott som historiskt sett krävde nästan ingen beräkning
- SSI har tillräckligt fokuserad forskningsberäkning för att vinna
- nuvarande RL redan kräver mer beräkning än förträning