Jag har varit djupt involverad i AI (maskininlärning på den tiden...) sedan 2007. studerade maskininlärning i USA, läste de flesta böckerna, lyssnade på alla podcasts. Ingenting chockade mig som Roman Yampolskiys senaste bok + intervju. 🧵
Hans uppfattning är sällsynt + djupgående: Att bygga artificiell superintelligens (ASI) är inte bara riskabelt, det är i princip garanterat utrotning.
Kapaciteten är löst (beräkning + data = smartare AI). säkerheten är inte löst. Och klyftan mellan de två växer för varje dag.
Prediction Markets + Lab-ledare säger att AGI kan anlända till 2027. Superintelligens följer troligen av sig själv. Vi är inte redo.
Roman förutspår inte 10% arbetslöshet, men nära total (>99%+). både kognitivt + fysiskt arbete ersattes. Omträning hjälper inte om alla jobb kan automatiseras.
"Skyddsräcken" är plåster. Smartare system slingrar sig runt dem. Kopplar? fantasi. Du drar inte ur kontakten på något som överlistar dig, det drar i ditt.
utrotningsrisk behöver inte ens asi. AI-assisterad bio kan ge en dålig aktör verktyg för skada i civilisationsskala.
Tävlingsdynamiken är trasig: När ASI väl är påslagen spelar det ingen roll vem som byggde den. Båda sidor förlorar.
Romans uppmaning: Pausa Asi. Håll smal AI för verkliga problem. Sluta jaga "gudalika" system som vi inte kan anpassa eller kontrollera.
2,65K