Robotar behöver vanligtvis massor av märkta data för att lära sig exakta åtgärder. Tänk om de kunde lära sig kontrollfärdigheter direkt från mänskliga videor ... Behövs inga etiketter? Robotikförträningen har precis tagit ett STORT steg framåt. En ny autoregressiv robotmodell lär sig 4D-representationer på låg nivå från mänskliga videodata. Överbrygga klyftan mellan vision och verklig robotstyrning. Varför detta är viktigt: ✅ Förträning med 4D-geometri möjliggör bättre överföring från mänsklig video till robotåtgärder ✅ Övervinner klyftan mellan VLA-förträning på hög nivå och robotstyrning på låg nivå ✅ Låser upp mer exakt, dataeffektiv inlärning för verkliga uppgifter För mer information, kolla in tidningen: 📍 Teamet på @Berkeley AI Research kommer snart att släppa projektsidan och koden.