Roboter benötigen normalerweise Unmengen an gekennzeichneten Daten, um präzise Aktionen zu erlernen. Was wäre, wenn sie Kontrollfähigkeiten direkt aus menschlichen Videos lernen könnten… ohne benötigte Labels? Das Pretraining in der Robotik hat gerade einen GROSSEN Sprung nach vorne gemacht. Ein neues autoregressives Robotermodell lernt niedrigstufige 4D-Darstellungen aus menschlichen Videodaten. Es überbrückt die Kluft zwischen Vision und realweltlicher Robotersteuerung. Warum das wichtig ist: ✅ Pretraining mit 4D-Geometrie ermöglicht einen besseren Transfer von menschlichen Videos zu Roboteraktionen ✅ Überwindet die Kluft zwischen hochgradigem VLA-Pretraining und niedrigstufiger Robotersteuerung ✅ Ermöglicht genaues, dateneffizientes Lernen für reale Aufgaben Für weitere Details, siehe das Papier: 📍 Das Team von @Berkeley AI Research wird bald die Projektseite und den Code veröffentlichen.