Robots hebben meestal tonnen gelabelde data nodig om precieze acties te leren. Wat als ze controlevaardigheden rechtstreeks uit menselijke video's konden leren... geen labels nodig? Robotics pretraining heeft net een GROTE sprong voorwaarts gemaakt. Een nieuw Autoregressief Robotmodel leert low-level 4D-representaties uit menselijke videodata. De kloof overbruggen tussen visie en robotbesturing in de echte wereld. Waarom dit belangrijk is: ✅ Pretraining met 4D-geometrie maakt betere overdracht van menselijke video naar robotacties mogelijk ✅ Overbrugt de kloof tussen high-level VLA-pretraining en low-level robotbesturing ✅ Ontgrendelt nauwkeuriger, data-efficiënt leren voor taken in de echte wereld Voor meer details, bekijk het paper: 📍 Het team van @Berkeley AI Research zal binnenkort de projectpagina en code vrijgeven.