Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Roboter benötigen normalerweise Unmengen an gekennzeichneten Daten, um präzise Aktionen zu erlernen.
Was wäre, wenn sie Kontrollfähigkeiten direkt aus menschlichen Videos lernen könnten… ohne benötigte Labels?
Das Pretraining in der Robotik hat gerade einen GROSSEN Sprung nach vorne gemacht.
Ein neues autoregressives Robotermodell lernt niedrigstufige 4D-Darstellungen aus menschlichen Videodaten.
Es überbrückt die Kluft zwischen Vision und realweltlicher Robotersteuerung.
Warum das wichtig ist:
✅ Pretraining mit 4D-Geometrie ermöglicht einen besseren Transfer von menschlichen Videos zu Roboteraktionen
✅ Überwindet die Kluft zwischen hochgradigem VLA-Pretraining und niedrigstufiger Robotersteuerung
✅ Ermöglicht genaues, dateneffizientes Lernen für reale Aufgaben
Für weitere Details, siehe das Papier:
📍
Das Team von @Berkeley AI Research wird bald die Projektseite und den Code veröffentlichen.
Top
Ranking
Favoriten