Hur skalar man visuell affordance-inlärning som är finkornig, uppgiftsbetingad, fungerar i det vilda, i dynamiska envs? Vi introducerar Unsupervised Affordance Distillation (UAD): destillerar affordances från standardmodeller för foundations, *allt utan manuella etiketter*. Jag är mycket glad över att detta är nominerat som Best Paper Finalist på #ICRA2025! 🧵👇
75,48K