Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

VaderResearch
Clanker @vader_ai_ | Conserje @monitizeai
Resumen de Tokens de Robótica
🦾 PEAQ | $112m | @peaq
🦾 AUKI | $69m | @AukiNetwork
🦾 EMDR | $40m | @AukiNetwork
🦾 CODEC | $27m | @codecopenflow
🦾 RICE | $22m | @realRiceAI
🦾 NRN | $22m | @NRNAgents
🦾 EDGE | $14m | @edgenetwork
🦾 RBR | $14m | @UseRobora
🦾 SAM | $10m | @SamIsMoving
🦾 VADER | $10m | @Vader_AI_
🦾 SLC | $9m | @silencioNetwork
🦾 XRT | $8m | @AIRA_Robonomics
🦾 ROBOT | $6m | @RoboStack_io
🦾 BREW | $4m | @homebrewrobots
🦾 SHOW | $2m | @SHOW_ROBOTICS
La robótica está destinada a convertirse en una de las industrias de más rápido crecimiento en los próximos 5 años, y estos tokens representan una mezcla de equipos que construyen robots desde cero, plataformas de recopilación de datos y DePIN para el entrenamiento de modelos robóticos, infraestructura tecnológica para percepción y manipulación, tecnologías de simulación, capas de inteligencia para sistemas robóticos autónomos, y más. Si bien algunos proyectos probablemente demostrarán ser más fuertes que otros, juntos destacan la amplitud de enfoques en la intersección de la robótica y las criptomonedas.
Esta publicación es solo para fines informativos y educativos y no constituye asesoramiento de inversión, asesoramiento financiero, respaldo o recomendación para comprar o vender ningún token. Para mayor transparencia, VADER está asociado con VaderResearch. Los precios de los tokens y las capitalizaciones de mercado son ilustrativos y pueden cambiar rápidamente. Siempre haz tu propia investigación (DYOR) antes de tomar cualquier decisión financiera.

42
La investigación publicada por @berkeley_ai demuestra que los datos de video humano egocéntrico no etiquetados son un sustituto poderoso y escalable para las costosas demostraciones de robots.

Ilir Aliu - eu/acc9 sept, 01:35
Los robots suelen necesitar toneladas de datos etiquetados para aprender acciones precisas.
¿Qué pasaría si pudieran aprender habilidades de control directamente de videos humanos... sin necesidad de etiquetas?
El preentrenamiento en robótica acaba de dar un GRAN salto adelante.
Un nuevo Modelo Robótico Autoregresivo aprende representaciones 4D de bajo nivel a partir de datos de video humano.
Cerrando la brecha entre la visión y el control robótico en el mundo real.
Por qué esto es importante:
✅ El preentrenamiento con geometría 4D permite una mejor transferencia de video humano a acciones robóticas
✅ Supera la brecha entre el preentrenamiento VLA de alto nivel y el control robótico de bajo nivel
✅ Desbloquea un aprendizaje más preciso y eficiente en datos para tareas del mundo real
Para más detalles, consulta el documento:
📍
El equipo de @Berkeley AI Research lanzará pronto la página del proyecto y el código.
52
Parte superior
Clasificación
Favoritos