Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Spheron Network
Construcción del centro de datos impulsado por la comunidad más grande del mundo para cargas de trabajo de IA, también conocido como computación DePIN
Acabamos de hacer que nuestra integración x402 sea completamente de código abierto. ¿Por qué? 
Porque el futuro de la computación debería ser construido por todos, no escondido detrás de paneles de control.
Ahora puedes solicitar GPUs, pagar con stablecoins y desplegar cargas de trabajo directamente, todo desde el código.

Spheron Network30 oct, 14:34
Todos están construyendo agentes de IA que necesitan computación.
Acabamos de lanzar la infraestructura con x402 que les permite arrendar sus propias GPUs.
Nuestro equipo enfrentó un desafío: "x402 no soporta precios dinámicos, así que cambiamos la lógica y hicimos que la duración fuera dinámica en su lugar."
Spheron x402 ofrece:
• Aprovisionamiento de GPU sin fricciones (HTTP 402 + pago automático a través de x402-axios)
• Economía justa para los proveedores (Niveles fijos de USDC → tiempo de ejecución dinámico por tipo de GPU)
• Comercio de agentes sin fricciones (Verificaciones de estado basadas en firma, sin costo adicional)
Código abierto. Listo para producción.
Calculado en tiempo real. Justo para los proveedores. Instantáneo para los agentes.
Así que dejemos de esperar por "infraestructura nativa de agentes." Comencemos a construir sobre Spheron.
1,83K
Este es el momento definitivo de DePIN. 
Lo que Elon describió no es solo una innovación de Tesla, es la filosofía de la computación descentralizada en acción.
Una red global, autosuficiente, de grado GPU, sin centros de datos, sin CapEx, solo millones de nodos inactivos convirtiéndose en potencia de inferencia en tiempo real.

Nic Cruz Patane29 oct, 01:39
Elon Musk tuvo una idea bastante increíble durante la llamada de ganancias del tercer trimestre, de la que nadie está hablando realmente. 
Sus palabras: “De hecho, una de las cosas que pensé, si tenemos todos estos coches que tal vez están aburridos, mientras están, si están aburridos, podríamos tener una enorme flota de inferencia distribuida y decir, si no están conduciendo activamente, simplemente tengamos una enorme flota de inferencia distribuida. 
En algún momento, si tienes decenas de millones de coches en la flota, o tal vez en algún momento 100 millones de coches en la flota, y digamos que en ese momento, no sé, tenían un kilovatio de capacidad de inferencia, de capacidad de inferencia de alto rendimiento, eso son 100 gigavatios de inferencia distribuida con la energía y el enfriamiento gestionados. Eso parece un activo bastante significativo.”
Así que básicamente, cada coche tiene ~1 kilovatio de capacidad de inferencia de IA de alto rendimiento, Tesla no necesitaría construir enormes centros de datos: la flota es el centro de datos. 
Tesla podría convertir toda su flota en una enorme red de inferencia distribuida, extendida por todo el mundo, alimentada por las baterías y la IA que ya están en el coche.
Mente explotada.

1,6K
Imagina un único modelo de IA que puede mejorar sus habilidades de razonamiento sin ninguna tutoría humana o conjuntos de datos externos. ¿Suena a ciencia ficción? 
Bueno, la última investigación de Nvidia está convirtiendo esto en realidad con un marco innovador llamado Multi-Agent Evolve (MAE)
MAE: un sistema de auto-evolución con tres roles derivados del mismo modelo:
1. Proponente: Formula preguntas desafiantes, pero solucionables
2. Solucionador: Responde a estas preguntas con un razonamiento paso a paso
3. Juez: Evalúa tanto las preguntas como las soluciones, asignando puntuaciones fiables
Esto crea un ecosistema interno donde el modelo aprende de sus propias salidas, elevando constantemente su capacidad de razonamiento.
En el modelo Qwen 2.5-3B de Nvidia, este método logró un impresionante aumento de precisión del +4.54% en múltiples benchmarks, superando el ajuste fino supervisado tradicional. 
Más importante aún:
↳ Iguala el rendimiento de configuraciones de auto-juego más complejas que dependen de herramientas externas.
↳ Reduce la dependencia de etiquetas humanas y entornos externos.
↳ Demuestra un desarrollo de IA escalable y autosostenible, ideal para tareas de razonamiento abiertas.
Este avance posiciona la IA auto-evolutiva como un camino prometedor hacia sistemas autónomos capaces de auto-mejorarse en dominios diversos y complejos. Insinúa futuros modelos de IA que pueden adaptarse, aprender y mejorar a sí mismos con mínima intervención humana, muy parecido a la evolución biológica, pero en el ámbito digital.
Fuente:

1,6K
Parte superior
Clasificación
Favoritos
