Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Agregando algo de contexto aquí, el aumento de la potencia de cálculo también equivale a un mayor consumo de energía, lo cual no es sostenible.
EpochAI proyectó que:
➤ El cálculo de entrenamiento está escalando a 4-5 veces anualmente.
➤ Se espera que la demanda de energía aumente entre 2.2x y 2.9x por año.
Para 2030, cada ejecución de entrenamiento podría requerir entre 4 y 16 gigavatios (GW), suficiente para alimentar millones de hogares en EE. UU.
Existen varias soluciones disponibles:
➤ Mejorar la eficiencia energética del hardware
➤ Desarrollar métodos para reducir la duración del entrenamiento
➤ Utilizar entrenamiento distribuido a través de múltiples GPUs en diferentes ubicaciones geográficas.
Entre estas, la tercera opción, liderada por proyectos como @ionet, @render y @AethirCloud, parece ser la solución más factible e inmediata.
h/t @EpochAIResearch

Parte superior
Clasificación
Favoritos