Adicionando algum contexto aqui, o aumento do poder de computação também equivale a um maior consumo de energia, o que é insustentável. A EpochAI projetou que: ➤ A computação de treinamento está sendo dimensionada de 4 a 5 vezes por ano. ➤ Espera-se que a demanda de energia aumente de 2,2 a 2,9 vezes por ano. Até 2030, cada corrida de treinamento pode exigir de 4 a 16 gigawatts (GW), o suficiente para abastecer milhões de residências nos EUA. Várias soluções estão disponíveis: ➤ Melhore a eficiência energética do hardware ➤ Desenvolver métodos para reduzir a duração do treinamento ➤ Utilize o treinamento distribuído em várias GPUs em diferentes localizações geográficas. Entre elas, a terceira opção, encabeçada por projetos como @ionet, @render e @AethirCloud, parece a solução mais viável e imediata. h / t @EpochAIResearch