För att lägga till lite kontext här är ökad datorkraft också lika med större energiförbrukning, vilket är ohållbart. EpochAI förutspådde att: ➤ Träningsberäkning skalas med 4–5 gånger per år. ➤ Energibehovet förväntas öka med 2,2 gånger till 2,9 gånger per år. År 2030 kan varje träningskörning kräva 4-16 gigawatt (GW), tillräckligt för att driva miljontals amerikanska hem. Det finns flera lösningar: ➤ Förbättra hårdvarans energieffektivitet ➤ Utveckla metoder för att minska träningstiden ➤ Använd distribuerad träning över flera GPU:er på olika geografiska platser. Bland dessa verkar det tredje alternativet, som drivs av projekt som @ionet, @render och @AethirCloud, vara den mest genomförbara och omedelbara lösningen. h/t @EpochAIResearch