AI en z’n absurde energie verbruik

Onlangs is er een WSJ artikel geplaatst over de hoge nood aan energie door gebruik van AI, helaas betalend.
Dit medium artikel vat het mooi samen

3 likes

Het positieve is dat big tech investeert in kernfusie of andere vernieuwende energie-bronnen. Maar 15 Gigawatt is veel energie :-o

1 like

Goed artikel, maar ook een beetje eenzijdig. In de zin dat enkel de “energie uitgaven” bekeken worden, maar niet de “inkomsten”.

AI in industrie zorgt voor grote besparingen ook, niet alleen op vlak van energie maar ook op vlak van grondstoffen.
Denk aan betere algoritmes voor pakjesdiensten efficienter te laten rondrijden, efficiëntere processen bij Arcelor Mittal (die op zn eentje al verantwoordelijk is voor 10% van huidig Belgisch energieverbruik), betere kwaliteitscontroles via AI camera-analyse wat zorgt voor minder afval, minder verspilling, …

5 likes

Worden AI data centers kleine nucleare kerncentrales?

Nuscale, een bedrijf gefocust op modulaire nucleaire units is alvast bezig op SMR (Small modular reactor) designs, maar heeft (tijdelijk) de handdoek in de ring moeten gooien door inflatie.

Sammie Altman van OpenAI is trouwens ook fan van nuclear energy. Zijn start-up bedrijf Oklo is ook bezig met SMRs

1 like

In België wil het SCK tegen 2035-2040 een eerste SMR demonstrator op poten hebben staan

OK, maar vooralsnog zijn dat drops in the ocean tegenover de hoeveelheid energie die nodig zal zijn voor AI. Zal toch kwestie worden om dat vooral ook veel efficiënter te realiseren. Vandaar dus dat Altman $7 biljoen wil ophalen voor efficiëntere chips, zodat ze er geen duizenden meer aan elkaar meer moeten verbinden.

Heb je cijfers over die “drops in the ocean”?

Nee, maar het gaat hier toch vooral over theoretische en incrementele verbeteringen op bestaande modellen, right? Waar is het bewijs dat improvements door AI tot een netto break even of energiebesparing zouden leiden? Welke AI die leverroutes optimaliseert was niet al eerder in gebruik, en levert die dan een significant efficiëntiewinst op, of een marginale?

Alles wijst er tot nu toe op dat AI vooral heel erg efficiënte chips zal nodig hebben, en dan nog steeds energie-intensief zal zijn.

1 like

Ik ben het zeker en vast met jou eens dat het energie efficiënter moet worden!
Waar ik met een figuur zoals Sam Altman schrik voor heb is dat efficiëntie niet gebruikt wordt om minder energie te verbruiken maar wel om goed te praten dat je ettelijke malen meer chips kan inzetten (scale to the moon) om dan véél te hard te gaan zonder enige regelgeving want “het is toch efficiënter”.
Ik vertrouw die kerel niet genoeg met zoveel macht. 7 biljoen (of "fck it make it 8) moeten we volgens mij niet aan hem geven. (Misschien beetje tinfoil hat maar ben wel wat sceptisch).

Ik reken eerder op de gevestigde waardes als Nvidia om efficiëntere chips te maken. Zij hebben er alle baat bij, anders gaat de vraag dalen of stappen hun klanten over op een fabrikant die wél efficiënt is.

Ik denk dat we mogelijks wat naast elkaar aan het praten zijn en dat we niet alle "AI"s over dezelfde kam mogen scheren.
Het duidelijkste onderscheid is te maken tussen “generative AI” en “predictive AI”.
De eerste categorie gaat over ChatGPT, Dall-E, Sora, etc. Daar schat ik ook in dat het veel meer energie verbruikt dan dat het (voor industriële toepassingen) oplevert.

Voor de 2e categorie ligt de balans helemaal anders. Dan heb ik het over predictive maintenance, digital twins die iteratieve productieprocessen versnellen, computervisie etc… Die dingen zijn relatief makkelijk te trainen, zelfs zonder GPU/TPU/…
Ik had het in mijn voorgaande berichten vooral hier over, terwijl Altman en co momenteel vooral met de eerste categorie bezig zijn.

Los daarvan kan je ook niet alles afmeten enkel en alleen op basis van “energie efficiëntie”. Grondstoffen, mensenlevens etc die gespaard worden moeten ook in de weegschaal worden gelegd.

1 like