Dátové centrá pre služby umelej inteligencie by sa čoskoro mohli stať pohromou pre energetický priemysel.

Generálny riaditeľ ARM (Rene Haas) upozornil na energetické nároky potrebné na rozvoj algoritmov umelej inteligencie. Uvádza, že o niekoľko rokov by „dátové centrá AI“ mohli vyžadovať toľko elektrickej energie, že by to mohlo ohroziť elektrickú sieť v USA. Hovorí o neudržateľnej energetickej náročnosti technológie a varoval pred možnými vážnymi dôsledkami, ak sa čoskoro nedosiahne významný prelom.

V prejave pred oznámením programu financovania výskumu AI na univerzitách v USA a Japonsku v hodnote 110 miliónov dolárov Haas zdôraznil naliehavú potrebu efektívneho výskumu, aby sa zabránilo stagnácii vývoja AI. Podľa neho spoločnosti zaoberajúce sa umelou inteligenciou so sídlom v USA v súčasnosti spotrebujú približne 4% celkového výkonu krajiny.

Do roku 2030 by si však prevádzka chatbotov a vzdialených generatívnych služieb v dátových centrách AI mohla vyžadovať až 20% až 25% celej elektrickej siete USA. Haas zdôraznil najmä „nenásytné“ energetické nároky veľkých jazykových modelov (LLM), ako je ChatGPT. Tieto hrozivé predpovede týkajúce sa spotreby energie AI sú čoraz častejšie, pričom Medzinárodná energetická agentúra (IEA) predpokladá, že v tomto roku bude spotreba energie pre dátové centrá AI desaťkrát vyššia ako v roku 2022.

Napriek tomu, že ide o webslužby orientované na spotrebiteľa, chatboty vykazujú výrazne vyššie požiadavky na spotrebu energie v porovnaní s jednoduchými vyhľadávacími dotazmi Google. IEA odhaduje, že jedna požiadavka ChatGPT spotrebuje takmer 10-krát viac energie ako vyhľadávanie Google. Ak by spoločnosť prijala LLM pre svoju vyhľadávaciu službu, potrebovala by ďalších 10 terawatthodín (TWh) energie ročne.

V nedávnej správe v časopise The New Yorker sa uvádza, že ChatGPT spotrebuje viac ako pol milióna kilowatthodín elektrickej energie denne, zatiaľ čo priemerná americká domácnosť spotrebuje za rovnaký časový úsek len 29 kilowatthodín. Vláda USA spolu s vládnymi orgánmi na celom svete bude pravdepodobne nútená zasiahnuť a zaviesť prísne obmedzenia spotreby energie pre tradičné dátové centrá aj dátové centrá umelej inteligencie, ako sa uvádza v správe IEA.

Haas naznačil, že hardvérové akcelerátory aj algoritmy AI sa musia stať oveľa efektívnejšími, inak sa táto nová éra neúprosného vývoja AI môže čoskoro zastaviť. Lepšiu účinnosť by však potenciálne mohli využiť spoločnosti pôsobiace v oblasti veľkých technológií a AI na zvýšenie výpočtových schopností AI pri zachovaní rovnakej úrovne spotreby energie. Ďalšie potenciálne riešenie energetického problému AI by zahŕňalo rozšírenie energetickej kapacity, o čo sa už snažia veľké firmy ako Amazon.

Zdroj