AI z ludzkim rozumowaniem pożera energię. Czy uratują nas chipy i architektura ludzkiego mózgu?

Modele AI z rozumowaniem zużywają nawet 100 razy więcej energii. Chipy neuromorficzne mogą uratować sieci energetyczne i ograniczyć ślad węglowy AI.

cyber brain, computer, brain, the internet, web3, 0, blockchain, cyber, artificial intelligence, brain, brain, brain, brain, brain, artificial intelligence, artificial intelligence, artificial intelligence, artificial intelligence

Naukowcy Sasha Luccioni z Hugging Face i Boris Gamazaychikov z Salesforce wykazali w badaniu z 2024 roku, że zaawansowane modele AI imitujące ludzkie rozumowanie zużywają nawet 100 razy więcej energii niż ich prostsze odpowiedniki. Eksperci przeprowadzili testy na 40 otwartych modelach, w tym rozwiązaniach OpenAIGoogle oraz Microsoft. Wszystkie modele uruchomiono na tym samym sprzęcie i poddano identycznym zadaniom – od prostych pytań sportowych po skomplikowane łamigłówki matematyczne. W efekcie modele z aktywnym rozumowaniem potrzebowały średnio stukrotnie więcej prądu na 1000 poleceń niż te, które działały bez tej funkcji. Powód? Każdy krok rozumowania to kolejne cykle obliczeniowe, a te wymagają energii. „To nie jest drobiazgowy wzrost, to przepaść” – komentuje jeden z autorów raportu [1][2][3].

Modele AI rozumujące jak człowiek pochłaniają ogromne ilości prądu

Różnice bywają drastyczne. Uproszczony model R1 firmy DeepSeek z Chin zużywał zaledwie 50 watogodzin przy wyłączonym rozumowaniu – tyle co 50-watowa żarówka przez godzinę. Po włączeniu trybu rozumowania ten sam model potrzebował już ponad 308 tysięcy watogodzin, czyli ponad 6000 razy więcej. Model Phi-4 od Microsoft przy rozumowaniu pochłaniał 9462 watogodziny, a bez tej funkcji tylko 18. Nawet gpt-oss od OpenAI wykazał istotny wzrost: od 313 do 8504 watogodzin w zależności od ustawień [3][1].

W miarę jak twórcy AI – praktycznie wszyscy liczący się gracze – prześcigają się w budowie modeli, które rozumują krok po kroku jak człowiek, pojawia się pytanie: czy sieci energetyczne to wytrzymają? W 2024 roku centra danych pochłonęły globalnie 415 terawatogodzin energii. Międzynarodowa Agencja Energetyczna przewiduje, że do 2030 roku liczba ta przekroczy 945 TWh. Samo AI ma odpowiadać za ponad 20 procent wzrostu światowego zapotrzebowania na prąd, a wciąż 40 procent nowego popytu pokryją paliwa kopalne [1][2].

Chipy neuromorficzne: architektura mózgu, realne oszczędności

Odpowiedzią mogą być procesory neuromorficzne. To układy, które naśladują architekturę neuronów w mózgu i pozwalają ograniczyć zużycie energii przez AI nawet tysiąckrotnie w porównaniu z klasycznymi chipami. W przeciwieństwie do tradycyjnych procesorów, gdzie pamięć i obliczenia są rozdzielone, chipy neuromorficzne łączą obie funkcje. Efekt? Dane nie muszą przemieszczać się między komponentami, a to właśnie transfery zużywają najwięcej energii.

Innatera z Holandii i brytyjska 42 Technology w grudniu 2024 rozpoczęły współpracę, by wdrożyć chip Pulsar – przetwarzający dane z czujników przy mocy poniżej jednego miliwata – w urządzeniach komercyjnych. Intel chwali się, że ich Loihi 2 potrafi wykonywać zadania AI 100 razy oszczędniej energetycznie i 50 razy szybciej niż tradycyjne CPU czy GPU. IBM NorthPole z 22 miliardami tranzystorów i 256 rdzeniami okazał się 25 razy bardziej energooszczędny niż układ NVIDIA V100 przy rozpoznawaniu obrazów [3][4][5].

Pojawiają się też przełomy w materiałach. W październiku 2025 zespół University of Southern California pokazał sztuczne neurony zbudowane z memrystorów, które działają na jonach, nie na elektronach. Zużycie energii? Od 40 do 200 pikodżuli na impuls – to ułamek tego, co pochłaniają klasyczne procesory [6][7][8].

Wyścig o energooszczędną sztuczną inteligencję nabiera tempa

Rynek neuromorficznych układów ma urosnąć z 4,89 mld dolarów w 2025 do ponad 76 mld w 2035 roku, a tempo wzrostu przekracza 30 procent rocznie. BrainChip wprowadził procesor Akida w formacie M.2, co pozwala tanio i szybko wdrażać AI na brzegu sieci. Firma współpracuje już z Raytheon przy kontrakcie dla amerykańskiego lotnictwa. Sandia National Laboratories uruchomiło system SpiNNaker2, który symuluje 175 milionów neuronów na potrzeby odstraszania nuklearnego [4][5].

W listopadzie 2025 zespół University of Texas w Dallas zbudował prototyp neuromorficznego komputera, który uczy się wzorców przy minimalnej liczbie obliczeń – bez kosztownego treningu w chmurze. Badania Mercedes-Benz wskazują, że systemy wizyjne oparte na neuromorficznych chipach mogą ograniczyć zużycie energii w autonomicznych autach nawet o 90 procent. Analitycy przewidują, że w 2030 roku takie układy znajdziemy już w 40 procentach sensorów IoT [3][4].

Trening dużych modeli, takich jak ChatGPT, generuje ogromny ślad węglowy – nawet 552 tony CO2, co odpowiada rocznemu zużyciu energii przez 121 amerykańskich gospodarstw domowych. Jednak to nie trening, lecz wnioskowanie – czyli codzienne użycie modelu – odpowiada za 90 procent całkowitej konsumpcji energii przez AI [2].

Amerykańskie centra danych pochłonęły w 2024 roku 183 terawatogodziny energii – ponad 4 procent krajowego zużycia, tyle co cały Pakistan. Do 2030 roku ten wynik ma wzrosnąć o 133 procent. Jeśli AI ma być powszechna, a nie tylko dla najbogatszych, chipy inspirowane mózgiem nie są już ciekawostką. To konieczność. Czy przemysł zdąży, zanim rachunki za prąd nas przytłoczą?

Udostępnij: