Boom na generatywną sztuczną inteligencję (GenAI) wygenerował niespotykany dotąd popyt na systemy obliczeniowe. To z kolei skutkuje rosnącymi wydatkami na energię elektryczną, której zużycie będzie stale rosnąć.
Od momentu powstania AI, stopień zaawansowania stosowanych modeli rósł wykładniczo. W 1950 roku uwzględniały one ok. 40 parametrów. Następnie, do 2010 roku, czyli zanim zaczęto rozwijać deep learning, mieliśmy do czynienia ze wzrostem o sześć rzędów wielkości – do 100 000 parametrów(1). Od tego czasu rozmiary modeli AI powiększyły się o dodatkowe pięć rzędów. Rozwijanie większych modeli wymaga albo zastosowania potężniejszych systemów komputerowych, albo wydłużenia czasu pracy mniej wydajnych systemów. W obu tych przypadkach zapotrzebowanie na energię elektryczną wzrasta.
Już teraz ChatGPT zużywa każdego dnia ponad 500 000 kilowatogodzin energii elektrycznej, podczas gdy dzienne zużycie przeciętnego gospodarstwa domowego w USA to 29 kilowatogodzin. Uptime Institute przewiduje, że w 2025 roku. sztuczna inteligencja będzie odpowiedzialna za około 10% globalnego zużycia energii w centrach danych, co oznacza pięciokrotny wzrost w porównaniu do 2024 roku. Z kolei Międzynarodowa Agencja Energetyczna przewiduje, że do roku 2026 możliwe jest podwojenie zapotrzebowania na energię elektryczną w centrach danych w porównaniu do roku 2022, co w dużej mierze będzie skutkiem rozwoju AI.
Jednocześnie wiele przedsiębiorstw koncentruje się na zrównoważonym rozwoju i zobowiązało się do osiągnięcia neutralności klimatycznej pod względem emisji dwutlenku węgla do 2050 roku, dążąc do osiągnięcia wyznaczonego przez ONZ celu zerowej emisji netto. Aby osiągnąć ten cel i powstrzymać skutki zmian klimatycznych, konieczne jest zmniejszenie zużycia energii, szersze wykorzystanie niskoemisyjnych źródeł energii, opracowanie sposobów na wychwytywanie i sekwestrację dwutlenku węgla, a także opracowanie sposobów ponownego wykorzystania surowców i eliminacji odpadów.
Cztery strategie na rzecz bardziej energooszczędnej sztucznej inteligencji
Firmy technologiczne badają możliwości bardziej efektywnego wykorzystania infrastruktury, niezależnie od tego, czy zadania związane ze sztuczną inteligencją wykonywane są w chmurze, na superkomputerach czy w lokalnych centrach danych. Rozwiązania te różnią się poziomem wydajności, dlatego powstaje pytanie o efektywną alokację zadań i obciążeń. Niektóre zadania najlepiej poradzą sobie w chmurze, a inne na superkomputerze lub w lokalnym centrum danych.
Akceleratory analogowe – układy cyfrowe pozostawały opcją pierwszego wyboru przez dziesięciolecia. Są szybkie, wydajne i umożliwiają przetwarzanie ogromnych ilości danych w rekordowym czasie. Jednak wraz z powszechnym wykorzystaniem sztucznej inteligencji, wyraźna staje się ich jedna wada: mają ogromne zapotrzebowanie na energię Dlatego warto sięgnąć do historii. Obwody analogowe, składające się z komponentów takich jak oporniki, kondensatory czy cewki indukcyjne, mogą być narzędziem do redukcji zużycia energii. Zamiast korzystać z binarnego systemu zer i jedynek, w obwodach analogowych korzysta się ze spektrum sygnałów ciągłych. Gdy są zbudowane z komponentów takich jak memrystory, które mogą przechowywać dane, przesył danych z pamięci do akceleratora jest ograniczony, co przekłada się na oszczędność energii.
Akceleratory specjalnego przeznaczenia, które są projektowane pod kątem określonych zastosowań, są z reguły bardziej wydajne niż akceleratory uniwersalne. Inną metodą osiąga się więc ten sam cel, a jednocześnie możliwa jest znaczna redukcja zużycia energii na poziomie układu scalonego.
Cyfrowy bliźniak: Wirtualny model systemu fizycznego, takiego jak infrastruktura chmurowa, superkomputer lub lokalne centrum danych. Model na bieżąco się aktualizuje i może posłużyć do optymalizacji systemu fizycznego w czasie rzeczywistym. Najbardziej podstawową formą cyfrowego bliźniaka jest symulacja systemu fizycznego, jak na przykład cyfrowa kopia układu chłodzenia w centrum danych wykorzystywana przy jego projektowaniu. Tego typu „bliźniaki” są wykorzystywane w inżynierii od dziesięcioleci. Jeśli taka symulacja na bieżąco wymienia dane z systemem fizycznym, aby zachować aktualność, na przykład poprzez wykrywanie poboru energii poszczególnych komponentów fizycznych w centrum danych i odpowiednią aktualizację modelu, wówczas może ona ewoluować wraz z systemem fizycznym i być wykorzystywana między innymi do utrzymania wydajności operacyjnej systemu.
Geograficzne rozpraszanie obciążeń: HPE Labs we współpracy z Colorado State University opracowało zestaw algorytmów optymalizacyjnych, które badają zmiany poziomu emisji dwutlenku węgla, dostępności wody i kosztów energii w określonych obszarach. Następnie wykorzystują te dane do określenia najlepszej na świecie lokalizacji do uruchomienia danego zadania (na przykład generatywnej AI), tak aby zoptymalizować wykorzystanie lokalnych zasobów i uzyskać znaczne oszczędności w zużyciu energii i wody przy jednoczesnym obniżeniu kosztów.
Wykorzystanie ciepła odpadowego: 100% energii elektrycznej trafiającej do centrum danych ostatecznie zamienia się w ciepło, co oznacza konieczność chłodzenia i odprowadzania. Powszechnie stosowaną metodą jest chłodzenie centrów danych powietrzem. Obecnie jest ona mniej wydajna i droższa niż bezpośrednie chłodzenie cieczą (DLC), które zyskuje na popularności wraz ze skokowym rozwojem sztucznej inteligencji. DLC to metoda chłodzenia, w której ciecz jest pompowana bezpośrednio do serwera w celu pochłonięcia ciepła emitowanego przez wszystkie komponenty, w tym procesory, układy GPU i pamięć, a następnie wysyłana do układu wymiany ciepła znajdującego się poza centrum danych. To podejście jest bardziej wydajne, ponieważ woda ma czterokrotnie większą pojemność cieplną niż powietrze. Ciecz jest również łatwiej kontrolować i odprowadzać, jednocześnie skuteczniej minimalizując straty ciepła, co poprawia wykorzystanie ciepła odpadowego. Przechwycone ciepło odpadowe można wykorzystać do innych celów, takich jak ogrzewanie budynków, czy też szklarni, w celu stworzenia idealnych warunków do uprawy warzyw.
Wraz ze wzrostem popularności sztucznej inteligencji otwierają się ogromne możliwości zwiększenia kreatywności, odkrywania nowych zastosowań AI i poprawy produktywności w różnych branżach. Musimy się jednak liczyć z tym, że rozwój AI wymaga większej ilości energii elektrycznej do tworzenia i trenowania modeli, które zmieniają naszą pracę zawodową i życie prywatne. Dlatego zminimalizowanie skutków związanych z rosnącym zużyciem energii będzie miało kluczowe znaczenie dla technologicznego rozwoju gospodarek.
podsumowuje Cullen Bash, wiceprezes ds. badań i rozwoju, Hewlett Packard Labs – Hewlett Packard Enterprise
(1) Epoch AI, „Data on Notable AI Models”: https://epochai.org/data/notable-ai-models
źródło: materiał prasowy
Artykuły powiązane:
- Dzięki sztucznej inteligencji miasta mogą obniżać koszty i wdrażać ekologiczne rozwiązania
- AI i systemy satelitarne pomagają wykryć choroby roślinności torfowisk
🤝Dziękuję, że przeczytałaś/eś powyższe informacje do końca. Jeśli cenisz sobie zamieszczane przez portal treści zapraszam do wsparcia serwisu poprzez Patronite.
📩 Zapisz się na newsletter i otrzymuj ekowiadomości prosto na swoją skrzynkę!
Subskrypcja daje Ci także dostęp do specjalnego działu na portalu 🌐, gdzie znajdziesz darmowe materiały do pobrania: 📘 poradniki, 📋 przewodniki, 📂 praktyczne zestawienia, ✏️ wzory, 📄 karty pracy, ✅ checklisty i ściągi. Wszystko, czego potrzebujesz, aby skutecznie wprowadzać ekologiczne zmiany w swoim życiu 🌱.
☕ Możesz również wypić ze mną wirtualną kawę! Dorzucasz się w ten sposób do kosztów prowadzenia portalu, a co ważniejsze, dajesz mi sygnał do dalszego działania. Nad każdym artykułem pracuję zwykle do późna, więc…..
Chcesz podzielić się ciekawym newsem lub zaproponować temat? Skontaktuj się pisząc maila na adres:
✉️ informacje@wlaczoszczedzanie.pl
🔍Więcej ciekawych informacji znajdziesz na stronie głównej portalu Włącz oszczędzanie