Atomowa strategia Meta: Energia dla AI

Rosnące zapotrzebowanie na energię sztucznej inteligencji

Sztuczna inteligencja (Artificial intelligence) to przedsięwzięcie energochłonne. Szkolenie, wdrażanie i utrzymanie modeli AI zużywa ogromne ilości energii elektrycznej. Znaczna część tej energii pochodzi obecnie z paliw kopalnych, co w znacznym stopniu przyczynia się do zmian klimatycznych. Gwałtowne przyjęcie generatywnych technologii AI jeszcze bardziej skomplikowało sytuację. Zakłóciło starannie opracowane plany wielu firm technologicznych dotyczące przejścia na bardziej ekologiczne źródła energii.

Meta, podobnie jak jej konkurenci, stoi przed wyzwaniem zrównoważenia swojego zaangażowania w zrównoważony rozwój z natychmiastowymi potrzebami energetycznymi swojej infrastruktury AI. Podczas gdy długoterminowa wizja firmy obejmuje zwiększone poleganie na energii jądrowej, jej krótkoterminowa strategia obejmuje gaz ziemny. Na przykład Entergy, główny dostawca mediów, przyspiesza budowę elektrowni gazowych w Luizjanie, aby wesprzeć wielkoskalowy kompleks centrów danych Meta.

Energia jądrowa jako czynnik umożliwiający rozwój AI: perspektywa globalna

Francja promuje swoją rozbudowaną infrastrukturę energetyki jądrowej jako kluczową przewagę w globalnym wyścigu AI. Z około 75% energii elektrycznej wytwarzanej ze źródeł jądrowych, Francja szczyci się najwyższą zależnością od energii jądrowej na świecie. Podczas szczytu AI w Paryżu prezydent Emmanuel Macron skontrastował podejście Francji z mentalnością "drill baby drill", sugerując alternatywę "plug baby plug", podkreślając gotowość kraju do zasilania innowacji AI czystą energią jądrową.

Jednak Stany Zjednoczone w dużym stopniu polegają na paliwach kopalnych do zasilania swoich centrów danych, będących podstawą operacji AI. Według raportu Międzynarodowej Agencji Energetycznej (International Energy Agency), gaz ziemny, a w niektórych przypadkach węgiel, są głównymi źródłami energii dla tych obiektów. Oczekuje się, że rosnący popyt na AI będzie napędzał dalsze poleganie na elektrowniach gazowych, co jest opłacalnym, ale szkodliwym dla środowiska rozwiązaniem.

Podczas gdy odnawialne źródła energii, takie jak energia słoneczna i wiatrowa, dostarczają około 24% energii zasilającej centra danych w USA, energia jądrowa stanowi około 15%, według IEA. Przejście na bardziej zrównoważony miks energetyczny będzie wymagało znacznych inwestycji w infrastrukturę energii odnawialnej i jądrowej.

Raport Departamentu Energii USA (U.S. Department of Energy) przewiduje znaczny wzrost zapotrzebowania na energię elektryczną ze strony centrów danych. W ciągu ostatniej dekady zużycie energii elektrycznej przez te obiekty potroiło się i oczekuje się, że do 2028 roku ponownie podwoi się lub potroić, potencjalnie stanowiąc do 12% całkowitego zużycia energii elektrycznej w kraju.

Energochłonne procesy stojące za AI

Rozwój i eksploatacja systemów AI, zwłaszcza generatywnych modeli AI, wymagają ogromnej mocy obliczeniowej. Weźmy pod uwagę chatbot AI i bazowe systemy, takie jak Llama od Meta.

  • Trening (lub wstępne szkolenie): Systemy AI uczą się na podstawie ogromnych ilości danych. Obejmuje to identyfikację wzorców i relacji w danych. Specjalistyczne chipy komputerowe, takie jak karty graficzne (Graphics Processing Units - GPUs), są używane do wykonywania równoległych obliczeń na połączonych urządzeniach. Proces ten wymaga ogromnych ilości energii elektrycznej do zasilania procesorów, pamięci i systemów chłodzenia. Im większy i bardziej złożony model, tym więcej energii jest potrzebne do jego wytrenowania. Na przykład, trenowanie dużego modelu językowego może zająć tygodnie lub miesiące, pochłaniając przy tym miliony dolarów na samą energię elektryczną.

  • Inferencja: Po wytrenowaniu model AI wymaga znacznej energii do wykonywania zadań, takich jak generowanie tekstu lub obrazów. Obejmuje to przetwarzanie nowych informacji i wyciąganie wniosków na podstawie istniejącej wiedzy modelu. Cały proces wymaga energii elektrycznej. Pomimo tego, że inferencja zużywa zazwyczaj mniej energii niż trening, to ze względu na częstotliwość wykonywania zapytań, może stanowić znaczne obciążenie energetyczne. Zwłaszcza w przypadku modeli generatywnych, które muszą generować sekwencje danych na żądanie, inferencja potrafi być niezwykle energochłonna. Optymalizacja modeli pod kątem efektywności energetycznej jest więc kluczowa, aby zminimalizować koszty i wpływ na środowisko.

Generatywne AI, takie jak modele tekstu na obraz, mają szczególnie duże zapotrzebowanie na moc obliczeniową. Generowanie obrazów w wysokiej rozdzielczości w oparciu o podpowiedzi tekstowe wymaga złożonych obliczeń wykonywanych jednocześnie przez dużą liczbę procesorów. To z kolei prowadzi do wysokiego zużycia energii i generowania dużych ilości ciepła.

Firmy technologiczne starają się projektować i trenować modele AI, które są bardziej energooszczędne. Jedną z metod jest wykorzystanie technik przycinania i kwantyzacji w celu zmniejszenia rozmiaru modelu i liczby operacji potrzebnych do wykonania. Innym podejściem jest trenowanie rozproszone, gdzie zadanie trenowania dzieli się na wiele urządzeń, co pozwala na pracę z większą ilością danych przy jednoczesnym zmniejszeniu zużycia energii na pojedynczym urządzeniu.

Oprócz poprawy efektywności samych modeli AI, firmy technologiczne skupiają się również na optymalizacji infrastruktury używanej do ich hostingu. Obejmuje to wykorzystanie energooszczędnych procesorów i układów chłodzenia, jak również optymalizację lokalizacji centrów danych, aby wykorzystać możliwości odnawialnych źródeł energii. Wreszcie, postęp w dziedzinie obliczeń neuromorficznych, inspirowanych działaniem mózgu, może doprowadzić do radykalnie bardziej energooszczędnych systemów AI w przyszłości.

Chłodzenie gigantów AI: rozwiązanie problemu ciepła

Systemy AI generują znaczne ciepło, które musi być rozproszone, aby utrzymać optymalną wydajność. Centra danych polegają na systemach chłodzenia, takich jak klimatyzacja, aby regulować temperaturę. Systemy te zużywają dodatkową energię elektryczną, co dodatkowo zwiększa ślad energetyczny AI. Operatorzy centrów danych badają alternatywne techniki chłodzenia, takie jak systemy chłodzenia wodnego, aby zmniejszyć zużycie energii.

Tradycyjna klimatyzacja jest jednym z głównych czynników zużycia energii w centrach danych. Potrzeba utrzymania stałej, niskiej temperatury, zwłaszcza gdy działają bardzo silne komponenty, wymaga sporej ilości energii elektrycznej do zasilania chłodziarek i wentylatorów. Chłodzenie wodne jest bardziej efektywną alternatywą, która zakłada transport ciepła z komponentów do wody, która jest następnie chłodzona na zewnątrz centrum danych. Ten proces może zmniejszyć zużycie energii o 30-50% w porównaniu z tradycyjnymi systemami chłodzenia.

Inne alternatywne techniki chłodzenia obejmują wykorzystanie naturalnego chłodzenia powietrzem, gdzie chłodne powietrze z zewnątrz jest doprowadzane do centrum danych, aby schłodzić komponenty. Może to być szczególnie skuteczne w miejscach o chłodnym klimacie. Jeszcze innym podejściem jest chłodzenie zanurzeniowe, gdzie komponenty są zanurzane w cieczy dielektrycznej, która pochłania ciepło i odprowadza je z komponentów.

Oprócz energooszczędnych systemów chłodzenia, operatorzy centrów danych starają się również zminimalizować ilość ciepła generowanego przez same komponenty. Obejmuje to używanie energooszczędnych procesorów i kart graficznych, a także optymalizację ich konfiguracji w celu zmniejszenia zużycia energii. Operatorzy centrów danych starają się również zminimalizować ilość ciepła generowanego przez same komponenty. Poprzez wdrożenie tych strategii firmy technologiczne mogą pomóc w zmniejszeniu wpływu środowiskowego AI i sprawić, że będzie ono bardziej zrównoważone w dłuższej perspektywie.