Ślad węglowy AI – jak popularność sztucznej inteligencji wpływa na klimat?
Wraz z rozwojem sztucznej inteligencji (AI) coraz większą uwagę przykładamy nie tylko odniesieniu do jej potencjalnych korzyści, ale także do konsekwencji jej wykorzystania dla środowiska. Jednym z kluczowych aspektów, który wzbudza zainteresowanie, jest ślad węglowy AI – miara emisji gazów cieplarnianych związanych z działaniem systemów opartych na sztucznej inteligencji.
W dzisiejszym świecie, gdzie AI odgrywa coraz większą rolę w różnorodnych obszarach, od medycyny po transport, od rozrywki po przemysł, zrozumienie wpływu, jaki te technologie mają na środowisko, staje się niezwykle istotne. W kontekście dyskusji na temat zmian klimatycznych i potrzeby ograniczenia emisji gazów cieplarnianych, badanie śladu węglowego AI staje się priorytetem dla naukowców, inżynierów i decydentów politycznych.
W niniejszym artykule przyjrzymy się śladowi węglowemu AI z różnych perspektyw i różnych popularnych narzędzi, jak Midjourney czy ChatGPT. Odkryjemy, jaką rolę odgrywają te różne aspekty sztucznej inteligencji w generowaniu emisji gazów cieplarnianych oraz jakie czynniki mogą wpływać na ich zmniejszenie. Ostatecznie, naszym celem jest zgłębienie złożoności śladu węglowego AI, by lepiej zrozumieć, jak możemy wykorzystać tę wiedzę do minimalizacji negatywnego wpływu sztucznej inteligencji na naszą planetę.
Spis treści
Jakie zużycie energii generuje sztuczna inteligencja AI?
Za każdym razem, gdy używasz sztucznej inteligencji do wygenerowania obrazu, napisania wiadomości tekstu lub zadania pytania chatbotowi, generuje to koszty dla naszej planety. W jaki sposób? Aby AI mogło działać, niezbędne jest korzystanie z energii.
Modele sztucznej inteligencji korzystają z infrastruktury serwerowej w centrach danych. Proces przetwarzania i przechowywania danych wymaga dużych ilości energii oraz wody do chłodzenia. Większość tej energii może pochodzić z nieodnawialnych źródeł – co przekłada się na wysokość emisji (spalanie paliw kopalnych w celu wytworzenia energii to obecnie główne źródło emisji gazów cieplarnianych na świecie).
Infrastruktura potrzebna do utrzymania wszystkich systemów AI zużywa tyle prądu, co mały kraj. Alex de Vries opublikował badania w Digiconomist Joule z których wynika, że roczne zapotrzebowanie na energię elektryczną przez sztuczną inteligencję na świecie może wzrosnąć od 85,4 do 134 terawatogodzin do 2027 roku. Zapotrzebowanie AI na energię jest podobne do tego, które jest potrzebne do kopania kryptowalut. O wpływie kryptowalut na klimat przeczytasz tutaj.
Energia zużywana przez światowe centra danych odpowiada za 2,5 do 3,7% globalnej emisji gazów cieplarnianych, przekraczając nawet emisje przemysłu lotniczego. Według niektórych szacunków, trening jednego dużego modelu AI może spowodować emisję około 300 ton CO2.
Jaki jest ślad węglowy AI?
Badanie Carbon Emissions and Large Neural Network Training wykazało, że trening GPT-3 z 175 miliardami parametrów zużyło 1287 megawatogodzin energii elektrycznej i spowodowało emisję 502 ton dwutlenku węgla, co jest porównywalne do emisji generowanej przez 112 samochodów napędzanych benzyną przez rok.
Z kolei firma Google oszacowała, że ślad węglowy GPT-3 wynosi około 8,4 ton CO2 rocznie.
Warto również pamiętać, że oszacowania mogą się różnić w zależności od wielu czynników, w tym od regionu, dostawcy infrastruktury, efektywności energetycznej i sposobu użytkowania AI.
Model językowy AI a ślad węglowy
Duże modele językowe nie są niezbędne do każdego typu zadania. Wykorzystanie mniejszych modeli sztucznej inteligencji do prostszych zadań stanowi metodę oszczędzania energii – modele o węższym zakresie zamiast tych, które mogą obsłużyć wszystkie zadania, są bardziej ekonomiczne, a poprzez mniejsze zużycie energii, także bardziej ekologiczne.
Ile emisji CO2 generuje zapytanie w ChatGPT?
ChatGPT to duży i energochłonny model językowy. Wartość ekwiwalentu każdego zapytania oszacowano na mniej więcej 4.32 gram CO2 (dla porównania, jedno wyszukanie w Google to 0.2g na zapytanie). Wg tego kalkulatora, 16 zapytań = emisjom generowanym przez zagotowanie jednego czajnika. Jeśli każda unikalna wizyta skutkuje średnio 10 zapytaniami, to miesięcznie mamy 15 bilionów zapytań.
Dokładne koszty, jakie ponosi środowisko przez działalność AI nie są znane. Twórcy najnowszych modeli nie podają szczegółowych danych dotyczących emisji.
Co ma większy ekwiwalent - artykuły pisane przez człowieka, czy generowanie tekstu przez AI?
Chociaż określenie dokładnej emisji systemu sztucznej inteligencji może być trudne i różne źródła podają różne wartości, dwa kluczowe czynniki mają kluczowe znaczenie: szkolenie modelu i emisje na zapytanie. Pisanie tekstów przez człowieka generuje wyższe emisje – ich poziom jest uzależniony również od sprzętu i lokalizacji.
Badanie The carbon emissions of writing and illustrating are lower for AI than for humans, opublikowane w Nature w lutym 2024 roku porównuje ekwiwalent CO2, jaki emitują popularne kreatory tekstu z pracą człowieka. Szkolenie GPT-3 emituje około 552 ton metrycznych CO2e, podczas gdy szkolenie BLOOM emituje 50,5 ton metrycznych CO2e. Dodatkowe czynniki, takie jak wbudowana energia chipów i serwerów, a także recykling po zakończeniu eksploatacji, mają znacznie mniejszy wpływ w porównaniu z emisjami związanymi z treningiem i zapytaniami. Wyniki te wskazują, że ogólny wpływ zapytań AI, obejmujący zarówno szkolenie, jak i działanie, jest zazwyczaj rzędu kilku gramów CO2e na zapytanie.
Aby obliczyć ślad węglowy osoby piszącej, wzięto pod uwagę szybkość pisania, miejsce zamieszkania oraz zużycie energii i emisje z urządzeń komputerowych używanych podczas procesu pisania. Istotne jest też, czy osoba pisząca korzystała z odnawialnych źródeł energii do zasilenia swojego komputera.
Co się okazało? Sztuczna inteligencja pisząca (za pośrednictwem BLOOM lub ChatGPT) produkuje 130-1500 razy mniej CO2e na stronę niż ludzki autor. Wyniki porównania autorów na poniższym wykresie.
Tworzenie obrazu w DALL-E, Midjourney vs praca człowieka
Badanie zespołu Hugging Face AI i Carnegie Mellon University wykazało, że generowanie obrazów jest najbardziej energochłonnym zadaniem opartym na AI, a wygenerowanie 1000 obrazów za pomocą potężnego modelu takiego jak Stable Diffusion XL generuje emisję dwutlenku węgla równoważną przejechaniu 4,1 mil samochodem o benzynowym silniku.
Nature z kolei, w cytowanym akapit wyżej badaniu porównuje pracę człowieka przy tworzeniu obrazu z generowaniem w Midjourney i DALL-E. Badając dwa znane silniki generowania obrazów AI, DALL-E2 i Midjourney, zauważono, że DALL-E2 opiera się na GPT-3, podobnie jak ChatGPT. Szacuje się, że ślad węglowy DALL-E2 jest podobny do śladu ChatGPT, wynoszący 2,2 g CO2e na zapytanie. Co do Midjourney, dyrektor generalny, David Holz, twierdzi, że generowanie obrazu wymaga około 1000 bilionów operacji, co sugeruje emisję dwutlenku węgla na poziomie około 1,9 g CO2e przy użyciu procesorów graficznych Nvidia A100, które zużywają 400 W energii elektrycznej.
Generowanie obrazów przez sztuczną inteligencję (poprzez DALL-E2 lub Midjourney) emituje od 310 do 2900 razy mniej CO2e na obraz niż proces tworzenia przez ludzi. Zastosowanie sztucznej inteligencji generuje znacznie mniejszą ilość CO2e niż wykorzystanie komputera do wspomagania ludzi w tworzeniu obrazów.
Ślad wodny AI
W rozmowie o emisjach nie sposób nie wspomnieć o śladzie wodnym ChatGPT. Według badań Uniwersytetu Kalifornijskiego w Riverside, rozmowa na ok 20 zapytań zużywa pół litra wody, czyli równowartość małej plastikowej butelki. Trening ChatGPT może zużywać tyle samo wody, co produkcja 370 BMW lub 320 Tesli.
Shaolei Ren, profesor nadzwyczajny inżynierii elektrycznej i komputerowej na Uniwersytet Kalifornijski w Riverside, w swoim badaniu z 2023 roku napisał:
Do wyprodukowania mikroprocesora potrzeba około 2200 galonów ultraczystej wody (UPW). Pomijając to, szkolenie dużego modelu językowego, takiego jak GPT-3, może zużywać miliony litrów świeżej wody, a uruchomienie wnioskowania GPT-3 dla 10-50 zapytań zużywa 500 mililitrów wody, w zależności od tego, kiedy i gdzie model jest hostowany. GPT-4, model obecnie używany przez ChatGPT, ma podobno znacznie większy rozmiar, a zatem prawdopodobnie zużywa więcej wody niż GPT-3.
Woda używana do zapobiegania przegrzewaniu się centrów danych jest zwykle odparowywana, co oznacza, że nie można jej ponownie wykorzystać.
Czy AI może być bardziej ekologiczna?
Tak, istnieją sposoby, aby sztuczna inteligencja (AI) była bardziej ekologiczna:
Optymalizacja algorytmów: Poprzez zoptymalizowanie algorytmów, można zmniejszyć zużycie zasobów i energii potrzebnych do treningu i działania modeli AI.
Zrównoważone źródła energii: Przeniesienie centrów danych na zrównoważone źródła energii, takie jak energia słoneczna czy wiatrowa, może zmniejszyć negatywny wpływ AI na środowisko.
Recykling i ponowne wykorzystanie: Promowanie praktyk recyklingu i ponownego wykorzystania sprzętu komputerowego używanego do przetwarzania danych AI może zmniejszyć negatywny wpływ na środowisko.
Lepsze chłodzenie: Wykorzystanie bardziej efektywnych technologii chłodzenia w centrach danych może zmniejszyć zużycie energii potrzebne do utrzymania odpowiednich temperatur. Firma Microsoft testuje system podwodnych centrów danych.
Zastosowanie AI w ochronie środowiska: Wykorzystanie AI do optymalizacji procesów związanych z ochroną środowiska, takich jak monitorowanie zmian klimatu, zarządzanie zasobami naturalnymi czy ochrona różnorodności biologicznej, może przyczynić się do tworzenia bardziej zrównoważonych praktyk.
Jak wykorzystać sztuczną inteligencję dla dobra Ziemi?
Sztuczna inteligencja ma ogromny potencjał do przyczynienia się do ochrony środowiska i stworzenia bardziej zrównoważonej przyszłości dla naszej planety. Jednak ważne jest również odpowiednie kierowanie tą technologią, aby zapewnić użytkownikom, że jej wpływ będzie pozytywny dla środowiska i społeczeństwa jako całości.
Sztuczna inteligencja umożliwia przesiewanie dużych zbiorów danych, np. zdjęć satelitarnych, co pomaga naukowcom monitorować zmiany klimatu. Dzięki niej można również lepiej modelować wzorce klimatyczne, identyfikować trendy i prognozować przyszłe zmiany, co przyczynia się do lepszego zrozumienia i skuteczniejszego łagodzenia skutków zmian klimatycznych. Dodatkowe zastosowania obejmują oszczędzanie wody, walkę z pożarami oraz identyfikację i odzyskiwanie surowców wtórnych.
Naukowcy w National Oceanic and Atmospheric Administration korzystają z sztucznej inteligencji do udoskonalania modeli klimatycznych, prognoz pogody oraz innych aplikacji i systemów związanych z Ziemią. Program Środowiskowy ONZ wykorzystuje AI do analizy stężenia dwutlenku węgla w atmosferze, zmian w masach lodowców oraz wzrostu poziomu mórz.
Podsumowanie
AI zużywa znaczne ilości zasobów naturalnych, a jego ślad węglowy może być istotny, szczególnie w przypadku treningu dużych modeli językowych. Niemniej jednak, należy również dostrzec pozytywne strony i wpływ sztucznej inteligencji na organizację i ochronę środowiska. AI wspiera monitorowanie zmian klimatu, analizę ekosystemów, optymalizację zużycia energii i wiele innych działań, które przyczyniają się do ochrony planety.
Wydaje się, że kluczowym wyzwaniem jest znalezienie równowagi między korzyściami dla użytkownika płynącymi z wykorzystania technologii AI a minimalizacją jego negatywnego wpływu na środowisko. Poprzez rozwój bardziej efektywnych algorytmów, wykorzystanie zasobów energetycznych bardziej świadomie oraz promowanie zrównoważonych praktyk w sektorze technologicznym, możemy osiągnąć postęp zarówno w dziedzinie sztucznej inteligencji, jak i ochrony środowiska.
Podsumowując, choć sztuczna inteligencja nie jest pozbawiona wyzwań związanych ze środowiskiem, to odpowiednie podejście i innowacyjne rozwiązania mogą przyczynić się do wykorzystania jej potencjału w sposób, który wspiera nasze wysiłki na rzecz zrównoważonego rozwoju i ochrony planety dla przyszłych pokoleń.