Ile wody zużywa AI? Konkretne liczby, skala i co z tym zrobić
Ile wody zużywa AI? Odpowiedź zależy od tego, kogo zapytasz. Sam Altman mówi o 1/15 łyżeczki na zapytanie, a naukowcy z UC Riverside o prawie pół litra. W artykule znajdziesz konkretne, zweryfikowane liczby na 2026 rok, które pokazują skalę wpływu sztucznej inteligencji na zasoby wodne.
Ile wody zużywa jedno zapytanie do ChatGPT?
Odpowiedź na pytanie, ile wody zużywa jedno zapytanie do ChatGPT, dzieli ekspertów i zależy od zastosowanej metodologii. W lutym 2026 roku Sam Altman, CEO OpenAI, zdementował publicznie doniesienia o wysokim zużyciu wody, nazywając je „fake myth". Przedstawił dane, według których pojedyncze zapytanie zużywa zaledwie 0,000085 galona, czyli około 0,32 mililitra. To objętość mieszcząca się w 1/15 standardowej łyżeczki do herbaty.
Zupełnie inaczej prezentują się wyniki badań akademickich. Zespół naukowców z UC Riverside w pracy „Making AI Less Thirsty" z 2023 roku oszacował, że 100-słowny prompt do modelu GPT-3 zużywa około 519 mililitrów wody. Ta wartość, bliska pół litra, jest ponad 1600 razy większa od tej podawanej przez Altmana.
Źródłem tej kolosalnej rozbieżności jest sposób liczenia. Altman odnosił się wyłącznie do wody bezpośredniej – tej fizycznie pobranej i użytej w systemach chłodzenia centrów danych OpenAI. Metodologia naukowców z Riverside obejmowała natomiast pełny ślad wodny. Uwzględnili oni nie tylko wodę do chłodzenia, ale także wodę pośrednią, zużywaną głównie przy produkcji energii elektrycznej zasilającej infrastrukturę. Elektrownie – węglowe, jądrowe, gazowe, a nawet niektóre odnawialne – wymagają ogromnych ilości wody do chłodzenia i procesów technologicznych.
Dla pełnego kontekstu warto porównać te wartości z innymi usługami cyfrowymi. Szacuje się, że pojedyncze zapytanie do wyszukiwarki Google ma ślad wodny rzędu 0,003 mililitra. Nawet przyjmując konserwatywne dane Altmana (0,32 ml), zapytanie do generatywnej AI zużywa około 100 razy więcej wody. Kluczowe jest zatem zawsze pytanie: czy mówimy o wodzie bezpośredniej, czy o pełnym śladzie wodnym? To rozróżnienie leży u podstaw całej dyskusji o zrównoważonym rozwoju technologii.
Ile wody zużywa AI rocznie? Globalne statystyki na 2025 rok
Aby zobrazować prawdziwą skalę zjawiska, trzeba spojrzeć na roczne zużycie wody przez największe firmy technologiczne i całą branżę. Dane z lat 2023-2025 pokazują wyraźny, przyspieszający trend wzrostowy, napędzany wyścigiem w rozwoju sztucznej inteligencji.
Microsoft w swoim raporcie środowiskowym za 2023 rok podał, że zużył 6,4 miliona metrów sześciennych wody w ciągu roku. To wzrost o 34% w porównaniu z rokiem poprzednim, który firma wprost wiąże z ekspansją infrastruktury dla AI. 6,4 miliarda litrów to ilość, która wypełniłaby około 2500 basenów olimpijskich.
Google w raporcie na 2025 rok wykazał zużycie na poziomie 24,2 miliarda litrów (równowartość 6,4 miliarda galonów). Choć nie wszystkie te zasoby idą na potrzeby AI, to segment ten jest jednym z głównych motorów wzrostu zapotrzebowania firmy na moc obliczeniową, a co za tym idzie – na chłodzenie.
Na poziomie pojedynczej operacji kluczowe jest trenowanie modeli. Według badań opublikowanych w 2023 roku przez zespół kierowany przez Pengfei Li, sam proces uczenia dużego modelu językowego, takiego jak GPT-3, może pochłonąć około 700 000 litrów wody. To ilość porównywalna z wodą potrzebną do wyprodukowania setek samochodów lub wypełnienia basenu przydomowego kilkadziesiąt razy.
Patrząc globalnie, szacunkowy ślad wodny całego sektora sztucznej inteligencji w 2025 roku mieścił się w przedziale od 312,5 do 764,6 miliarda litrów rocznie. Organizacje analityczne, takie jak Xylem we współpracy z Global Water Intelligence, prognozują, że rozwój AI może do 2050 roku zwiększyć globalne zużycie wody o 130%, a zużycie przez centra danych może przekroczyć 1,2 biliona litrów rocznie już do 2030 roku.
Dlaczego AI zużywa tak dużo wody? Fizyka, skala i lokalizacja
Podstawową przyczyną wysokiego zużycia wody przez sztuczną inteligencję jest fizyka pracy procesorów graficznych (GPU) i tensorowych (TPU) oraz bezprecedensowa skala ich wykorzystania. Te układy generują intensywne, skoncentrowane ciepło. Bez skutecznego odprowadzania tego ciepła, sprzęt uległby natychmiastowemu uszkodzeniu.
Głównym narzędziem chłodzenia w wielu dużych centrach danych są wieże chłodnicze (cooling towers), wykorzystujące zasadę chłodzenia ewaporacyjnego. Woda krąży w systemie, absorbując ciepło z serwerów, a następnie jej część odparowuje w wieży. Proces ten jest efektywny energetycznie, ale wodochłonny – odparowana woda jest bezpowrotnie tracona do atmosfery.
Drugim kluczowym czynnikiem jest faza operacji. Tryb trenowania (training) dużego modelu jest ekstremalnie bardziej wymagający niż tryb wnioskowania (inference). Szacuje się, że trenowanie może być nawet 100-krotnie bardziej energochłonne niż odpowiadanie na pytania użytkownika. Ponieważ energia wiąże się z pośrednim zużyciem wody, ślad wodny fazy trenowania jest nieproporcjonalnie wysoki.
Lokalizacja centrum danych ma fundamentalne znaczenie. Firma Microsoft zbudowała znaczące klastry w stanach takich jak Arizona i Iowa – regionach borykających się z problemami niedoboru wody. W suchym, gorącym klimacie Arizony efektywność chłodzenia ewaporacyjnego spada, co wymaga zużycia większej ilości wody dla osiągnięcia tego samego efektu.
Ostatecznie zrozumienie sporu o liczby sprowadza się do kluczowego rozróżnienia. Zużycie bezpośrednie to woda fizycznie pobrana z lokalnych źródeł do chłodzenia. Zużycie pośrednie (ślad wodny) obejmuje całą wodę zużytą w łańcuchu wartości, przede wszystkim do wygenerowania energii elektrycznej. Altman mówił o pierwszym, naukowcy z Riverside – o sumie obu tych składowych.
Ile wody zużywa AI w Polsce? Kontekst lokalnej energetyki
Jako użytkownicy w Polsce nie zużywamy bezpośrednio lokalnych zasobów wodnych na potrzeby globalnej sztucznej inteligencji. Nasze zapytania do ChatGPT, Copilota czy Midjourney są przetwarzane w centrach danych zlokalizowanych głównie w Europie Zachodniej – w Irlandii, Holandii, Danii lub Finlandii – oraz w USA.
Jednak Polska nie jest pustynią cyfrową. Google posiada centrum danych w Warszawie, a inne podmioty rozwijają podobną infrastrukturę. W klimacie umiarkowanym Polski często opłacalne jest chłodzenie wolnozaworowe (free cooling), które wykorzystuje chłodne powietrze zewnętrzne, minimalizując potrzebę stosowania wodochłonnych wież chłodniczych przez znaczną część roku.
Prawdziwy ślad wodny związany z korzystaniem z AI w Polsce powstaje po stronie zużycia pośredniego – związanego z produkcją energii. Polski mix energetyczny wciąż w znacznym stopniu opiera się na węglu. Elektrownie węglowe zużywają wielokrotnie więcej wody niż źródła odnawialne — głównie do chłodzenia w obiegu parowym.
Oznacza to, że im bardziej polska sieć energetyczna zależy od węgla, tym większy jest pośredni ślad wodny wszystkich aktywności cyfrowych Polaków, w tym korzystania z AI. Transformacja w kierunku fotowoltaiki czy farm wiatrowych – o zerowym lub znikomym śladzie wodnym operacyjnym – mogłaby ten wpływ radykalnie zmniejszyć. Dlatego debata o AI i środowisku w Polsce jest nieodłączna od transformacji energetycznej. Pokazuje to, jak ważne jest rozumienie śladu wodnego chatbotów.
Czy AI zużywa więcej wody niż człowiek, samochód czy inne rzeczy?
Aby nadać liczbom właściwy kontekst, warto porównać zużycie wody przez AI z innymi codziennymi aktywnościami.
| Aktywność / Produkt | Szacowane zużycie wody | Kontekst |
|---|---|---|
| 1 zapytanie do ChatGPT (UC Riverside) | ~ 500 ml | Pełny ślad wodny (bezpośredni i pośredni) |
| 1 godzina rozmowy z AI (UC Riverside) | ~ 15-20 litrów | Odpowiednik zgrzewki wody butelkowanej |
| Produkcja 1 kg wołowiny | ~ 15 000 litrów | Uprawa pasz + hodowla zwierząt |
| Mycie zębów (kran otwarty, 2 min) | ~ 12 litrów | Bezpośrednie zużycie domowe |
| Pełny cykl prania | ~ 50 litrów | Bezpośrednie zużycie domowe |
Jak widać, pojedyncze czynności AI nie zużywają wody na skalę porównywalną z produkcją żywności czy dóbr materialnych. Kluczowy problem ma inną naturę: ogromne ilości wody są pobierane w krótkim czasie przez gigantyczne obiekty w regionach podatnych na stres wodny. Dodatkowo woda odparowana w wieżach chłodniczych jest bezpowrotnie tracona dla lokalnego ekosystemu – w przeciwieństwie do wody zużytej w gospodarstwach domowych, która wraca do obiegu przez kanalizację. Według danych ONZ, rolnictwo odpowiada za około 70% globalnego zużycia wody słodkiej, co stawia AI w właściwej perspektywie.
Co robią firmy AI, żeby ograniczyć zużycie wody?
Świadomość środowiskowych kosztów rośnie, a giganci technologiczni ogłaszają konkretne cele i wdrażają innowacje.
Microsoft postawił sobie cel osiągnięcia statusu „water positive" do 2030 roku – firma zobowiązała się do uzupełniania (poprzez projekty rekultywacji wodonośców i odtwarzania terenów podmokłych) większej ilości wody, niż zużywają jej operacje globalne.
Google koncentruje się na efektywności i zaawansowanym chłodzeniu powietrzem, optymalizowanym algorytmami AI. W odpowiednich lokalizacjach, jak Finlandia, stosuje chłodzenie wodą morską w obiegu zamkniętym, bez użycia wież ewaporacyjnych.
Meta w najnowszych centrach danych wdraża recykling wody w obiegu zamkniętym – woda oczyszczana i wielokrotnie wykorzystywana wewnątrz obiektu drastycznie redukuje pobór świeżej wody.
Największy potencjał zmian kryje się w chłodzeniu przez zanurzenie (immersion cooling). Serwery zanurzane w nieprzewodzącym płynie dielektrycznym chłodzą się bez wentylatorów i bez wodnych systemów chłodzenia. Technologia jest droższa w implementacji, ale jej adopcja rośnie. To właśnie takie innowacje są kluczem do zrównoważonej przyszłości dla AI i centrów danych.
FAQ — najczęstsze pytania
Ile wody zużywa AI dziennie?
W 2023 roku infrastruktura ChatGPT zużywała 500 000–700 000 litrów wody dziennie. W 2025 roku, przy setkach milionów użytkowników, dzienne zużycie całego sektora AI liczy się w miliardach litrów.
Ile litrów wody zużywa jedno zapytanie do AI?
Według UC Riverside (2023) – około 519 ml na 100-słowny prompt (pełny ślad wodny). Według Sama Altmana (luty 2026) – 0,32 ml (tylko woda do bezpośredniego chłodzenia). Różnica wynika wyłącznie z metodologii pomiaru.
Czy AI zużywa więcej wody niż inne technologie?
Tak, generatywne AI zużywa wielokrotnie więcej wody na operację niż tradycyjne usługi IT (wyszukiwanie Google: 0,003 ml). Jednak w globalnej skali rolnictwo (70% zużycia wody) i przemysł ciężki wciąż mają nieporównywalnie większy wpływ.
Ile wody zużywa AI rocznie globalnie?
W 2025 roku szacunki dla sektora AI wskazywały na 312–764 miliardów litrów rocznie. Cały sektor centrów danych: około 560 miliardów litrów. Do 2030 roku prognozowany wzrost do 1,2 biliona litrów rocznie.
Ile wody zużywa AI w przyszłości? Odpowiedź zależy od wyborów, które firmy i rządy podejmują już dziś – lokalizacji centrów danych, miksu energetycznego i tempa wdrażania innowacji w chłodzeniu. Skala jest zbyt duża, żeby zostawić ją przypadkowi.