Zapotrzebowanie na energię superkomputerów AI: Epoch AI przewiduje, że do 2030 roku będzie równe dziewięciu elektrowniom jądrowym

Edited by: Olga Sukhina

Gwałtowny rozwój sztucznej inteligencji znacząco zwiększa zapotrzebowanie na energię elektryczną. Badania Epoch AI wskazują, że do 2030 roku zaawansowane superkomputery AI mogą wymagać energii odpowiadającej dziewięciu elektrowniom jądrowym, co odpowiada mniej więcej zużyciu energii przez 7 do 9 milionów gospodarstw domowych.

Jeśli zapotrzebowanie na energię superkomputerów będzie nadal podwajać się co roku, do 2030 roku konieczne będzie około 9 GW mocy. Obecnie najpotężniejsze superkomputery potrzebują około 300 MW, co jest porównywalne z zużyciem energii przez 250 000 gospodarstw domowych. Na przykład Colossus firmy xAI, którego budowa kosztowała szacunkowo 7 miliardów dolarów, wykorzystuje 200 000 chipów.

OpenAI ogłosiło projekt superkomputera Stargate, z inwestycjami przekraczającymi 100 miliardów dolarów, mający na celu budowę kluczowej infrastruktury AI. Nvidia również mocno inwestuje, planując zainwestować do 500 miliardów dolarów w ciągu najbliższych czterech lat w budowę infrastruktury AI w USA. Inwestycje te podkreślają przesunięcie superkomputerów z narzędzi badawczych w silniki przemysłowe, które generują wartość ekonomiczną.

Pomimo poprawy efektywności energetycznej, oczekuje się, że superkomputery AI będą napędzać wyższe zapotrzebowanie na energię. Firmy takie jak Microsoft i Google badają energię jądrową jako potencjalną alternatywę dla zaspokojenia tych rosnących potrzeb energetycznych.

Czy znalazłeś błąd lub niedokładność?

Rozważymy Twoje uwagi tak szybko, jak to możliwe.