Fokus AI: Reden wir über Energie, Wasser und den Datenhunger von Künstlicher Intelligenz

Näher als die melodramatisch postulierte Warnung vor einem von KI-Systemen ausgelösten Weltuntergang sind andere Probleme: Der enorme Hunger nach Energie und Daten und der unersättliche Durst nach Wasser.

Helmut Spudich

Okay, ChatGPT: Wir müssen reden. Nein, nicht über deine Neigung zu halluzinieren, wenn du keine Antwort auch auf einfache Fragen hast, oder über deine rotzigen Antworten, wenn dich User:innen provozieren. All das können wir einstweilen noch deiner Pubertät zuschreiben, um die sich deine Erziehungsberechtigten hoffentlich kümmern werden.

Nein, wir müssen über drei ernsthafte Hürden reden, wenn KI zu einer verantwortungsvollen, reifen Technologie heranwachsen soll, der wir auch bei lebenswichtigen Fragen vertrauen können. Es geht um deinen enormen Energiebedarf, der schon bald den bisherigen Energiebedarf von IT in den Schatten stellen wird. Es geht um die riesigen Wassermengen, die zur Kühlung deiner Rechenzentren nötig ist. Und es geht um die riesigen Datenmengen, die zum Training von Künstlicher Intelligenz nötig sind und die schon in wenigen Jahren erschöpft sein könnten.

Ein Energiefresser wie Krypto

Bleiben wir zunächst bei den gravierenden Umweltthemen, die mit dem Einsatz von KI verbunden sind. Alle Technologien müssen künftig Teil der Lösung und nicht des Problems des Klimawandels sein. Das erwarten wir insbesondere von KI-Anwendungen, die uns bei der Erstellung präziserer Klimamodelle ebenso helfen können wie bei der Optimierung von erneuerbarer Energieerzeugung, dem Aufbau von Smart Grids und der Reduzierung von Emissionen durch Landwirtschaft oder Industrie.

Die Verrücktheit des Krypto-Hypes warf zuletzt ein grelles Licht auf die gravierenden Nebenwirkungen neuer Technologien. Eine einzige Bitcoin-Transaktion verbraucht so viel Strom wie ein durchschnittlicher US-Haushalt in 50 Tagen. Die Herstellung von Bitcoin & Co frisst nach einer Studie der US-Regierung bereits 0,9 Prozent des weltweiten Stroms, so viel wie alle anderen Datenzentren zusammen.

Berechnungen zum Energiebedarf von KI-Systemen sind aufgrund der Geheimhaltung der beteiligten Unternehmen derzeit noch schwierig, sagt der Forscher Sasha Luccioni von Hugging Face, einer Open-Source-Plattform für „anständiges Machine Learning“, die als das gute Gewissen der KI-Industrie gilt. KI verwendet dieselbe Hardware wie Crypto, nur noch intensiver. Die mit dem Training von GPT-3 verbundenen CO2-Emissionen werden auf 550 Millionen Tonnen geschätzt, was 550 Flügen zwischen New York und San Francisco entspricht. Für das Training von GPT-4 sollen 570-mal so viele Parameter zum Einsatz gekommen sein.

Ein dramatisches Bild dieser Entwicklung zeichnet der Tech-Marktforscher Gartner: Bereits 2025 soll der Energiebedarf aller KI-Systeme den Energiebedarf aller menschlichen Arbeitskräfte übersteigen. Bis 2030 könnten KI-Training und Datenspeicherung weltweit für 3,5 Prozent des Stromverbrauchs verantwortlich sein – dreieinhalbmal so hoch wie der heutige Anteil aller Rechenzentren am globalen Verbrauch.

Der unermessliche Durst von ChatGPT

Hand in Hand mit dem Energieverbrauch steigt der Bedarf an Wasser zur Kühlung der für KI benötigten Rechenzentren. Allein für das Training von GPT-3 soll die unglaubliche Menge von 3,5 Millionen Liter Wasser nötig gewesen sein, um die Server zu kühlen. Weniger effiziente chinesische Rechenzentren würden dafür angeblich sogar 5 Millionen Liter benötigen.

Um 20 Fragen zu beantworten, wurde der Durst von ChatGPT auf einen halben Liter Wasser beziffert – inzwischen werden Fragen aber vom komplexeren und energieintensiveren GPT-4 beantwortet. Die Auswirkungen dieses Dursts sind kaum vorstellbar. Pro Minute werden Google 6,3 Millionen Fragen gestellt und künftig soll ein wesentlicher Teil dieser Fragen durch KI beantwortet werden.

Mehr Daten als die Welt hat

Energiehunger und Durst nach Wasser sind die technische Seite, der unerschöpfliche Appetit auf Daten repräsentiert die inhaltliche Grenze des Wachstums von KI-Systemen. KI-Entwickler gingen dabei bisher ebenso unverschämt wie frühere „Disruptoren“ vor: Erst nehmen, dann fragen. Trainingsmaterial wurde aus dem Internet abgesaugt, ohne Rücksicht darauf, ob das Material durch Urheberrecht geschützt war oder die Urheber überhaupt bereit waren, zu Rohstoff für KI-Systeme degradiert zu werden. Eine Reihe von Urheberrechtsprozessen wird die (Un-)Rechtmäßigkeit dieses Verhaltens klären und möglicherweise für die KI-Betreiber noch kostspielig werden.

Diese scheinbar kostenlose Rohstoffquelle ist inzwischen weitgehend versiegt. Wertvoller Stoff liegt inzwischen gut geschützt vor KI-Crawlern hinter den Firewalls ihrer Besitzer. Und diese lassen sich gutes Geld für die Nutzung zahlen, wie Lizenzabkommen von OpenAI mit der Nachrichtenagentur Associated Press und der Bilddatenbank Shutterstock zeigen. Google soll in Verhandlungen mit Universal Music sein, um die Stimmen berühmter Künstler:innen für sein singendes AI-Tool nutzen zu können. Große Datenschätze, mit denen sich KI spezialisiertes Wissen aneignen kann, liegen auf den Servern vieler Unternehmen, von Gesundheitsdaten von Spitalerhalter und wissenschaftlichen Verlagen bis zu banalen Transkriptionen von Call-Center-Anrufen.

Daten sind jedenfalls ein begrenzter Rohstoff: Schon 2026 könnte er vollständig von der KI-Industrie ausgebeutet worden sein, sagen manche Expert:innen. Möglicherweise liegt darin der eigentliche Grund, warum Elon Musk, der sich vom lautstarken Warner vor einem AI-Armageddon zum KI-Gründer wandelte, Twitter gekauft hat. X ist eben die Unbekannte in einer Gleichung, deren ganzes Ausmaß wir noch gar nicht kennen. Nicht nur für Twitter, auch für die Zukunft von KI.

Veröffentlicht am: 29. August 2023

Beitrag teilen: