Fokus AI: Künstliche Intelligenz und der neue Weltuntergang
Zuerst der Hype, dann die Panik. In einem halben Jahr schaffte es ChatGPT nicht nur mehr als 100 Millionen User:innen zu gewinnen, sondern auch zahllose Untergangsprophet:innen auf den Plan zu rufen. Sogar Elon Musk, sonst nicht gerade zimperlich, fordert die weitere Entwicklung anzuhalten.
Helmut Spudich
„Was Atombomben für die physische Welt sind, ist Künstliche Intelligenz für alles andere.“ Drastischer kann die Panikmache rund um den KI-Bot ChatGPT nicht zusammengefasst werden als mit dieser Eröffnung einer Tagung des Center for Humane Technology in New York im März 2023. Angeblich, so die Veranstalter, sei die Hälfte aller Forscher:innen im Bereich Künstlicher Intelligenz davon überzeugt, dass es zumindest eine 10-prozentiger Chance gebe, dass KI zum Untergang der Menschheit führen würde. Das würde uns natürlich davor bewahren, dass die Menschheit der Klimakatastrophe zum Opfer fällt, wovon nicht nur zehn, sondern an die 99 Prozent aller Wissenschafter:innen in diesem Bereich überzeugt sind.
Apokalyptische Ängste bewegten auch eine Tausendschaft von Techies, Forscher:innen und Promis, die vor ein paar Wochen in einen offenen Brief ein „Moratorium“ der weiteren Entwicklung von Artificial Intelligence (AI) forderten. Unterzeichner Elon Musk stellte sich quasi als Sprachrohr der Besorgten zur Verfügung. Vielleicht auch nur, weil er zwar einerseits 2015 einer der maßgeblichen Investoren in OpenAI war, dem Entwickler von ChatGPT, aber seither das AI-Feld Microsoft, Google & Co überlassen hat und jetzt befürchtet, dass der AI-Zug ohne ihn abfährt. Da wäre ein „Moratorium“ für Musk ganz praktisch, um den AI-Express wieder einzuholen.
Aber lassen wir den Sarkasmus: Viele ernsthafte Menschen beschäftigen sich mit möglichen negativen Folgen von KI und das ist gut so. Der technologische Fortschritt seit der Erfindung der Dampfmaschine brachte in den letzten Jahrzehnten auch den sozialen Fortschritt der Folgenabschätzung für neue Technologien. Bis die Menschheit die dramatischen Auswirkungen der im 19. Jahrhundert einsetzenden Industrialisierung begriffen hat dauerte es hundert Jahre und mehr, wovon der viel zu spät einsetzende Kampf gegen den Klimawandel zeugt. Bei neueren Technologien fällt die Feedback-Schleife inzwischen etwas kürzer aus. Die Abschätzung unerwünschter Folgen geschieht rascher, was die Chance ihrer Begrenzung oder besser noch Vermeidung erhöht.
Darum ist die konstruktive Auseinandersetzung über die Folgen von KI-Systemen dringend notwendig. ChatGPT hat dies sehr schnell provoziert, selbst wenn noch nicht klar ist, wie wir mit den negativen Seiten umgehen können. Etliche andere KI-Anwendungen werden durch vorhandene strenge Kontrollsysteme eingegrenzt. Etwa bei der Entwicklung neuer Medikamente durch KI: Solche Wirkstoffe unterliegen genauso wie durch menschliche Forschung gefundene Substanzen umfangreichen klinischen Tests und einem strengen Zulassungssystem von Medizinbehörden. Oder Übersetzungen und sprachliches Lektorat durch KI-Software: Diese müssen sich in einem hochprofessionellen Umfeld geschulter Übersetzter:innen und Lektor:innen behaupten, wenn sie auf breiter Basis kommerziell bestehen wollen.
Schwieriger ist es in Bereichen wie Gesichtserkennung: Abgesehen davon, dass diese immer noch mit einem hohen Maß an „Vorurteilen“ (sprich: KI-Fehlern) bei der richtigen Erkennung belastet ist, besteht ein großes Missbrauchs-Risiko durch Staaten, Unternehmen und Privatpersonen. Andererseits kann Face Recognition eine sehr positive Rolle spielen: Die Johns Hopkins School of Medicine entwickelt Verfahren zur Diagnose von Schlaganfallspatient:innen. Am MIT wird mithilfe von Gesichtserkennung der Status von ALS erkannt, eine degenerative Muskelerkrankung.
Bei generativer KI, den Systemen, die wie ChatGPT menschliche Intelligenz simulieren, oder wie Midjourney realistische Fotos erzeugen, etwa von einer Verhaftung Donald Trumps, die nicht stattfand, fehlen Leitplanken zur Verhinderung dramatischer Fehlentwicklungen. In der EU gibt es den (weltweit ersten) Entwurf eines „Artificial Intelligence Act“. Vor 2025 wird dieser jedoch kaum beschlossen werden – und dann braucht es noch weitere Jahre bis zur gesetzlichen Umsetzung in allen EU-Staaten. Bis dahin machen KI-Systeme riesige Fortschritte, die wir uns noch gar nicht vorstellen können.
Die Verantwortung für eine positive, den Menschen dienende Entwicklung von KI liegt darum derzeit vor allem in den Händen ihrer Entwickler:innen sowie von Medien und Watchdogs, die ihnen dabei auf die Finger schauen. Große Anbieter werden im eigenen kommerziellen Interesse darauf achten, keine gefährlichen Produkte auf den Markt zu bringen. Auch ohne spezielle KI-Regulierung können gesetzliche Produkthaftungen zu immensen Strafen führen. Gefährdet ist hingegen unser soziales Ökosystem: Das Potential für KI-gesteuerte Desinformation ist fast unbegrenzt. Für die Open-Source-Community wäre dies ein veritables Betätigungsfeld: Eine KI zu entwickeln, die den Missbrauch von KI aufdecken kann.
Das „AI-Dilemma“, wie es bereits Netflix-verdächtig getauft wurde, wird die KI-Entwicklung dauerhaft begleiten. Aber solange menschliche Intelligenz immer noch Weltmeister beim Anrichten von immens großem Schaden an Mensch und Planet ist, sollte Künstliche Intelligenz keine unmäßige Panik auslösen.
Beitrag teilen: