ChatGPT & Co. :
Brauchen wir eine KI-Pause?

Von Sibylle Anderl
Lesezeit: 4 Min.
Große Chancen - große Risiken. Muss KI stärker reguliert werden?
Künstliche Intelligenz macht derzeit Fortschritte, mit denen gesellschaftliche Diskussionen kaum Schritt halten können. Forscher und Unternehmer fordern einen Entwicklungsstopp.

Eine sechsmonatige Entwicklungspause für das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind: Das fordern derzeit knapp 2000 Unterzeichner eines offenen Briefes, der am Dienstag auf der Webpage des „Future of Life Institute“ veröffentlicht wurde - einer gemeinnützigen Organisation, die sich für eine verantwortungsvolle und risikoarme Nutzung transformativer Technologien einsetzt. Fortgeschrittene Künstliche Intelligenz könne einen grundlegenden Wandel in der Geschichte des Lebens auf der Erde einläuten und das müsse mit angemessener Sorgfalt geplant werden, heißt es in dem Brief.

Besorgniserregend seien vor allem die Risiken von Propaganda und Falschinformationen, der Wegfall von Arbeitsplätzen und ein allgemeiner Kontrollverlust. Die Weiterentwicklung mächtiger KI-Systeme solle daher erst erfolgen, wenn klar sei, dass diese Risiken kontrollierbar sind. Unter den Unterzeichnern finden sich bekannte Namen wie Apple-Mitgründer Steve Wozniak und Elon Musk - obwohl letzterer sich bislang nicht unbedingt als Unternehmer mit besonders hohen moralischen Standards hervorgetan hat.

„Sorge, dass wir mit Regulierung nicht hinterherkommen“

Aus Deutschland beteiligt sind auch die Professorinnen Ute Schmidt, die an der Otto-Friedrich-Universität Bamberg die Arbeitsgruppe Kognitive Systeme leitet, und Silja Vöneky, Leiterin der FRIAS Forschungsgruppe Responsible AI an der Albert-Ludwigs-Universität Freiburg. Gegenüber dem deutschen Science Media Center (SMC) begründete Schmidt ihre Beteiligung mit der Notwendigkeit, auf die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller KI-Technologien hinzuweisen. Man müsse versuchen, in einen breiten demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und -Experten aus Forschungsinstituten und großen Tech-Unternehmen aktiv beteiligen.

Vöneky hob als Professorin für Völkerrecht und Rechtsethik dagegen insbesondere das Fehlen eines geeigneten rechtlichen Rahmens hervor: „Meine Sorge ist, dass wir mit der Regulierung nicht hinterherkommen. Die KI-Verordnung der EU ist noch nicht in Kraft – und stuft diese Systeme auch nur als niedriges Risiko ein, reguliert sie also kaum.“ Gleiches gelte für die Menschenrechts-Europaratskonvention zur KI. Einen anderen verbindlichen völkerrechtlichen Vertrag zu KI gebe es nicht.

Die bereits seit zwei Jahren vorliegende KI-Verordnung der EU wird aktuell verhandelt und könnte frühestens in diesem Jahr verabschiedet werden. Im Kern besteht sie aus einem risikobasierten, dreistufigen Regulierungskonzept, das zwischen KI-Systemen mit untragbarem Risiko, Hochrisiko-KI-Systemen und solchen mit niedrigem Risiko unterscheidet. Chatbots wie ChatGPT würden unter letztere Kategorie fallen. Selbst wenn die Regelung frühestens in zwei Jahren tatsächlich in Kraft träte, würden sich demnach für die im offenen Brief kritisierten Technologien keine Änderungen ergeben. Vöneky kritisiert diese Schwerfälligkeit: die Regulierung werde bisher zu ‚statisch‘ gedacht und könne „nicht schnell genug auf neue Risikolagen durch neue technische Entwicklungen reagieren“.

Ein temporärer Forschungsstopp könnte zumindest theoretisch dazu dienen, Politik und Rechtsprechung die Möglichkeit zu geben, hier Versäumtes aufzuholen. „Ein Moratorium würde den Vorteil bringen, dass sich Regulierungen proaktiv beschließen ließen, bevor die Forschung weiter voranschreitet“, sagte Thilo Hagendorff, Forschungsgruppenleiter an der Universität Stuttgart, gegenüber dem SMC. Gleichzeitig sieht er die Stellungnahme aber kritisch: „Das Moratorium dient letztlich genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert werden soll. Es suggeriert völlig übertriebene Fähigkeiten von KI-Systemen und stilisiert sie zu mächtigeren Werkzeugen, als sie eigentlich sind.“

Das Moratorium befeuere dadurch Missverständnisse und falsche Wahrnehmungen über KI und lenke damit von faktisch vorliegenden Problemen eher ab – oder verstärke sie sogar. Denn übertriebene Erwartungen und zu hohes Vertrauen in die neuen leistungsfähigen Sprachmodelle sind schließlich Faktoren, die den beklagten Kontrollverlust und das Risiko, intime Informationen preiszugeben oder gelieferte Informationen nicht hinreichend zu überprüfen, noch fördern.

Ohnehin bleibt völlig unklar, wie ein Forschungsstopp überhaupt kontrolliert und geahndet werden könnte. Das zeigt sich bereits an der Tatsache, dass die Forderung, leistungsfähigere Systeme als GPT-4 auszubremsen, gar nicht klar definiert ist: Aufgrund fehlender Transparenz hinsichtlich der technischen Details und Möglichkeiten dieses Sprachmodells des Unternehmens OpenAI wäre schwer zu entscheiden, welche Modelle betroffen sind. Dazu kommt: Auch ein Entwicklungsstopp birgt Risiken. Thilo Hagendorff sieht das durch verschiedene Szenarien illustriert: „Wenn eine Anfrage an ein Sprachmodell bessere Antworten liefern kann als menschliche Experten, dann macht dies die gesamte Wissensarbeit produktiver. Im Extremfall kann es sogar Leben retten. Sprachmodelle in der Medizin etwa sind eine große Chance, um mehr Leben retten oder Leiden reduzieren zu können.“

Italien hat derweil bereits Fakten geschaffen. Angebliche Verstöße gegen Datenschutz- und Jugendschutzregeln nahm die italienische Datenschutzbehörde zum Anlass, das Unternehmen OpenAI zum Stopp der Anwendung in Italien aufzufordern. Nello Cristianini, Professor für Künstliche Intelligenz an der Universität Bath, deutete das dem britischen SMC gegenüber als Bestätigung, dass der offene Brief einen gültigen Punkt getroffen habe: „Es ist zwar nicht klar, wie diese Entscheidungen durchzusetzen sein werden. Aber die bloße Tatsache, dass es eine Diskrepanz zwischen der technologischen Realität und den rechtlichen Rahmenbedingungen in Europa zu geben scheint, legt nahe, dass vielleicht doch etwas dran ist an dem Brief, der von verschiedenen KI-Unternehmern und Forschern vor zwei Tagen unterzeichnet wurde.“