Frau Reuel, als ChatGPT auf den Markt kam, war der Enthusiasmus in der Öffentlichkeit groß. Jetzt streiken in Hollywood Drehbuchautoren und Schauspieler, weil sie Angst haben, dass künstliche Intelligenz (KI) ihre Jobs vernichtet. Sind wir gegenüber der neuen Technologie zu blauäugig gewesen?
Anka Reuel: Ich glaube, das kann man der Gesellschaft nicht vorwerfen. Die Entwicklung hat tatsächlich auch Fachleute und selbst Entwickler, die an dem System gearbeitet haben, überrascht. Fast niemand hat damit gerechnet, dass ChatGPT so einschlägt. Der Streik zeigt, dass das tatsächlich eine disruptive Technologie ist, die viele Jobs infrage stellt, von denen wir vorher geglaubt haben, dass sie von Automatisierung nicht betroffen sein werden.
Sie arbeiten in Stanford, also im Silicon Valley. Wie ist denn die Stimmung in der Herzkammer der Tech-Industrie?
Reuel: Die Gespräche haben sich sehr verändert. Ich habe mit meiner Forschung sowohl zu technischer KI-Sicherheit als auch KI-Governance hier im vergangenen September angefangen. Wenn ich damals erwähnt habe, dass wir Schutzmaßnahmen und Regulierung brauchen, habe ich oft gehört: „Warum? Das passt schon!“. Es herrschte ein deutlich optimistischeres Gefühl. Nachdem ChatGPT auf den Markt gekommen war, hat sich das Meinungsbild auch bei uns in der Uni deutlich gewandelt. Jetzt kommen viel mehr Kolleginnen und Kollegen und sagen: „Anka, ich bin besorgt über die Risiken. Was können wir machen?“
Der Optimismus ist weg?
Reuel: Jedenfalls hat sich die Debatte verschoben. Bis zu ChatGPT herrschte die Überzeugung, dass wir die Risiken mit technischen Lösungen beherrschen können. Mittlerweile wächst das Bewusstsein, dass das nicht reichen wird. Wir brauchen Regulierung, die für alle Akteure gilt. Es müssen Standards für die verantwortungsvolle Entwicklung und den verantwortungsvollen Einsatz von KI gesetzt werden.
Wo sehen Sie die größten Gefahren der KI?
Reuel: Wir reden über eine ganze Bandbreite von Risiken, sowohl kurzfristig als auch langfristig. Schon jetzt sehen wir, dass es zu Falschaussagen durch ChatGPT und zu Diffamierungen sowie Diskriminierungen kommt. Gerade gab es Berichte über das sogenannte Swatting: Da werden Stimmen geklont und jemand meldet bei der Polizei einen Einbruch, die dann bei ahnungslosen schlafenden Menschen mit einem Swat-Team (ein Einsatzkommando) anrückt. Man muss sich mal vorstellen, was so etwas mit einem macht.
Was droht als Nächstes?
Reuel: Aktuell werden Systeme wie ChatGPT kaum bis gar nicht in der kritischen Infrastruktur eingesetzt, allerdings ist zu erwarten, dass KI zunehmend auch dort eingesetzt wird. Wenn dann Fehler passieren oder Missbrauch stattfindet, wären unter Umständen Millionen von Menschen mit sehr ernsten Konsequenzen betroffen.
Sie sprechen von Dingen wie Stromversorgung oder Internet.
Reuel: Solche Netzwerke sind oft auch noch miteinander verbunden. Wenn da eine Komponente angegriffen wird, kann sich das schnell durch das ganze System ziehen. Selbst wenn wir sagen, wir überlassen der KI nicht die autonome Entscheidung, sondern wollen immer, dass ein Mensch dabei ist, der auf Basis von Empfehlungen der Maschine selbst entscheidet oder die Entscheidung zumindest überprüft, ist das ein Risiko. Je komplexer eine Situation ist, desto schwieriger ist es für den Menschen, zu entscheiden. Im Zweifelsfall folgt er dann einfach der Maschine, ohne selbst zu reflektieren, ob der Vorschlag sinnvoll ist.
Der Roboter übernimmt dann faktisch die Macht?
Reuel: Es können jedenfalls gefährliche Situationen entstehen, in denen wir eine halb autonome KI einsetzen, die quasi dadurch ganz autonom wird, dass der Mensch seine Einwirkungsmöglichkeit freiwillig abgibt.
Sie treten dafür ein, dass das Regelwerk für die KI global koordiniert wird. Das klingt logisch. Aber ist es realistisch?
Reuel: Ich glaube, dass wir gerade ein Zeitfenster haben, wo das Thema sehr viel Aufmerksamkeit erfährt und der Druck auf die einzelnen Regierungen wächst, sich mit dem Thema zu beschäftigen. Natürlich sehe ich die Schwierigkeiten: Es gibt viele verschiedene Interessengruppen, sowohl national als auch international, bei denen es schwer ist, das zusammenzubringen. Andererseits machen mir die Regulierungsanstrengungen vor allem in der EU und in China Hoffnungen: Da gibt es viele ähnliche Bausteine, die beide Regionen in ihren Regulierungen umsetzen möchten. Es gibt einen Minimalkonsens, der auch in den USA weiter vorangetrieben wird. Die konkrete Gesetzgebung wird hier wahrscheinlich anders aussehen. Aber ich glaube, dass man international tatsächlich auf einen gemeinsamen Nenner kommen kann, weil die KI-Sicherheit aufgrund von durchaus unterschiedlichen Motivationen für alle Regierungen wichtig ist. Aber zugegeben: Einfach wird das nicht.
Sehr schnell wird das jedenfalls nicht gehen. Schon gar nicht in den USA. Hier läuft gerade der Vorwahlkampf fürs Präsidentschaftsrennen im nächsten Jahr an. Droht uns eine digitale Shit-Show?
Reuel: Das muss man tatsächlich befürchten. Je nachdem, wie viele Verbesserungen es bei generativen Videomodellen gibt und wie täuschend Menschen in Fake-Videos eingebaut werden können, droht eine mächtige Desinformationskampagne von beiden Seiten. Das wird das Vertrauen in Informationen weiter untergraben. Künftig wird es signifikant mehr Zeit kosten, herauszufinden, was wahr ist und was nicht. In einem ohnehin extrem polarisierten Umfeld wird der Diskurs noch schwieriger. Das macht mir insbesondere als jemand, der vor Ort lebt, wirklich Sorgen.
Zur Person: Anka Reuel ist kein ängstlicher Mensch: Als Globetrotterin hat sie zahlreiche exotische Länder bereist. Doch die Risiken der künstlichen Intelligenz (KI) treiben die Informatik-Doktorandin an der amerikanischen Elite-Universität Stanford um. Gemeinsam mit dem emeritierten Neurologie-Professor und KI-Unternehmer Gary Marcus veröffentlichte sie im April einen Namensbeitrag im Magazin The Economist, in dem sie eine global koordinierte Regulierung der neuen Technologie fordert. In Deutschland gehört sie zu den Mitgründern der Denkfabrik Kira, die Industrie, Wissenschaft und Politik für einen verantwortlichen Einsatz der KI zusammenbringen will.