Herr Lobo, Sie sind Vortragsredner, Podcaster und schreiben eine wöchentliche Kolumne. Wo haben Sie sich zuletzt von ChatGPT helfen lassen?
SASCHA LOBO: Ich nutze ChatGPT regelmäßig als Inspirationshilfe. Ich frage zum Beispiel: "Was wäre ein aktuelles Thema, das ich in einem Podcast über Künstliche Intelligenz besprechen könnte?" Da kommen viele und manchmal auch gute Vorschläge – davon kann man sich inspirieren lassen. Ich habe ChatGPT, wie sehr viele andere Menschen auch, schon in meinen Arbeitsalltag integriert.
Haben wir als Gesellschaft denn schon begriffen, was Künstliche Intelligenz (KI) bewirken wird?
LOBO: Nein, aber wir haben auch davor nicht wirklich begriffen, wie zum Beispiel soziale Medien funktionieren. Es ist ein wiederkehrendes Element des 21. Jahrhunderts, dass wir Technologien massenhaft benutzen, bevor wir begriffen haben, was genau sie mit der Welt machen. Ich nenne das exponentiellen Fortschritt: Wir führen Nachfolge-Software ein, bevor wir den Vorgänger richtig verstanden haben. Das birgt Risiken und wir müssen lernen, damit umzugehen. Ich glaube aber, es gibt zu dieser Verfahrensweise nicht wirklich eine Alternative. Man kann Technologien nicht zurückhalten, bis wir auf gesellschaftlicher Ebene begriffen haben, was da passiert.
Einige wollen das aber, zumindest für ein halbes Jahr. In einem offenen Brief haben Tech-Expertinnen und -Experten – darunter Tesla-Chef Elon Musk – eine sechsmonatige Entwicklungspause gefordert, um zuerst Sicherheitsprotokolle zu entwickeln.
LOBO: Dieser offene Brief war der größte Unfug, den ich seit langer Zeit gesehen habe. Exakt der Elon Musk, der das unterschrieben hat, hat kurz darauf ein eigenes KI-Labor aufgesetzt. Das zeigt, dass Elon Musk seine eigene problematische Agenda hat. Und dass er durch seinen komischen Aufruf nichts weiter machen wollte, als Zeit für die eigenen Unternehmen zu gewinnen.
Noch einmal zu den Auswirkungen von KI. Wie wird diese Technologie unser Leben ändern?
LOBO: Das aktuelle Mediengetöse bezieht sich auf den Anfang einer neuen Zeitrechnung. Das jüngste Beispiel dafür ist die Software Auto-GPT. Die kann zumindest ansatzweise von ihr geschriebene Codes auch direkt selber ausführen. Und sie kann Prompts – also die Anweisungen, die man einer KI gibt – auch selbst verfassen. Auto-GPT nutzt diese Fähigkeiten, um komplexe Aufgaben in kleinere Unteraufgaben zu teilen, damit sie ausführbar werden. Man sagt dann etwa: "Besorge mir den Schuh Air Jordan 10, Größe 44, für unter 300 Euro, inklusive Versand." Auto-GPT unterteilt den Auftrag: Zuerst könnte die KI eine Software schreiben, die schaut, wo es den Schuh zu kaufen gibt. Dann eine zweite Software, die sich bei den betreffenden Plattformen anmeldet und eine dritte, die in der Lage ist, dort mitzubieten und den Kauf zu tätigen. Auch wenn das heute noch nicht in allen Dimensionen funktioniert: In ein paar Jahren werden wir in unseren Smartphones künstlich intelligente Assistent*innen haben, die tun, was wir ihnen sagen.
Darüber haben Sie in Ihrer Spiegel-Kolumne geschrieben. Sie enden mit einem düsteren Ausblick: Deutschland werde künftig kein reiches Land mehr sein, wenn es sich nicht um das Thema kümmert.
LOBO: Wir sind in Deutschland nicht besonders digital affin. Das hängt an einer Vielzahl von Mechanismen, die man teilweise gut rund um Augsburg beobachten kann. Dort gibt es viele sehr erfolgreiche Unternehmen. Durch den Erfolg ist der Druck, sich zu wandeln, gering geworden. Was wir aber brauchen, ist eine Offenheit gegenüber disruptiver Veränderung, durch die sich ein Markt brachial ändert. Das ist in Deutschland noch nicht immer angekommen. Wenn wir dieses Thema nur halbherzig angehen – wie wir es zum Beispiel bei der digitalen Infrastruktur getan haben – kann es sein, dass wir dramatisch überrundet werden.
Andere betrachten die KI selbst als Gefahr. Es gibt da die Geschichte des Google-Mitarbeiters, der behauptet hat, die hauseigene KI hätte ein Bewusstsein entwickelt …
LOBO: Das war im letzten Sommer, Blake Lemoine, der für seine Aussage entlassen wurde. Das ist kein Verrückter, sondern er erscheint mir in den Interviews, die er gegeben hat, sehr zurechnungsfähig. Trotzdem glaube ich nicht, dass das stimmt.
Was er sagt, klingt schon gruselig.
LOBO: Furcht vor KI zu haben, ist völlig in Ordnung. Man darf aber nicht aus der Furcht heraus alles, was in Richtung KI geht, ablehnen. Eine gute Parallele ist, finde ich, Social Media. Das wurde belächelt, es gab auch große Ängste. Ein Teil davon hat sich bewahrheitet, Social Media hat klar negative Seiten. Aber inzwischen haben die meisten Unternehmen Social-Media-Abteilungen. Trotz aller Sorgen haben sie irgendwann gemerkt: Wir müssen uns damit beschäftigen, sonst werden wir abgehängt.
Um den Sorgen gerecht zu werden, benötigen wir einen gewissen Rahmen für KI. Also brauchen wir Gesetze?
LOBO: Ja, wobei ich da vorsichtig wäre. Was ich bisher aus der Politik gehört habe – nicht nur aus Deutschland – war eher schwierig. Ich spiele auf das faktische Verbot von ChatGPT in Italien an. Das geht meiner Meinung nach völlig an der Realität vorbei – ich versuche hier, eine nicht justiziable Formulierung zu finden. Und in Deutschland haben wir manchmal ein problematisches, weil fundamentalistisches Datenschutzverständnis. Wir müssen uns weiterentwickeln, damit wir im KI-Bereich nicht wieder eine Bremser-Nation werden.
Auf EU-Ebene gibt es Pläne für eine Kennzeichnungspflicht für mit KI erstellte Inhalte.
LOBO: Das ist in Ordnung. Aber wir haben mit Künstlicher Intelligenz ein Tor geöffnet für sogenannte Deepfakes. Das Problem ist, die beste Kennzeichnungspflicht nützt nichts gegen diejenigen, die das missbrauchen – sagen wir mal, russische Troll-Fabriken. Wenn die ein Video verbreiten, in dem Olaf Scholz und Putin in der Sauna sitzen und sich absprechen, werden sie sicher nicht dazuschreiben: Achtung, das ist mit einer KI entstanden. Trotzdem, Kennzeichnungspflichten sind eine Überlegung wert. Mir kommt es nur so vor, als würde man ein großes Feuer mit einer Feuerlöscherpflicht für Autos bekämpfen. Können wir machen, ist ein kleiner Beitrag, aber es löst das Problem nicht.
Eine weitere KI-Problematik ist die Auswirkung auf den Arbeitsmarkt. Denken Sie, dass sich Journalistinnen und Journalisten, die in ein paar Jahren ein Interview mit Ihnen führen, die Fragen noch selbst ausdenken?
LOBO: Ist teilweise heute schon nicht mehr so, aber am Ende ist mir schnurz, woher die Fragen kommen. Ob sie gut sind oder nicht, bewerte ich unabhängig davon.
Einen Unterschied macht es aber für Menschen, deren Job wegfällt.
LOBO: Mittelfristig wird vielleicht zumindest ein Teil der Jobs durch KI ersetzt. Allerdings wird es etwa Leute geben, die eine KI beaufsichtigen und so beauftragen, dass sie gute Ergebnisse ausspuckt. Für die gleiche Arbeit werden aber viel weniger Leute nötig sein, da findet eine Verschiebung statt. Bisher hat Automatisierung Menschen an Fließbändern oder in Werkstätten betroffen. Jetzt erreicht sie Menschen, die studiert haben und mit Schlips oder im Kostüm ins Büro kommen. Ich glaube aber, dass die Ersetzung eines Teils der menschlichen Arbeitskraft nicht so problematisch wird wie manche behaupten. Stattdessen wird sich die Produktivität drastisch erhöhen.
KI könnte aber mit der Bekämpfung des Klimawandels kollidieren – KI-Modelle benötigen viel Energie. Harald Lesch hat in einem Podcast gewarnt, man müsse darauf achten, wofür KI verwendet wird: "Das ist kein Spielzeug. Wir vernichten Unmengen an Energie, die wir eigentlich für etwas Anderes brauchen."
LOBO: Das ist mir eine viel zu bierernste und auch herablassende Beobachtung. Das Internet besteht ohnehin zu mindestens 90 Prozent aus Sachen, die nicht direkt überlebensnotwendig sind. Und genauso könnte man sagen, die Leute sollen nirgendwo mehr hinfahren, sondern nur noch zu Hause sitzen, weil wir die Energie brauchen. Es stimmt, dass KI zum Teil große Energiemengen verbraucht – auch wenn das nicht zwingend für jede einzelne Anfrage in jedem Bereich gilt. Aber die Effizienzgewinne sind riesig. Fünf Stunden Programmierarbeit können durch ChatGPT auf eine halbe Stunde zusammengestaucht werden. Deshalb halte ich die Aussage für falsch, übertrieben oder sie stammt von jemandem, der nicht begriffen hat, wie KI funktioniert oder wo das Potenzial liegt. Das tut mir leid – denn Harald Lesch weiß ja eigentlich gut Bescheid. Aber ich glaube, hier hat er den Zug verpasst.
Nun gibt es gerade viele Krisen gleichzeitig, dazu große Umwälzungen wie durch KI. Sie bleiben aber sehr positiv. Warum eigentlich?
LOBO: Weil ich mir einen positiven Blick bewahren möchte. Wenn man alles immer nur schlechtredet und nicht auch das Potenzial sieht, das wäre Horror. Natürlich muss die Klimakrise dringend bekämpft werden. Aber auch da bestehen Chancen durch KI. Wenn alle Menschen in naher Zukunft einen künstlich intelligenten Assistenten haben, könnte der ihnen zeigen, wie sie Energie sparen. Ob KI auch geeignet ist, Putins mörderischen Krieg in den Griff zu bekommen, da bin ich weniger überzeugt. Aber bei vielen Krisen kann KI Probleme lindern, wenn nicht gar lösen. Ich möchte nicht die möglichen Probleme und Katastrophen leugnen – aber ich möchte mich nicht an Schwarzmalerei beteiligen, sondern an einem konstruktiven Umgang.
Sie sind in den vergangenen Jahren Vater geworden. Inwieweit hat das Ihren Blick auf die Zukunft verändert?
LOBO: Meine Kinder sind rund anderthalb und ein halbes Jahr alt. Ich möchte, dass sie nicht in einer schlimmen Welt aufwachsen. Ich möchte Optimist bleiben. Optimismus ist nichts anderes als eine konstruktive, berechtigte Hoffnung. Ich möchte zu einem tieferen Verständnis von KI beitragen. Ich glaube, damit kann man eine positivere Zukunft herbei wissen.
Zur Person
Sascha Lobo, 47, ist Autor, Blogger und Vortragsredner mit den Schwerpunkten Internet und digitale Technologien. Er veröffentlichte mehrere Bücher, zuletzt 2019 "Realitätsschock: Zehn Lehren aus der Gegenwart" und schreibt seit 2011 die Spiegel-Kolumne "Die Mensch-Maschine". Zusammen mit seiner Frau Jule Lobo veröffentlicht er den wöchentlichen Podcast "Feel the News", in dem die beiden über aktuelle Themen debattieren. Sein Markenzeichen ist sein Irokesenschnitt.