Als OpenAI, die Firma hinter ChatGPT, den Video-Generator "Sora" und die Sprach-Software "Voice Engine" öffentlich bekannt gab, war die Aufregung groß. Nach Chatbot und Bildgenerator hat OpenAI nun das nächste Level erreicht: Eine Software, mit der sich mühelos Videos generieren lassen. Doch Expertinnen und Experten äußern Bedenken. Denn ein solches Programm erleichtert es, Falschinformationen im Internet zu verbreiten.
Das erste KI-generierte Video, das OpenAI auf der Webseite vorführt, zeigt eine Frau in Lederjacke und rotem Kleid, die auf einer hell beleuchteten Straße läuft – und es wirkt auf den ersten Blick täuschend echt. Erst bei genauerer Betrachtung fallen einige Fehler auf, die das Video als KI-generiert enttarnen. Die Frau macht zu einem Zeitpunkt im Video beispielsweise zwei linke Schritte und ihr Kleid wechselt das Aussehen. Außerdem gleiten ihre Füße über den Boden, als wäre sie nachträglich eingefügt worden. Expertinnen und Experten sprechen bei solchen Fehlern von "Artefakten". Häufig treten sie bei Konturen und Gesichtsübergängen auf. Laut dem Bundesamt für Sicherheit in der Informationstechnik kann es hilfreich sein, auf Details oder den Hintergrund zu zoomen, um solche KI-Artefakte zu erkennen.
Wie kann man KI-generierte Videos erkennen?
Allerdings gelingt es Sora anders als vielen anderen Programmen, Personen im Hintergrund auch dann akkurat wiederherzustellen, wenn die Frau im roten Kleid sie zeitweise komplett verdeckt hat. So wird es immer schwieriger, die erstellten Videos von authentischen zu unterscheiden, sofern sie keine offensichtlichen Fehler macht.
Bislang sind die von OpenAI veröffentlichten Videos mit einem Wasserzeichen in der unteren rechten Ecke versehen. Jedoch ist es möglich, Wasserzeichen durch Zuschneiden zu entfernen. Um dagegen vorzugehen, diskutiert die Politik bereits über eine Kennzeichnungspflicht für KI-erstellte Inhalte. Einheitliche Regeln gibt es aber noch nicht.
Noch ist Sora nicht öffentlich verfügbar. Der technische Bericht zeigt auf, wohin eine Weiterentwicklung von KI führen könnte, da Sora bereits zum jetzigen Zeitpunkt sehr potent ist – und dadurch auch gefährlich. Denn es gibt andere KI-Werkzeuge, die bereits zur Manipulation genutzt werden. KI-Bilder werden häufig in sozialen Netzwerken geteilt und können die öffentliche Meinung beeinflussen. Auch deutsche Politikerinnen und Politiker haben sich bereits solcher Bilder im Wahlkampf bedient. Erst kürzlich hat ein KI-generierter Joe Biden im US-Bundesstaat New Hampshire Anrufe getätigt, in denen er aufforderte, nicht zur Vorwahl zu gehen. Seither sind die Sorgen über potenzielle Einflüsse von KI auf Wahlkämpfe groß. Auch für die anstehende Bundestagswahl 2025 könnte KI eine Rolle spielen.
Zwar arbeiten große Tech-Firmen an Gegenmaßnahmen für Wahlmanipulation durch KI und Deepfakes. Expertinnen und Experten zweifeln aber an deren Effektivität. Dazu zählen auch diverse Kennzeichnungsverfahren wie digitale Wasserzeichen. Laut eigener Aussage versucht OpenAI die eigenen Programme sicherer und transparenter zu machen sowie die Nutzungsbedingungen regelmäßig anzupassen. Hierdurch soll die Verbreitung von Fehlinformationen und "Halluzination" von vermeintlichen Fakten durch KI verringert werden.
KI-Experte Florian Rampelt sagt: "Ein grundlegendes Verständnis der Technologie ist zentral"
Florian Rampelt leitet die Geschäftsstelle des KI-Campus, einer Lernplattform mit dem Ziel, KI- und Datenkompetenzen zu erweitern. Ein Themenschwerpunkt ist KI und Demokratiebildung. Laut Rampelt solle man die Entwicklungen weder verteufeln noch in den Himmel loben. Da generierte Inhalte mittlerweile zum medialen Alltag gehören, könne KI "zu einer verzerrten Darstellung der Realität führen und die öffentliche Meinungsbildung beeinflussen". Rampelt erklärte, dass viele Bürgerinnen und Bürger Deepfakes kaum von Fakten unterscheiden können und sagte: "Dadurch kann künstliche Intelligenz gezielt für Propaganda und Wahlmanipulation missbraucht werden."
KI könne den politischen Diskurs aber auch positiv beeinflussen, sagt Rampelt, beispielsweise auch durch das Zusammenfassen komplexer Sachinhalte. Für einen souveränen Umgang mit KI jedoch sei ein "grundlegendes Verständnis der Technologie zentral". Es bedarf einer Zusammenarbeit von Politik und Unternehmen, Regelungen zu finden, die den Missbrauch von Text-zu-Video-KI verhindern.