Startseite
Icon Pfeil nach unten
Panorama
Icon Pfeil nach unten

Künstliche Intelligenz: ChatGPT: Vor diesen Gefahren warnt ein KI-Pionier

Künstliche Intelligenz

ChatGPT: Vor diesen Gefahren warnt ein KI-Pionier

    • |
    Künstliche Intelligenzen wie ChatGPT halten Einzug in das Leben der Menschen. Doch ein KI-Pionier warnt nun vor den Folgen.
    Künstliche Intelligenzen wie ChatGPT halten Einzug in das Leben der Menschen. Doch ein KI-Pionier warnt nun vor den Folgen. Foto: Richard Drew/AP, dpa (Symbolbild)

    In nur wenigen Monaten haben das KI-Sprachmodell ChatGPT und sein Nachfolger ChatGPT-4 die Welt verändert. Während einige Menschen die neue Technologie begrüßen und sie bereits für Großprojekte oder ihr Privatleben nutzen, wurden jedoch früh einige Stimmen laut, die vor den Gefahren von Künstlichen Intelligenzen warnten.

    Eine Gruppe um Tesla-Chef Elon Musk wollte beispielsweise die Weiterentwicklung von Künstlichen Intelligenzen pausieren - obwohl Musk selbst in die Gründung von OpenAI involviert war, dem Unternehmen, dass ChatGPT entwickelt hat. EU-Staat Italien ging gar soweit, ChatGPT zwischenzeitlich zu sperren. Zwar ist die Seite des KI-Sprachmodells inzwischen wieder erreichbar, aber Sorgen und Ängste, sowie rechtliche Fragezeichen bleiben, was Künstliche Intelligenzen betrifft. Auch Deutsche Datenschützer haben ein Verfahren gegen OpenAI eröffnet.

    Von einem hätte man es aber wohl am wenigsten erwartet, dass er sich in dieser Debatte zu Ungunsten der KI-Entwicklung zu Wort meldet. Und doch hat KI-Pionier Geoffrey Hinton nun in einem Interview mit der New York Times  (NYT) große Bedenken bezüglich der aktuellen Gefahren durch KI-Modelle und dem Entwicklungs-Wettrennen der Tech-Giganten Microsoft und Google geäußert. Um was es dabei geht, lesen Sie in diesem Artikel.

    ChatGPT: KI-Pionier Geoffrey Hinton verlässt Google und warnt vor Gefahren

    Hinton ist ein renommierter Forscher auf dem Gebiet des maschinellen Lernen, der Grundsäule von Modellen wie ChatGPT. Bekannt wurde er insbesondere durch seine Arbeit an neuronalen Netzen und dem Deep Learning, welches zu großen Fortschritten bei Bild- und Spracherkennung sowie bei der Verarbeitung von natürlicher Sprache geführt haben.

    Für seine Arbeit erhielt der Professor Emeritus der Universität Toronto unter anderem den Turing-Award, der als die höchste Auszeichnung der Informatik gilt. Sein Startup und seine eigene Arbeitskraft verkaufte Hinton 2012 an Google, wo er laut seines Lebenslaufs bis vor Kurzem als Engineering Fellow tätig war. Seine Errungenschaften auf dem Gebiet der Künstlichen Intelligenz brachten ihm den Spitznamen "Godfather of AI" ein.

    Doch jetzt hat Hinton Google den Rücken gekehrt, um sich frei über die Risiken von Künstlicher Intelligenz äußern zu können. Ein Teil von ihm bedaure, was er mit seinem Lebenswerk geschaffen habe, sagte Hinton im Interview. "Ich tröste mich mit der üblichen Ausrede: Wenn ich es nicht getan hätte, hätte es jemand anderes getan."

    Folgen von Künstlicher Intelligenz: Fake-Bilder und gravierende Veränderungen am Arbeitsmarkt

    Hintons unmittelbare Sorge ist, dass das Internet mit falschen Fotos, Videos und Texten überflutet werden könnte und der "Durchschnittsbürger" nicht mehr "in der Lage sein wird, zu erkennen, was wahr ist." Wenngleich Hilfsmittel wir der AI Classifier existieren, mit dem man ChatGPT-Texte erkennen kann.

    Auch die Einflüsse, die Künstliche Intelligenz auf den Arbeitsmarkt haben könnte, beobachtet Hinton laut dem NYT-Interview sehr genau. Er sei besorgt, dass KI-Technologien mit der Zeit den Arbeitsmarkt umkrempeln werden. Heute ergänzen Chatbots wie ChatGPT menschliche Arbeitskräfte, aber sie könnten Anwaltsgehilfen, persönliche Assistenten, Übersetzer und andere, die Routineaufgaben erledigen, ersetzen. "Sie nehmen uns die lästige Arbeit ab", sagte Hinton. "Es könnte aber noch mehr als das wegnehmen."

    Auf lange Sicht befürchtet der gebürtige Brite, dass zukünftige Versionen der Künstlichen Intelligenz eine Bedrohung für die Menschheit darstellen, da sie aus den riesigen Datenmengen, die sie analysieren, oft unerwartete Verhaltensweisen lernen. Dies könnte zu einem Problem werden, wenn Einzelpersonen und Unternehmen es KI-Systemen gestatten, nicht nur ihren eigenen Computercode zu erstellen, sondern diesen Code auch selbst auszuführen. Und er fürchtet den Tag, an dem wirklich autonome Waffen - diese Killerroboter - Realität werden.

    "Die Vorstellung, dass dieses Zeug tatsächlich schlauer werden könnte als der Mensch - daran haben ein paar Leute geglaubt", sagte Hinton im Interview. "Aber die meisten Leute hielten das für völlig abwegig. Und ich dachte, es sei weit weg. Ich dachte, es sei noch 30 bis 50 Jahre oder noch länger entfernt. Aber das glaube ich natürlich nicht mehr."

    KI-Wettrennen außer Kontrolle? Google gegen Microsoft 

    Wie aus dem Interview hervorgeht, seien Hintons Bedenken bereits im vergangenen Jahr gewachsen, als Google und OpenAI damit begannen, ihre Systeme mit deutlich größeren Datenmengen zu füttern. Er glaubte zu diese Zeitpunkt immer noch, dass die Systeme dem menschlichen Gehirn in mancher Hinsicht unterlegen waren, aber er dachte auch, dass sie die menschliche Intelligenz in anderen Bereichen in den Schatten stellen würden. In dem Maße und der Geschwindigkeit mit der Unternehmen ihre KI-System derzeit verbessern würden sie Hintons Meinung nach immer gefährlicher.

    Befeuert werde die Situation durch das KI-Wettrennen zwischen Google und Microsoft. Google habe sich im vergangenen Jahr als "guter Verwalter" der Technologie erwiesen und sei darauf bedacht gewesen, nichts zu veröffentlichen, was Schaden anrichten könnte. Jetzt, da Microsoft seine Suchmaschine Bing um einen Chatbot erweitert hat und damit in Googles Kerngeschäft eindringt, sei Google dabei die gleiche Technologie einzusetzen.

    Übrigens: Wenn Sie ChatGPT optimal nutzen möchten, sollten Sie darauf achten, wie sie Prompts für die KI formulieren. Die neueste Version - ChatGPT-4 - können Sie mit einem Trick kostenlos testen.

    Diskutieren Sie mit
    0 Kommentare
    Dieser Artikel kann nicht mehr kommentiert werden