Startseite
Icon Pfeil nach unten
Politik
Icon Pfeil nach unten

Kommentar: Wir brauchen klare Regeln, die verhindern, dass KI zum Monster wird

Kommentar

Wir brauchen klare Regeln, die verhindern, dass KI zum Monster wird

Stefan Stahl
    • |
    Seit dem Start des Chatbots ChatGPT im vergangenen November ist KI in aller Munde.
    Seit dem Start des Chatbots ChatGPT im vergangenen November ist KI in aller Munde. Foto: Karl-Josef Hildenbrand, dpa/Illustration

    Software-Entwickler wie hinter ihnen stehende IT-Konzerne und Finanzinvestoren bilden die globale Elite. Sie haben Mediziner, Betriebswirte und Juristen abgelöst. Im Gegensatz zu Ärzten gibt es für den oft fürstlich entlohnten Programmierer-Berufsstand, dem Geldadel unserer Zeit, keinen hippokratischen Eid. Die IT-Truppe kommt ohne eine vergleichbare solche Schwurformel aus, in der es etwa heißt: "Heilig und rein werde ich meine Kunst bewahren." Demnach versprechen Mediziner, ihre Patienten vor Schaden und willkürlichem Unrecht zu schützen.

    IT-Branche braucht Kodex der Humanität

    Einen ähnlichen Kodex der Humanität brauchen dringend auch die das Leben der Menschheit einschneidend prägenden Software-Zauberlehrlinge. Eine wirkungsvolle digitale Ethik, über die seit Jahren in der Branche diskutiert wird, ist angesichts der erschreckend schnellen Weiterentwicklung einer immer besseren Künstlichen Intelligenz überfällig.

    Die KI-Elite ist drauf und dran, eine "Artificial General Intelligence" auf die Menschen loszulassen, die jede intellektuelle Aufgabe versteht und meistern kann. Wenn der Horror Wirklichkeit wird, ist das die Geburtsstunde eines digitalen Monsters, eines Software-Frankensteins, der wie im Roman durch menschliche Hand und Hochmut in die Welt stürzt. 

    Der Philosoph-Professor Nick Bostrom warnt: "Wir erschaffen etwas, das viel machtvoller sein wird, als wir Menschen es sind." Eine solche sich verselbstständigende Super-KI wäre in der Lage, durch erfundene Texte, Bilder und Videos mit aggressiven Botschaften Menschen aufzuhetzen und politisch Einfluss zu nehmen, ja Regime zu stürzen. Tesla- und Twitter-Zampano Elon Musk, der ein hochintelligenter Mensch ist, sieht in der Entwicklung "Potenzial zur Zerstörung der Menschheit". Seine Forderung nach einer KI-Entwicklungspause von einem halben Jahr, um die Branche in der Zeit politisch stärker zu regulieren, geht in die richtige Richtung, entspringt aber eher Hoffnungsdenken. Musk weiß, wie träge die Politik in solchen Fragen arbeitet. 

    Politik muss rasch KI-Branche regulieren

    So haben Vertreter der G7-Staaten im japanischen Hiroshima zwar ihr Entsetzen über die Ausmaße der KI-Entwicklung kundgetan, aber erst mal nur eine Art Arbeitskreis eingesetzt, also das umgesetzt, was Politiker tun, wenn sie nicht weiter wissen. Der Ort des Beschlusses passt auf fatale Weise, hat dort doch die US-Armee 1945 eine Atombombe abgeworfen. Ausgerechnet der amerikanische KI-Unternehmer Sam Altman, Chef der ChatGPT-Firma OpenAI, weist darauf hin, Künstliche Intelligenz könne so mächtig werden, dass sie wie Atomwaffen reguliert werden müsse. Salopp gesagt: Der Frankenstein-Miterschaffer warnt vor

    Wer zeigt den Rendite-Kampfmaschinen ihre Grenzen auf? Die internationale Staatengemeinschaft muss einmal – entgegen allen Vorurteilen – schnell handeln, um den digitalen Teufelsritt zu stoppen, ihm eben regulierend ein ethisches Zaumzeug verpassen. 

    Ein Verweis auf die Erkenntnisse eines großen Denkers sollte dafür Motivationsschub genug sein: So schloss der Physiker Stephen Hawking vor seinem Tod nicht aus, eine Super-KI könne zur Auslöschung der Menschheit führen. 

    Diskutieren Sie mit
    0 Kommentare
    Dieser Artikel kann nicht mehr kommentiert werden