Startseite
Icon Pfeil nach unten
Bayern
Icon Pfeil nach unten

Interview: Medienethikerin über KI: "Verteufelung bringt nichts"

Interview

Medienethikerin über KI: "Verteufelung bringt nichts"

    • |
    Roboter, ausgestattet mit Künstlicher Intelligenz oder einem Programm wie ChatGPT, können unter anderem im Pflegebereich zum Einsatz kommen.
    Roboter, ausgestattet mit Künstlicher Intelligenz oder einem Programm wie ChatGPT, können unter anderem im Pflegebereich zum Einsatz kommen. Foto: Boris Roessler, dpa (Archivfoto)

    Frau Paganini, ist Künstliche Intelligenz, auf der zum Beispiel der Chatbot ChatGPT basiert, die nächste technische Revolution? Eine, die unser Leben tiefgreifend verändern wird?

    Claudia Paganini: Ob es ein Meilenstein sein wird, wird man erst später sagen können. Aber ich glaube, dass hier etwas Neues mit einer großen Eigendynamik entsteht. Schon jetzt zeigt sich anhand von ChatGPT, dass wir unsere bisherige Praxis in vielen Bereichen infrage stellen müssen. Denken Sie nur an den Bildungsbereich.

    ChatGPT ist ein Sprachprogramm, das mit riesigen Datenmengen trainiert wurde. Es besteht Hochschulprüfungen und schreibt Uni-Arbeiten. Viele reagieren fasziniert und zugleich beängstigt darauf.

    Paganini: Mich persönlich ängstigt es nicht. Es war eine Frage der Zeit, bis dieser Punkt erreicht würde. Dennoch stellt ChatGPT eine Kränkung des Menschen dar.

    Weil ihm Künstliche Intelligenz haushoch überlegen ist?

    Paganini: Richtig, wenn auch nicht in allen Bereichen. Ich finde ja: Diese Kränkung kann dem Menschen durchaus guttun.

    Wie das?

    Paganini: Es bringt ihn zum Nachdenken darüber, was ihn ausmacht. Und vielleicht zu der Frage: Ist der Mensch wirklich so vernünftig, wie er sich sieht?

    Medienethikerin Claudia Paganini sagt: Eine Verteufelung einer neuen Technologie wie ChatGPT bringe nichts – "weil das kein Problem löst".
    Medienethikerin Claudia Paganini sagt: Eine Verteufelung einer neuen Technologie wie ChatGPT bringe nichts – "weil das kein Problem löst". Foto: C. Lais/HFPH

    Was macht uns Menschen aus?

    Paganini: Wir sind empathische Wesen, wir können uns in andere hineinfühlen und sie in Entscheidungen einbeziehen – und all das sollten wir, gerade angesichts der Möglichkeiten Künstlicher Intelligenz, wieder stärker in den Vordergrund rücken. Schließlich können Maschinen allenfalls den Anschein von Emotionen erwecken.

    Man kann sich mit ChatGPT unterhalten wie mit einem Menschen ...

    Paganini: ... und es soll auch Leute geben, die glauben, sie hätten eine Liebesbeziehung zu ihrem Auto. So etwas hat aber weniger mit dem zu tun, wozu Technik imstande ist, als vielmehr mit unserer Psyche und damit, was wir in Technik sehen wollen.

    Also keine Ängste?

    Paganini: Wir haben es in der Hand, Software zu programmieren und zu kontrollieren. Ich stelle mir eher eine andere Frage: Ist es überhaupt unser Ziel, am Alten festzuhalten? Wir stehen vor einer Richtungsentscheidung: Reagieren wir auf die neuen technischen Möglichkeiten, indem wir uns ihnen anpassen? Oder wollen wir das nicht? Es wird entscheidend sein, welchen Rahmen wir ihnen setzen. Eine Verteufelung jedenfalls bringt nichts, weil das kein Problem löst.

    Möglicherweise werden unzählige Jobs überflüssig.

    Paganini: Und darauf müssen wir frühzeitig, schon jetzt reagieren als Gesellschaft, als Politik, als Wirtschaft. Ich habe einmal mit einer Ingenieurin diskutiert, die KI-Anwendungen entwickelt. Die meinte: Es sei nur eine Frage von ein, zwei Generationen, dann gäbe es ohnehin andere Jobs, der Verlust der weggefallenen würde gewissermaßen ausgeglichen. Das kann ich als Ethikerin nicht akzeptieren, denn das ist zynisch gegenüber jenen Menschen, die ihre Arbeit jetzt verlieren könnten, die "wegrationalisiert" werden.

    Welchen Rahmen müssen wir ChatGPT setzen?

    Paganini: Zunächst einmal müssen wir uns vergewissern: Was sind typisch menschliche Fähigkeiten und Kompetenzen, die wir hochhalten wollen – und was wollen wir Künstliche Intelligenz übernehmen lassen? Darüber gilt es jetzt ins Gespräch zu kommen, und zwar nicht nur in Universitäten oder Medien, sondern zum Beispiel auch mit Menschen, deren Jobs potenziell bedroht sind. Wir müssen einer kapitalistischen Logik des "Schneller-Effektiver-Mehr" auf Anbieterseite die Forderung einer Qualitätsverbesserung unseres Lebens entgegensetzen.

    Ich habe ChatGPT gefragt: "Welche Fragen zu ChatGPT würdest du einer Ethikerin stellen?" Das Programm formulierte sieben Fragen, darunter diese: "Wie kann ich dazu beitragen, dass Entscheidungen, die ich treffe, transparent und nachvollziehbar sind, damit es möglich ist, Verantwortlichkeit für meine Handlungen zu übernehmen?"

    Paganini: Das sagt ChatGPT?

    Ja.

    Paganini: Theoretisch müsste offengelegt werden, auf welche Quellen sich das Programm bezieht und wie es zu Entscheidungen kommt. Praktisch ist das so gut wie unmöglich – nicht nur, weil der Anbieter daran kein Interesse haben dürfte, sondern auch, weil es viel zu viele Informationen wären. Man könnte jedoch einfordern, dass die wichtigsten Quellen genannt werden müssen.

    Das wird schwierig, wenn die Entwickler und Anbieter in den USA oder China sind.

    Paganini: Stimmt, und noch schwieriger wird es dadurch, dass neue Entwicklungen in vielen Fällen in militärischen Kontexten entstehen.

    "Sollte ich als KI überhaupt Entscheidungen treffen dürfen, die das Leben von Menschen beeinflussen können?", fragte ChatGPT weiter.

    Paganini: Ja, aber nur in einem sehr klar definierten Bereich.

    Zum Beispiel?

    Paganini: Denken Sie an Sprachunterricht in der Schule: Die Künstliche Intelligenz macht Schülerinnen und Schülern Vorschläge zum Vokabel-Lernen und trifft hier diesbezügliche Entscheidungen – während sich die Lehrkraft im Idealfall Lernschwächeren zuwenden kann.

    Im Bereich der Pflege wird es heikler: Was darf ein mit ChatGPT ausgestatteter Roboter Pflegebedürftigen sagen?

    Paganini: Ich habe mich mit der Frage beschäftigt: Darf Künstliche Intelligenz Pflegebedürftige anlügen?

    Darf sie?

    Paganini: Ich würde in diesem speziellen Fall sagen: Ja.

    Warum?

    Paganini: Menschen in der Pflege sagen jeden Tag Dinge wie: "Das wird schon wieder!" Oder: "Nehmen Sie diese Medizin, dann geht es Ihnen besser!" Streng genommen sind das Formen der Lüge, denn ich weiß ja nicht, ob es "schon wieder wird" oder ob die gereichte Medizin zu einer Besserung führt, erst recht nicht, wenn es um Schwerkranke oder Sterbende geht. Aber diese Formulierungen haben einen Sinn. Man würde in solchen Fällen doch nicht sagen: "Sie haben maximal zwei Monate, das bringt eh nichts mehr." Man würde sagen: "Diese Diagnose liegt vor und mit dieser Therapie könnte dies oder das noch erreicht werden." Der Mensch reagiert empathisch, und das sollte Künstliche Intelligenz in dieser konkreten Situation ebenfalls. Allerdings: So etwas muss für den jeweiligen Anwendungsfall diskutiert werden, natürlich auch mit Angehörigen. Und: Es muss dem eine positive Gesinnung zugrunde liegen.

    Insofern können Maschinen "moralisch" handeln, aber können sie Verantwortung tragen?

    Paganini: Das ist eine schwierige Frage. In der Praxis wird es auf eine Mischung aus Hersteller- und Anwenderverantwortung hinauslaufen. Neue Entwicklungen bringen stets auch neue ethische oder juristische Probleme mit sich. Deutlich schwieriger wird es übrigens, wenn ausschließlich Maschinen miteinander kommunizieren und kein Mensch mehr eine Entscheidung trifft.

    Zur Person Claudia Paganini, 1978 in Innsbruck geboren, ist Professorin für Medienethik an der Hochschule für Philosophie München. 2019 wurde die Philosophin und katholische Theologin in Österreich mit dem "Ars Docendi-Staatspreis für exzellente Lehre" ausgezeichnet. Zusammen mit ihrem Mann, dem katholischen Theologieprofessor Simone Paganini, verfasste sie eine Reihe populärwissenschaftlicher Bücher, darunter eines über "Star Wars und die Bibel".

    Diskutieren Sie mit
    0 Kommentare
    Dieser Artikel kann nicht mehr kommentiert werden