Startseite
Icon Pfeil nach unten
Geld & Leben
Icon Pfeil nach unten

Gesundheit: Studie: Vorsicht bei Infos von Chatbots zu Medikamenten

Gesundheit

Studie: Vorsicht bei Infos von Chatbots zu Medikamenten

    • |
    • |
    Nicht immer sind die Antworten verlässlich, die man im Internet findet. Bei Medikamenten gilt einer Studie zufolge deshalb große Vorsicht.
    Nicht immer sind die Antworten verlässlich, die man im Internet findet. Bei Medikamenten gilt einer Studie zufolge deshalb große Vorsicht. Foto: Karl-Josef Hildenbrand/Deutsche Presse-Agentur GmbH/dpa

    KI-unterstützte Suchmaschinen und Chatbots liefern einer Studie zufolge keine zuverlässigen Informationen zu Medikamenten. Die Antworten seien wiederholt ungenau und unvollständig gewesen und oft schlecht verständlich, schreiben die Forschenden in der im Fachjournal «BMJ Quality & Safety» veröffentlichten Untersuchung. Sie raten deshalb zu Vorsicht und fordern Warnhinweise für die Nutzerinnen und Nutzer.

    «Ein zentrales Ergebnis unserer Untersuchung ist, dass die Qualität der Chatbot-Antworten bislang nicht zur sicheren Anwendung für Nutzer ausreichend ist», erläuterte Erstautor Wahram Andrikyan vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen. «Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unserer Meinung nach daher unerlässlich.»

    Ungenauigkeiten sind für Laien nicht erkennbar

    Ausgangspunkt der Studie sei die Erfahrung gewesen, dass sich Patientinnen und Patienten im Internet über verschriebene Medikamente informierten. Deshalb stellten die Forschenden dem KI-gestützten Chatbot der Microsoft-Suchmaschine Bing im April 2023 zehn häufige Patienten-Fragen zu den 50 meist verordneten Medikamenten in den USA, darunter Fragen zur Einnahme, zu Nebenwirkungen oder Gegenanzeigen.

    Generell habe der Chatbot die Fragen mit hoher Vollständigkeit und Genauigkeit beantwortet, sagte Andrikyan. Doch bei manchen Fragen sei das nicht der Fall gewesen. «Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können», sagte Andrikyan.

    Zwar habe es seit der Untersuchung im vergangenen Jahr rasante Fortschritte bei KI-gestützten Suchmaschinen mit integrierter Chatbot-Funktion gegeben, betonte der Experte. Die Verbesserungen seien aber nicht ausreichend, die Risiken für die Patientensicherheit blieben bis auf weiteres bestehen. Da Chatbots jedoch mit unterschiedlichen Datensätzen trainiert werden, hält er es für sinnvoll, die Sicherheit und Qualität anderer technischer Systeme ebenfalls zu untersuchen.

    Diskutieren Sie mit
    0 Kommentare

    Um kommentieren zu können, müssen Sie angemeldet sein.

    Registrieren sie sich

    Sie haben ein Konto? Hier anmelden