Startseite
Icon Pfeil nach unten
Augsburg
Icon Pfeil nach unten

Forschungsprojekt an Augsburger Uni: Wie uns Roboter sympathischer werden

Augsburg

Forschung an der Uni Augsburg: Wie uns Roboter sympathischer werden

    • |
    • |
    • |
    Nachwuchswissenschaftlerin Johanna Kuch bei der Arbeit an "EchoSync": sie untersucht, welche Stimme Menschen im "Gespräch" mit einem humanoiden Roboter angenehm und sympathisch finden.
    Nachwuchswissenschaftlerin Johanna Kuch bei der Arbeit an "EchoSync": sie untersucht, welche Stimme Menschen im "Gespräch" mit einem humanoiden Roboter angenehm und sympathisch finden. Foto: Universität Augsburg/Emil Anwander

    Wie die Stimme eines humanoiden Roboters klingen sollte, um vom menschlichen Gegenüber als angenehm wahrgenommen zu werden, erforscht ein Projekt am Lehrstuhl für Menschzentrierte Künstliche Intelligenz der Universität Augsburg. Ziel ist es herauszufinden, ob eine personalisierte Roboterstimme – genauer: eine Stimme, die der Nutzerin oder dem Nutzer ähnelt – die wahrgenommene Sympathie gegenüber einem Roboter erhöht. Sie können lächeln, sprechen und uns helfen. Die Interaktion mit sogenannten sozialen Robotern wird für unsere Gesellschaft immer bedeutender. Humanoide, also menschenähnlich aussehende und sich verhaltende Roboter, könnten in Zukunft verstärkt als Assistenzsysteme oder in Bereichen wie Pflege oder Therapie eingesetzt werden. Neben dem äußeren Erscheinungsbild ist ihre Stimme ein wichtiger Faktor für die gelingende Kommunikation mit den Menschen. Am Lehrstuhl für Menschzentrierte Künstliche Intelligenz der Universität Augsburg untersuchen Forschende deshalb, wie verschiedene Stimmvarianten die Wahrnehmung humanoider Roboter beeinflussen.

    „Uns interessiert, ob ein humanoider Roboter, dessen Stimme der eigenen ähnelt, vom Gegenüber als besonders sympathisch wahrgenommen wird.“ Je angenehmer – wir sprechen von likable – der Roboter auf sein menschliches Gegenüber wirkt, desto besser ist das für die Interaktion zwischen Mensch und Roboter“, erklärt Johanna Kuch. Sie ist Doktorandin am Lehrstuhl für Menschzentrierte Künstliche Intelligenz von Prof. Dr. Elisabeth André und leitet das Projekt „EchoSync“.

    Wenn ein Roboter mit der eigenen Stimme spricht

    Für ihre Studie arbeitete sie mit einem gender-ambiguen Roboterkopf, der mit verschiedenen synthetischen Stimmen sprechen kann. Insgesamt 50 Personen führten mit dem Roboter je drei Gespräche, in denen jeweils eine andere Stimme zum Einsatz kam: eine auf das Aussehen des Roboters abgestimmte designkongruente Stimme, eine Stimme, die weder zur Testperson noch zum Roboter passt, sowie eine Stimme, die mithilfe von Voice Cloning auf Basis der eigenen Sprachprobe der Teilnehmenden erzeugt wurde. Diese personalisierte Stimme ahmte bestimmte stimmliche Merkmale wie Tonhöhe und Klangfarbe nach – ohne dass die Teilnehmenden vorher wussten, dass ihre Stimme geklont worden war. „Mit diesem Voice Cloning können wir Stimmen personalisieren und an die Eigenschaften des Gegenübers anpassen“, erklärt Kuch, „wir wollten herausfinden, ob individuell angepasste Stimmen als sympathischer empfunden werden.“

    In ihrer experimentellen Studie setzte Kuch einen sehr echt aussehenden humanoiden Roboterkopf ein. Der Kopf kann als weiblich oder männlich interpretiert werden. Durch 14 einzeln programmierbare pneumatische Antriebe können Mimik und Bewegungen präzise gesteuert werden: der Kopf zwinkert dem Gesprächspartner zu, hebt die Augenbrauen und lächelt. Die Probandinnen und Probanden führten je einen kurzen Dialog mit dem Roboter über die Planung eines Meetings. Nach jeder Interaktion bewerteten sie die Roboterstimme hinsichtlich Sympathie, Vertrautheit und Menschlichkeit.

    Was die ersten Ergebnisse des Robotertests verraten

    Die vorläufigen Ergebnisse zeigen, dass sowohl die designkongruenten Stimmen als auch die individuell geklonten Stimmen von den Teilnehmenden als sympathischer empfunden wurden als zufällig gewählte Stimmen – und das auch, obwohl die meisten Nutzerinnen und Nutzer ihre eigene Stimme nicht direkt erkennen“, sagt Johanna Kuch. „Damit könnte Voice Cloning eine vielversprechende Alternative zu aufwendig gestalteten Roboterstimmen sein – besonders in Eins-zu-eins-Interaktionen zwischen Mensch und Maschine.“ (AZ)

    Diskutieren Sie mit
    0 Kommentare

    Um kommentieren zu können, müssen Sie angemeldet sein.

    Registrieren sie sich

    Sie haben ein Konto? Hier anmelden