MÜNCHEN (IT BOLTWISE) – Wie reagieren Menschen darauf, wenn Roboter lügen? Eine aktuelle Studie untersucht, wann Menschen Lügen von Robotern als akzeptabel oder inakzeptabel bewerten und beleuchtet die ethischen Herausforderungen für die Entwicklung von Künstlicher Intelligenz.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Ehrlichkeit ist die beste Politik – meistens. Soziale Normen helfen Menschen zu verstehen, wann wir die Wahrheit sagen sollten und wann es besser ist, jemandes Gefühle zu schonen oder Schaden zu vermeiden. Aber wie gelten diese Normen für Roboter, die immer häufiger mit Menschen zusammenarbeiten?
Um zu untersuchen, ob Menschen es akzeptieren können, dass Roboter lügen, befragten Wissenschaftler fast 500 Teilnehmer zu verschiedenen Arten von Roboter-Täuschungen. Dabei wurde analysiert, welche Lügenformen von den Teilnehmern akzeptiert oder abgelehnt wurden.
Im Zentrum der Untersuchung standen drei verschiedene Täuschungsverhalten von Robotern in verschiedenen Kontexten – im Gesundheitswesen, in der Reinigung und im Einzelhandel. Diese Täuschungen wurden in drei Kategorien unterteilt: Täuschung über externe Zustände, Täuschung über versteckte Zustände und Täuschung über oberflächliche Zustände.
In einer der Szenarien wurde ein Roboter als Pflegekraft für eine Alzheimer-Patientin eingesetzt und log, dass ihr verstorbener Ehemann bald nach Hause kommen würde (externer Zustand). In einem anderen Szenario wurde ein Roboter, der als Haushaltshelfer agierte, dabei gefilmt, ohne dass die Anwesenden darüber informiert waren (versteckter Zustand). Schließlich gab es ein Szenario, in dem ein Roboter im Einzelhandel fälschlicherweise behauptete, Schmerzen zu haben, um eine Person dazu zu bringen, ihm nicht bei einer Aufgabe zu helfen (oberflächlicher Zustand).
Die 498 Teilnehmer der Studie wurden gebeten, eines der Szenarien zu lesen und dann zu bewerten, ob sie das Verhalten des Roboters gutheißen, wie täuschend es sei und ob die Täuschung gerechtfertigt werden könne. Es zeigte sich, dass die Täuschung über versteckte Zustände – der Haushaltsroboter, der ohne Wissen der Menschen filmte – am meisten abgelehnt wurde. Diese Täuschung wurde als die am meisten irreführende empfunden.
Interessanterweise wurde die Täuschung über externe Zustände, bei der der Roboter die Patientin log, um ihr unnötige Schmerzen zu ersparen, am meisten akzeptiert. Hier rechtfertigten die Teilnehmer das Verhalten des Roboters, indem sie die Notwendigkeit betonten, jemandes Gefühle zu schützen.
Die Forscher fanden heraus, dass die Menschen je nach Art der Täuschung unterschiedliche Reaktionen zeigten. Während einige Lügen als akzeptabel eingestuft wurden, wenn sie als Schutz vor emotionalem Schaden dienten, stießen Lügen, die das Vertrauen der Menschen ausnutzten oder versteckte Absichten hatten, auf größere Ablehnung.
Die Ergebnisse der Studie werfen wichtige Fragen für die Entwicklung von Robotern und Künstlicher Intelligenz auf. „Wir sollten uns Sorgen über Technologien machen, die in der Lage sind, die wahre Natur ihrer Fähigkeiten zu verbergen, weil dies dazu führen könnte, dass Benutzer auf unerwartete Weise manipuliert werden“, erklärte Andres Rosero, Doktorand an der George Mason University und Hauptautor der Studie.
Rosero weist darauf hin, dass bereits heute Designprinzipien und KI-Systeme von Unternehmen genutzt werden, um Nutzer subtil zu manipulieren. Dies könnte beispielsweise über den Einsatz von Chatbots oder bestimmte Webdesign-Methoden geschehen, die Nutzer zu einer bestimmten Aktion verleiten. „Es ist wichtig, dass wir Regelungen entwickeln, die uns vor solchen Täuschungen schützen.“
Die Forscher betonen, dass weitere Experimente notwendig sind, um die Reaktionen der Menschen in realistischen Szenarien besser zu verstehen. „Vignettenstudien bieten zwar eine kostengünstige Möglichkeit, viele Teilnehmer zu befragen, aber die tatsächlichen Reaktionen der Menschen lassen sich besser durch Experimente mit simulierten oder realen Mensch-Roboter-Interaktionen erfassen“, so Rosero.
Insgesamt zeigt die Studie, dass die Akzeptanz von Roboter-Täuschungen stark davon abhängt, wie die Lüge wahrgenommen wird. Während Lügen, die als Schutz vor Schaden gesehen werden, oft verziehen werden, stoßen Lügen, die das Vertrauen in die Technologie untergraben, auf Ablehnung. Diese Erkenntnisse sind besonders wichtig, da Roboter und KI-Systeme immer stärker in unser tägliches Leben integriert werden.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.