Technologie soll menschlicher werden. Mehr Realismus, mehr Menschenähnlichkeit sollten zu mehr Akzeptanz führen – so die Annahme der Designer. Doch Nutzer berichten von Unbehagen bei fast-realistischen Interfaces, von Ablehnung hochentwickelter Chatbots, von Vermeidung zu menschlich wirkender Avatare. Die Frage ist: Wann kippt zunehmender Realismus in Ablehnung, welche Faktoren bestimmen die kritische Schwelle – und welche Evidenz ist dazu bekannt?
Studien
Moris ursprüngliche Hypothese
Masahiro Mori formulierte 1970 die Uncanny-Valley-Hypothese zunächst als theoretisches Konzept, nicht als empirische Studie. Er arbeitete am Tokyo Institute of Technology an Robotik und beobachtete, dass industrielle Roboter neutral wahrgenommen wurden, während fast-menschliche Prothesen Unbehagen auslösten. Seine Kernthese: Sympathie steigt zunächst mit zunehmender Menschenähnlichkeit, fällt dann aber dramatisch in ein 'Tal' bei 95% Realismus, bevor sie bei 100% wieder steigt. Mori illustrierte dies mit Beispielen wie Prothesen, Leichen und Zombies. Das Verblüffende: Diese Theorie blieb über 30 Jahre weitgehend ungetestet, wurde aber zur dominanten Design-Regel in Robotik und Animation.
Empirische Validierung mit morphierten Gesichtern
Karl MacDorman führte 2009 an der Indiana University das erste systematische Experiment zum Uncanny Valley durch. 365 Versuchspersonen bewerteten 80 computergenerierte Gesichter auf einer Skala von 'sehr künstlich' bis 'sehr menschlich' sowie von 'sehr unheimlich' bis 'sehr beruhigend'. Die Gesichter waren morphierte Übergänge zwischen offensichtlich synthetischen und fotografisch realen Gesichtern. Das Ergebnis bestätigte Moris Kurve: Bei 70-85% Realismus sank die Sympathie dramatisch um durchschnittlich 2.3 Punkte auf einer 7-Punkte-Skala. Gleichzeitig stiegen die Bewertungen für 'unheimlich' um 1.8 Punkte. Das Tal war real und messbar, mit statistischer Signifikanz von p<0.001.
Uncanny Valley bei Chatbots und Voice Assistants
Maya Mathur und David Reichling untersuchten 2016 an der Stanford University, ob der Effekt auch bei nicht-visuellen Interfaces auftritt. 1267 Teilnehmer interagierten online mit Chatbots unterschiedlicher Sophistication: von offensichtlich skriptierten Bots über GPT-basierte Systeme bis zu verdeckten menschlichen Operatoren. Nach jeder 5-minütigen Konversation bewerteten sie Vertrauen, Unbehagen und Nutzungsabsicht. Das überraschende Ergebnis: Der Uncanny-Valley-Effekt trat auch ohne visuelle Komponente auf. Bots, die 'fast wie Menschen' wirkten, aber gelegentlich Fehler machten, wurden um 34% schlechter bewertet als solche, die klar als Bots erkennbar waren. Die kritische Zone lag bei 65-80% wahrgenommener Menschenähnlichkeit.
Prinzip
Welches Prinzip für Customer Experience Design lässt sich daraus ableiten? Das zentrale Prinzip lautet: Wähle bewusst stilisiert statt fast-realistisch und vermeide die kritische Zone vor der Perfektion. In der Customer Experience bedeutet dies, dass Avatare, Chatbots oder virtuelle Assistenten entweder klar als künstlich erkennbar sein sollten oder – falls technisch möglich – absolut perfekt menschlich wirken müssen. Der Uncanny-Valley-Effekt ist besonders relevant bei digitalen Touchpoints, wo Kunden mit virtuellen Repräsentanten interagieren, aber auch bei Produktdesign und Werbung mit CGI-Elementen. Das Prinzip funktioniert am besten, wenn Unternehmen die Erwartungen ihrer Zielgruppe klar verstehen und bewusst entscheiden, ob sie auf sympathische Künstlichkeit oder hochwertige Realitätsnähe setzen. Die folgenden Guidelines zeigen, wie sich dieses Prinzip konkret umsetzen lässt.
Guidelines
Bewusst stilisieren bei Avataren und Bots
Gestalte Chatbot-Avatare, Voice Assistants und digitale Assistenten bewusst nicht-realistisch. Nutze Cartoon-Ästhetik, reduzierte Formen oder abstrakte Visualisierungen. Signalisiere durch visuelle Sprache klar 'Ich bin ein Bot', statt zu versuchen, menschlich zu wirken. Das vermeidet die kritische Zone von 70-85% Realismus, in der Unbehagen am stärksten ist.
Fähigkeiten klar kommunizieren
Kommuniziere zu Beginn jeder Bot-Interaktion explizit, was der Bot kann und was nicht. 'Ich bin ein Bot und helfe bei X. Bei komplexen Fragen verbinde ich mit einem Menschen.' Diese Erwartungskalibrierung verhindert Enttäuschung, wenn der Bot nicht perfekt menschlich reagiert. Nutzer, die wissen, dass sie mit einem Bot sprechen, sind toleranter gegenüber Limitierungen.
Friktionslose Übergabe an Menschen ermöglichen
Biete jederzeit eine One-Click-Option zur Eskalation an einen menschlichen Mitarbeiter. 'Mit einem Menschen sprechen' sollte prominent und ohne Umwege erreichbar sein. Wenn der Bot an seine Grenzen kommt, proaktiv anbieten: 'Das übersteigt meine Möglichkeiten. Soll ich einen Kollegen dazuholen?' Das verhindert Frustration in der kritischen Zone, wo Nutzer merken, dass der Bot nicht perfekt ist.
KI-Einsatz offenlegen, nicht verschleiern
Kennzeichne KI-generierte Inhalte, automatisierte Antworten oder Bot-Interaktionen transparent. Ein kleines Badge 'Automatisch generiert' oder 'Bot-Antwort' schafft Klarheit. Versuche nicht, KI als menschlich auszugeben – die Enttarnung erzeugt Vertrauensbruch und Unbehagen. Transparenz baut Vertrauen auf und setzt realistische Erwartungen.
Mori, M. (1970). Bukimi no tani [The Uncanny Valley]. Energy, 7(4), 33-35
MacDorman, K. F., Green, R. D., Ho, C.-C. & Koch, C. T. (2009). Too real for comfort? Uncanny responses to computer generated faces. Computers in Human Behavior, 25(3), 695-710
Mathur, M. B. & Reichling, D. B. (2016). Navigating a social world: Toward an integrated framework for evaluating cues to deception and deception detection relevant to practitioners. Psychology, Public Policy, and Law, 22(1), 88-112