Die Sozialpsychologinnen Nicole Krämer und Aike Horstmann forderten für das Experiment 85 Probanden auf, sich mit dem Roboter Nao zu beschäftigen und ihn am Ende der Sitzung abzuschalten. Bei 43 von ihnen bettelte der Roboter daraufhin: "Nein! Bitte knipse mich nicht aus! Ich habe Angst vor der Dunkelheit!" 13 Studienteilnehmer hätten Nao daraufhin angelassen, hieß es. Die übrigen 30 hätten doppelt so lange für die Abschaltung gebraucht wie die Vergleichsgruppe, bei der Nao nichts sagte.
Die meisten Probanden hätten angegeben, den Roboter nicht ausgeschaltet zu haben, weil sie nicht gegen seinen Willen handeln wollten, hieß es. Sechs Teilnehmer hatten Mitleid mit ihm. Andere gaben unter anderem an, von der Situation überrascht worden zu sein, neugierig auf das weitere Geschehen gewesen zu sein oder Angst gehabt zu haben, etwas falsch zu machen.
"Es hat also Folgen, wenn man Maschinen mit menschlichen Verhaltensweisen ausstattet", erklärte die Sozialpsychologin und Studienleiterin Nicole Krämer. Die Studie belege, dass Roboter zwar nicht bewusst als soziale Wesen wahrgenommen würden. "Wenn sie aber menschlich reagieren, kann man nicht anders, als sie menschenähnlich zu behandeln. Das liegt an unserem angeborenen sozialen Verhalten", erläuterte Krämer. Man müsse sich fragen, ob das ethisch wünschenswert sei.