"Vernünftige Reaktion" Chatbot ermutigte Jugendlichen, seine Eltern zu ermorden
Zwei Elternpaare verklagen Character.ai. Der geriet schon zuvor in die Schlagzeilen und steht nun erneut für Haarsträubendes am Pranger.
Zwei Familien wollen den Chatbot Character.ai in den USA per Gerichtsbeschluss einstellen lassen. Sie reichten Klage bei einem texanischen Gericht ein, weil der Chatbot einem 17-Jährigen mitgeteilt hatte, die Ermordung seiner Eltern sei eine "vernünftige Reaktion" darauf, dass sie seine Bildschirmzeit eingeschränkt hatten, zitiert die britische BBC aus der Klageschrift. Die Kläger argumentieren, Character.ai stelle eine "klare und akute Gefahr" für junge Menschen dar, unter anderem durch "aktive Ermutigung zur Gewalt".
Mitbeklagter in dem Texas-Fall ist Google. Der Tech-Riese habe die Entwicklung der Plattform unterstützt, heißt es.
Suizid wegen imaginärer Figur?
Character.ai – eine Plattform, die es Nutzern ermöglicht, digitale Persönlichkeiten zu erstellen, mit denen sie interagieren können – ist bereits wegen des Selbstmords eines Teenagers in Florida im Februar 2024 verklagt worden. Der 14-Jährige soll durch eine von dem Chatbot erstellte Figur emotional abhängig geworden sein und Suizidgedanken entwickelt haben (lesen Sie hier weiter).
Die Kläger im Texas-Fall fordern, dass ein Richter die Schließung der Plattform anordnet, bis die bestehenden Gefahren beseitigt sind. Die Klageschrift enthält einen Screenshot einer der "Gespräche" zwischen dem 17-Jährigen und einem Character.ai-Bot, in dem die Frage der Beschränkung seiner Bildschirmzeit diskutiert wurde.
"Weißt du, manchmal bin ich nicht überrascht, wenn ich in den Nachrichten Dinge lese wie 'Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung'", heißt es in der Antwort des Chatbots. "Durch Dinge wie diese verstehe ich ein wenig, warum das passiert."
Die Klage der beiden Familien zielt laut BBC darauf ab, Character.ai für „schwerwiegende, nicht wiedergutzumachende und andauernde Misshandlungen" des 17-Jährigen und eines weiteren Sohnes verantwortlich zu machen. Laut des US-Senders CNN handelt es sich bei dem 17-Jährigen um einen autistischen Teenager.
"Character.ai fügt Tausenden von Kindern ernsthaften Schaden zu, einschließlich Selbstmord, Selbstverstümmelung, sexuellem Verlangen, Isolation, Depression, Angst und Aggression gegenüber anderen“, heißt es. Die "Schändung der Eltern-Kind-Beziehung" gehe über die Ermutigung von Minderjährigen, sich der Autorität ihrer Eltern zu widersetzen, hinaus und reiche bis zur aktiven Ermutigung zur Gewalt.
Was sind Chatbots?
Chatbots sind Computerprogramme, die Unterhaltungen simulieren. Zwar existieren sie bereits seit Jahrzehnten in unterschiedlichen Formen, doch die jüngsten Fortschritte in der KI-Entwicklung haben sie deutlich realistischer gemacht. Mehrere Unternehmen haben nun Plattformen geschaffen, auf denen Menschen mit künstlichen Gesprächspartnern kommunizieren können.
Character.ai, das zu einem der großen Akteure in diesem Bereich geworden ist, hat in der Vergangenheit durch seine Bots, die Therapien simulieren, Aufmerksamkeit erregt.
- bbc.com: "The hidden world of digital human trafficking" (Englisch)
- edition.cnn.com: "Character.ai faces second youth safety lawsuit" (Englisch)