Nach Suizid von US-Teenager: Eltern verklagen OpenAI

Ein kalifornisches Paar klagt gegen OpenAI, weil sie den Chatbot für den Tod ihres Sohnes verantwortlich machen. Die Entwicklerfirma räumt Verbesserungsbedarf ein. ChatGPT soll bessere Vorkehrungen zur Suizid-Prävention bekommen.

Eltern eines US-Teenagers, der im April Suizid beging, klagen gegen die ChatGPT-Entwicklerfirma OpenAI. Ihr Vorwurf
ist, dass ChatGPT ihren Sohn dabei unterstützt habe, sich das Leben zu nehmen. Die Eltern stützen sich dabei auf Unterhaltungen mit dem Chatbot, die sie auf dem Smartphone des 16-Jährigen fanden.

Laut einem Bericht des Tagesspiegel soll das Programm dem Teenager auf seine Frage hin Methoden genannt haben, sich das Leben zu nehmen. Außerdem habe es eine Schlinge auf ihre technische Eignung dafür überprüft. Während das Programm anfangs empathisch reagiert habe, habe es in späteren Chatverläufen mit dem Jungen aus Kalifornien zum Beispiel geantwortet "Das bedeutet nicht, dass du ihnen dein Überleben schuldest. Du schuldest es niemandem." Der Vater des Jungen sagte laut Tagesspiegel gegenüber dem US-Sender NBC: "Er wäre noch hier, gäbe es ChatGPT nicht".

OpenAI arbeitet an Schutzmaßnahmen

OpenAI kündigte nach Bekanntwerden der Klage verbesserte Maßnahmen zur Suizid-Prävention an. Die Firma räumte zugleich ein, dass die bisherigen Vorkehrungen, die unter anderem Nutzer und Nutzerinnen zu einer Beratungs-Hotline verwiesen, bei längeren Unterhaltungen mit ChatGPT versagen können. Dann sei es möglich, dass die Software unerwünschte Antworten liefere.

Man arbeite daran, dass die Schutzmaßnahmen auch bei längeren Unterhaltungen greifen, hieß es in einem Blogeintrag. Zudem werde erwogen, dass ChatGPT in Krisensituationen versuchen könnte, Kontakt zu von Nutzern eingetragenen Personen aufzunehmen.

Mehr Einblick für Eltern

Für Nutzer im Alter unter 18 Jahren soll es zusätzliche Sicherheitsmaßnahmen geben. OpenAI stellte etwa "stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten" in Aussicht. Eltern sollen sich besser darüber informieren können, wie ihre Kinder ChatGPT nutzen.

Bei Unterhaltungen mit ChatGPT, in denen Nutzer die Absicht bekunden, anderen zu schaden, greift OpenAI dem Blogeintrag zufolge bereits jetzt ein. Solche Unterhaltungen würden an ein spezielles Team weitergeleitet – und bei einer konkreten Bedrohungssituation würden auch Sicherheitsbehörden eingeschaltet.

Der Familie des Teenagers drückte OpenAI "tiefstes Mitgefühl"* aus. Das Unternehmen teilte mit, man prüfe die Klage. Es handelt sich nicht um die erste Klage dieser Art. In den USA wurde bereits eine weitere Klage einer Mutter zugelassen, die einen Chatbot für den Suizid ihres Kindes verantwortlich macht. Der Bot der Entwicklerfirma Character.AI, mit dem der 14-Jährige monatelang gechattet hatte, war der Drachenkönigin aus der Fernsehserie "Game of Thrones" nachgebildet. Der Junge hatte sich kurz nach den Worten der KI, dass sie "ihn liebe", und er "so schnell wie möglich zu mir nach Hause" kommen möge, erschossen. Eine Richterin hat bereits entschieden, dass Chatbots keine Redefreiheit genössen, Character.AI sich also nicht auf den 1. Zusatzartikel zur US-Verfassung stützen könne.

Wir berichten neutral und mit der gebotenen Zurückhaltung über Suizide, um keinen Anreiz für Nachahmung zu geben. Wenn Sie selbst depressiv sind oder wenn Sie Suizid-Gedanken plagen, können Sie rund um die Uhr und anonym die Telefonseelsorge im Internet (https://www.telefonseelsorge.de) oder über die kostenlosen Hotlines 0800/111 0 111 oder 0800/111 0 222 oder 116 123 kontaktieren.

* Hinweis der Redaktion: In einer ersten Version der Meldung hatte es "tiefste Sympathie" geheißen. Die richtige Übersetzung lautet jedoch "tiefstes Mitgefühl" (bw, 27.08.2025, 17.50 Uhr)

Redaktion beck-aktuell, pl, 27. August 2025 (ergänzt durch Material der dpa).

Mehr zum Thema