Montag, 26.5.2025
Nach Suizid eines Teenagers: KI-Chatbot nicht durch Redefreiheit geschützt

Ein Teenager erschießt sich, nachdem ein Chatbot ihn aufgefordert hat, "so schnell wie möglich zu mir nach Hause zu kommen". Eine Bundesrichterin in den USA hat die Klage der Mutter gegen die Entwickler-Firma wegen widerrechtlicher Tötung jetzt zugelassen.

Mehr lesen