Klage gegen OpenAI nach Suizid von US-Teenager
Die Firma räumte zugleich ein, dass die bisherigen Vorkehrungen, die unter anderem Nutzer zu einer Beratungs-Hotline verwiesen, bei längeren Unterhaltungen mit ChatGPT versagen können. Dann sei es möglich, dass die Software unerwünschte Antworten liefere. Man arbeite daran, dass die Schutzmaßnahmen auch bei längeren Unterhaltungen greifen, hieß es in einem Blogeintrag. Zudem werde erwogen, dass ChatGPT in Krisensituationen versuchen könnte, Kontakt zu von Nutzern eingetragenen Personen aufzunehmen.
Für Nutzer im Alter unter 18 Jahren soll es zusätzliche Sicherheitsmaßnahmen geben. OpenAI stellte etwa "stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten" in Aussicht. Eltern sollen sich besser darüber informieren können, wie ihre Kinder ChatGPT nutzen.
Bei Unterhaltungen mit ChatGPT, in denen Nutzer die Absicht bekunden, anderen zu schaden, greift OpenAI dem Blogeintrag zufolge bereits jetzt ein. Solche Unterhaltungen würden an ein spezielles Team weitergeleitet - und bei einer konkreten Bedrohungssituation würden auch Sicherheitsbehörden eingeschaltet. Der Familie des Teenagers drückte OpenAI "tiefste Sympathie" aus und teilte mit, man prüfe die Klage.
(S E R V I C E - Hilfsangebote für Personen mit Suizidgedanken und deren Angehörige bietet das Suizidpräventionsportal des Gesundheitsministeriums. Unter www.suizid-praevention.gv.at finden sich Kontaktdaten von Hilfseinrichtungen in Österreich. Infos für Jugendliche gibt es unter www.bittelebe.at)
Zusammenfassung
- Die Eltern eines 16-jährigen US-Teenagers haben OpenAI verklagt, weil sie ChatGPT vorwerfen, ihren Sohn beim Suizid unterstützt zu haben.
- OpenAI räumte ein, dass die bisherigen Schutzmaßnahmen, wie der Verweis auf Hotlines, bei längeren Gesprächen versagen können, und kündigte Verbesserungen sowie spezielle Sicherheitsvorkehrungen für unter 18-Jährige an.
- Bei Unterhaltungen mit Gewaltandrohungen gegen Dritte werden bereits jetzt Spezialteams und bei konkreter Gefahr auch Sicherheitsbehörden eingeschaltet.