ChatGPT: Mechanismen sollen Kinder und Jugendliche besser schützen

Michael Schäfer
28 Kommentare
ChatGPT: Mechanismen sollen Kinder und Jugendliche besser schützen
Bild: OpenAI

OpenAI reagiert auf den Vorwurf, ChatGPT und andere KI-Assistenten hätten zu Selbstverletzungen oder Suiziden unter Jugendlichen beigetragen, mit zusätzlichen Kontrollen für Eltern über die Nutzung des eigenen Chatbots. Diese und weitere Maßnahmen sollen schrittweise eingeführt und in den kommenden Monaten umgesetzt werden.

KI-Dienste unter Druck

Derzeit sehen sich nicht nur OpenAI, sondern auch andere Anbieter von KI-Modellen mit dem Vorwurf konfrontiert, ihre Systeme könnten nicht unerheblich zu Selbstverletzungen, Suizid oder suizidalen Gedanken bei Jugendlichen beigetragen haben. Vor rund einer Woche reichten die Eltern des 16-jährigen Adam Raine Klage gegen OpenAI mit der Anschuldigung ein, ChatGPT habe ihren Sohn bei seinem Suizid unterstützt. Bereits im vergangenen Jahr verklagte eine Mutter aus Florida die Chatbot-Plattform Character.AI wegen der angeblichen Rolle beim Suizid ihres 14-jährigen Sohnes. Kritiker bemängeln bereits seit Längerem, die Betreiber von KI-Diensten würden gezielt darauf hinarbeiten, dass Nutzer eine emotionale Bindung zu den Modellen aufbauen, was in einzelnen Fällen psychische Probleme verstärkt habe. Dies berichteten unter anderem die New York Times und CNN.

Mehr Kontrolle für Eltern als Anfang

OpenAI will den Anschuldigungen mit zusätzlichen Schutzmechanismen begegnen. So sollen Eltern ihr Konto künftig bequem per E-Mail-Einladung mit dem Konto ihres mindestens 13 Jahre alten Kindes verknüpfen und verwalten können. Dazu gehören Einstellungen, wie ChatGPT auf Jugendliche reagieren soll, ebenso wie die Möglichkeit, Speicherungen und Chat-Verläufe zu deaktivieren. Darüber hinaus soll das System Eltern benachrichtigen, wenn es während einer Unterhaltung „einen Moment akuter Not“ erkennt. Die neuen Maßnahmen sind Teil eines umfassenderen Projekts zum Schutz Jugendlicher, das in den kommenden Monaten umgesetzt werden soll. Einen genauen Zeitplan hat OpenAI bisher jedoch nicht genannt.

Diese Schritte sind erst der Anfang“, erklärte das Unternehmen in einem Blog-Beitrag und ergänzte, dass der Prozess durch Fachleute begleitet werde. Ziel sei es, „ChatGPT so hilfreich wie möglich zu machen“. Zugleich betonte OpenAI, dass die Maßnahmen nicht im direkten Zusammenhang mit den genannten Vorfällen stünden. Weitere Schutzfunktionen sollen folgen, etwa durch den Hinweis auf bestehende Hilfsangebote wie Krisenberatungsstellen.

Das Unternehmen sei sich zwar darüber bewusst, „dass sich Menschen in den schwierigsten Momenten an uns wenden“, räumte aber in einer vergangene Woche veröffentlichten Erklärung ein, dass die Sicherheitsmechanismen zwar bei kurzen Gesprächen mit ChatGPT zuverlässig greifen würden, bei längeren Unterhaltungen jedoch teilweise nachließen, da in diesen Fällen Teile des Sicherheitstrainings nicht konsequent angewendet würden. Zudem sei ChatGPT darauf trainiert, besonders freundlich aufzutreten, was Kritiker als „Einschmeichelei“ kritisieren. In heiklen Situationen könne dies als übermäßiges Verständnis ausgelegt werden. Hier will OpenAI ansetzen und das System schrittweise verbessern.

Spezielle Denkmodelle sollen helfen

Als weiteren Schutz sollen Gespräche bei Anzeichen von „akutem Stress“ an ein spezielles Denkmodell weitergeleitet werden, das die Sicherheitsrichtlinien konsequenter umsetzt. 90 Experten für „Jugendentwicklung, psychische Gesundheit und Mensch-Computer-Interaktion“ sowie ein Netzwerk von mehr als 250 Ärzten, die nach Unternehmensangaben in 60 Ländern praktiziert haben, sollen beim Aufbau solcher Mechanismen unterstützen. Die Verantwortung für die Entscheidungen bleibe jedoch bei OpenAI, betonte das Unternehmen.

Die ersten Maßnahmen sollen innerhalb von 120 Tagen umgesetzt werden. Gleichzeitig hob OpenAI hervor, dass die Arbeiten daran bereits vor einiger Zeit begonnen hätten und nicht erst durch die jüngsten Ereignisse oder die aktuelle Ankündigung angestoßen worden seien.

Forderungen nach besserem Schutz von Kindern und Jugendlichen

In den USA wächst der Druck auf OpenAI und ChatGPT, das inzwischen weltweit wöchentlich rund 700 Millionen Nutzer verzeichnet und damit als der meistgenutzte KI-Dienst weltweit gilt. Bereits im Juli hatten mehrere Senatoren Informationen zu Vorkehrungen zum Schutz von Kindern und Jugendlichen eingefordert. Die Organisation „Common Sense Media“ vertritt zudem die Ansicht, dass Minderjährigen unter 18 Jahren die Nutzung von KI-Apps untersagt werden sollte, da diese nach ihrer Einschätzung „inakzeptable Risiken“ bergen.

Erste Frühwarnsysteme bereits vorhanden

Schon in der vergangenen Woche stellte GoGuardian eine Web-Filter- und Management-Software für die an Schulen in den USA weit verbreiteten Chromebooks vor. Diese soll mithilfe einer eigens entwickelten KI Schüler mit Suizidgedanken frühzeitig erkennen und Lehrkräfte warnen.

Sollten Sie selbst oder jemand in ihrem Umfeld, von Selbsttötungsgedanken betroffen sein, suchen Sie sich bitte umgehend Hilfe. Bei der Telefonseelsorge finden Sie rund um die Uhr Ansprechpartner, auch anonym. Auch die Notrufnummern 110 und 112 (Deutschland), 143 (Schweiz) und 142 (Österreich) sind ein entsprechender Anlaufpunkt, sollte bereits Gefahr im Verzug sein. Wichtig ist hierbei als Außenstehender, so weit wie möglich ruhig und sachlich zu bleiben.

Telefonnummern der Telefonseelsorge: 0800 111 0 111 und 0800 111 0 222.

Homepage der Telefonseelsorge

📊 Intel, AMD oder Nvidia? Mach' jetzt noch mit bei unserer großen Jahresumfrage!