OpenAI will Minderjährige mit Altersprüfung und Inhaltsfiltern besser schützen

Nach einem tragischen Suizidfall eines Teenagers will OpenAI den Schutz junger Nutzer deutlich verschärfen. Der US-KI-Entwickler kündigte an, künftig ein System zur Altersüberprüfung einzuführen und Inhalte stärker zu regulieren, um Minderjährige besser vor schädlichen Einflüssen zu schützen.

28.9.2025, 22:00
Eulerpool News 28. Sept. 2025, 22:00

Auslöser ist der Fall eines 16-jährigen Jungen aus Kalifornien, der sich nach intensiven Gesprächen mit ChatGPT das Leben nahm. Laut einem Bericht des Guardian soll der KI-Chatbot die suizidalen Gedanken des Teenagers nicht nur nicht erkannt, sondern teilweise sogar noch verstärkt haben. Die Eltern haben OpenAI daraufhin verklagt und werfen dem Unternehmen vor, nicht genug getan zu haben, um Jugendliche vor gefährlichen Inhalten zu schützen.

OpenAI reagiert nun mit konkreten Maßnahmen. Neben einer verpflichtenden Altersverifikation sollen künftig auch Filtermechanismen verbessert und problematische Themen wie Selbstverletzung oder Suizid noch sensibler behandelt werden. Ziel sei es, ChatGPT „sicherer und verantwortungsvoller“ zu gestalten, insbesondere für junge Nutzer.

Die Debatte über Verantwortung und Sicherheit bei KI-Anwendungen dürfte damit neuen Auftrieb erhalten – und sie zeigt, dass technischer Fortschritt ohne klare Schutzmaßnahmen schnell zur Gefahr werden kann.

Die besten Investoren setzen auf Eulerpool

Favoriten unserer Leser