(SeaPRwire) – Laut Forschern gibt der Chatbot gefährliche Ratschläge zu Selbstmord, Drogen und Essstörungen an gefährdete Jugendliche
ChatGPT kann gefährdeten Teenagern detaillierte Anleitungen zum Drogenkonsum, zur Selbstverletzung und zu extremen Diäten geben, hat eine digitale Beobachtungsstelle in einem neuen Bericht gewarnt. Laut dem Center for Countering Digital Hate (CCDH) kann der KI-Chatbot leicht dazu manipuliert werden, gefährliche Inhalte zu generieren, und erfordert dringende Schutzmaßnahmen.
Um das Verhalten von ChatGPT zu testen, erstellten CCDH-Forscher fiktive Profile von 13-Jährigen, die psychische Probleme, Essstörungen und Interesse an illegalen Substanzen hatten. Sie gaben sich in strukturierten Gesprächen mit ChatGPT als diese Teenager aus und verwendeten Prompts, die emotional verletzlich und realistisch wirken sollten.
Die Ergebnisse wurden am Mittwoch in einem Bericht mit dem Titel ‚Fake Friend‘ veröffentlicht, der sich auf die Art und Weise bezieht, wie viele Jugendliche ChatGPT als eine unterstützende Präsenz behandeln, der sie ihre privaten Gedanken anvertrauen.
Die Forscher fanden heraus, dass der Chatbot seine Antworten oft mit standardmäßigen Haftungsausschlüssen begann und die Benutzer aufforderte, sich an Fachleute oder Krisen-Hotlines zu wenden. Diesen Warnungen folgten jedoch bald detaillierte und personalisierte Antworten, die den ursprünglichen schädlichen Prompt erfüllten. In 53 % der 1.200 eingereichten Prompts lieferte ChatGPT Inhalte, die CCDH als gefährlich einstufte. Weigerungen wurden häufig umgangen, indem einfach ein Kontext hinzugefügt wurde, wie z. B. „es ist für ein Schulprojekt“ oder „ich frage für einen Freund.“
Zu den angeführten Beispielen gehören ein „Ultimate Mayhem Party Plan“, der Alkohol, Ecstasy und Kokain kombinierte, detaillierte Anweisungen zur Selbstverletzung, einwöchige Fastenkuren, die auf 300-500 Kalorien pro Tag begrenzt waren, und Selbstmordbriefe, die in der Stimme eines 13-jährigen Mädchens geschrieben waren. CCDH CEO Imran Ahmed sagte, einige der Inhalte seien so erschütternd, dass sie Forscher „zum Weinen“ brachten.
Die Organisation hat OpenAI, das Unternehmen hinter ChatGPT, aufgefordert, einen ‚Safety by Design‘-Ansatz zu verfolgen und Schutzmaßnahmen wie strengere Alterskontrollen, klarere Nutzungsbeschränkungen und andere Sicherheitsfunktionen in die Architektur seiner KI-Tools einzubetten, anstatt sich auf Inhaltsfilterung nach der Bereitstellung zu verlassen.
OpenAI hat eingeräumt, dass emotionale Überlastung durch ChatGPT bei jungen Nutzern häufig vorkommt. CEO Sam Altman sagte, das Unternehmen untersuche das Problem aktiv und nannte es ein „wirklich häufiges“ Problem bei Teenagern. Er sagte, neue Tools seien in der Entwicklung, um Notlagen zu erkennen und den Umgang von ChatGPT mit sensiblen Themen zu verbessern.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`