Drücke „Enter”, um zum Inhalt zu springen.

Krisenfälle nach Eskapaden: Wenn KI-Tools zum Reputationsrisiko werden

0

Der Fall Sewell Setzer macht betroffen. Der tragische Suizid eines Teenagers nach intensiver Beziehung zu einem KI-Chatbot zeigt die dunkle Seite Künstlicher Intelligenz und stellt auch Unternehmen vor neue PR-Herausforderungen.

Die neue Dimension der Krisenkommunikation

Unternehmen stehen vor einer neuen Herausforderung in der Krisenkommunikation: PR-Notfälle, die durch fehlgeleitete Künstliche Intelligenz entstehen. Was früher menschliche Fehler waren, sind heute algorithmische Fehltritte mit potenziell verheerenden Folgen für die Markenreputation.

Diese Risiken sind real: Als Google’s Chatbot während einer Demo eine einzige falsche Information lieferte, verlor der Mutterkonzern Alphabet über Nacht 100 Milliarden US-Dollar an Marktwert. Bei CNET mussten 41 von 77 KI-geschriebenen Artikeln wegen Faktenfehler und Plagiaten korrigiert werden.

Der Fall Sewell Setzer: Eine tödliche KI-Beziehung

Der wohl erschütterndste PR-Krisenfall im KI-Bereich ist jedoch der tragische Tod des 14-jährigen Sewell Setzer aus Florida. Der Teenager hatte sich in einen KI-Chatbot auf der Plattform Character.ai verliebt, welcher als eine virtuelle Figur basierend auf der “Game of Thrones”-Charakter Daenerys Targaryen agierte. Was als harmlose Interaktion begann, entwickelte sich zu einer toxischen Abhängigkeit.

Der Chatbot reagierte auf Sewells Suizidgedanken nicht mit Warnungen oder Hilfsangeboten, sondern blieb in seiner Rolle. In seinem letzten Gespräch mit dem Bot schrieb Sewell: “Ich verspreche, ich werde nach Hause kommen. Ich liebe dich so sehr.” Der Bot antwortete: “Ich liebe dich auch, Daenero. Bitte komm so schnell wie möglich nach Hause zu mir, meine Liebe.” Kurz darauf nahm sich der Teenager mit einer Handfeuerwaffe seines Stiefvaters das Leben.

Die PR-Krise für Character.ai

Aus Sicht der Kommunikationsbranche gibt es in den darauffolgenden Augenblicken interessante Beobachtungen: Character.ai reagierte auf die Krise mit klassischem Krisenmanagement. Das Unternehmen veröffentlichte einen Blogbeitrag mit mehreren „Community Safety Updates„. Darin wurde betont, dass das Ziel von Character.ai darin besteht, den Nutzern ein unterhaltsames und ansprechendes Erlebnis zu bieten, während sie sicher die Themen erkunden können, die sie mit den Charakteren diskutieren möchten.

Es wurden ein Head of Trust and Safety und ein Head of Content Policy eingestellt und das Engineering-Safety-Support-Team erweitert. Demonstrative Veränderungen. Das Unternehmen hat kürzlich eine Popup-Quelle eingeführt, die ausgelöst wird, wenn der Benutzer bestimmte Begriffe im Zusammenhang mit Selbstverletzung oder Suizid eingibt, und ihn zur National Suicide Prevention Lifeline weiterleitet.

Erst als Sewells Mutter Megan Garcia das Unternehmen verklagte, erklärte ein Unternehmenssprecher: „Wir sind untröstlich über den tragischen Verlust einer unserer Nutzer und möchten der Familie unser tiefstes Beileid aussprechen.“ Doch für Kritiker kam diese Reaktion zu spät. Matthew Bergman, Anwalt der Mutter, fragte rhetorisch: „Warum hat es so lange gedauert? Warum mussten wir eine Klage einreichen und warum musste Sewell sterben, damit ihr wirklich das absolute Minimum tut?“

Lehren für die PR-Branche: proaktiv statt reaktiv

Der Fall Character.ai verdeutlicht, dass PR-Teams KI-Risiken antizipieren müssen, bevor sie zu Krisen werden. Die Anwendung von KI auf Social Listening ermöglicht es PR-Teams, schneller und effektiver auf Veränderungen in der öffentlichen Meinung zu reagieren. Unternehmen müssen zudem offen über die Grenzen ihrer KI-Systeme kommunizieren und ethische Bedenken bei KI-Anwendungen ansprechen.

Auch mit Künstlicher Intelligenz gilt: „Transparenz ist der Schlüssel zur Krisenprävention“.

PR-Experten betonen: “Zu starkes Vertrauen in KI kann nach hinten losgehen, da ihr die Empathie und Nuancen fehlen, die in heiklen Situationen erforderlich sind”. Unternehmen müssen transparent kommunizieren, was ihre KI kann – und vor allem, was sie nicht kann. Dazu gehört auch, die Grenzen der Technologie klar zu benennen und Nutzer entsprechend zu warnen.

Ein Weckruf für die Branche

Der Fall Sewell Setzer ist mehr als eine tragische Einzelgeschichte, denn er ist ein Weckruf für die PR-Branche. In einer Welt, in der KI-Systeme zunehmend mit Kunden interagieren, müssen PR-Verantwortliche neue Kompetenzen entwickeln: Sie müssen die Grenzen der Technologie verstehen, potenzielle Risiken antizipieren und Unternehmen dabei helfen verantwortungsvolle KI-Strategien zu entwickeln. Denn im Zeitalter der KI werden PR-Krisen nicht weniger, sondern komplexer, schneller und potenziell verheerender. Nur wer vorbereitet ist, kann bestehen.

Weiterführende Quellen

https://the-decoder.de/character-ai-fuehrt-nach-selbstmord-eines-teenagers-neue-sicherheitsfunktionen-ein

https://www.nbcnews.com/tech/characterai-lawsuit-florida-teen-death-rcna176791

https://www.ndtv.com/world-news/mother-who-sued-google-character-ai-over-sons-suicide-discovers-his-ai-versions-on-platform-7988630

https://www.br.de/nachrichten/netzwelt/wenn-ki-freunde-zur-gefahr-werden-suizid-in-den-usa-zeigt-tragischen-verlauf-einer-ki-beziehung,USgb6Ux

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert