Drücke „Enter”, um zum Inhalt zu springen.

Gamechanger oder Risiko? Was KI-Tools für die Krisenkommunikation bedeuten

0

Krisenkommunikation in der PR lebt von Schnelligkeit, Genauigkeit und Empathie. Diese Eigenschaften geraten im Zeitalter der Informationsflut durch die Digitalisierung zunehmend unter Druck. In kritischen Situationen, in denen jede Sekunde zählt, kann Künstliche Intelligenz (KI) große Datenbestände analysieren, Muster in der Stimmungslage der Öffentlichkeit erkennen und standardisierte Abläufe übernehmen. Doch inwieweit ist der Einsatz von KI-Tools sinnvoll und wo lauern womöglich Fallstricke? 

Was KI in der Krisenkommunikation leisten kann

Frühwarnsysteme und Monitoring

KI-gestützte Tools analysieren kontinuierlich Nachrichten, Social-Media-Beiträge und andere relevante Datenquellen. Sie erkennen subtile Muster, die auf eine aufkommende Krise hindeuten können, lange bevor menschliche Analysten sie wahrnehmen würden. 

In einem denkbaren Szenario könnte ein KI-System potenzielle Reputationsrisiken durch irreführende Gerüchte in sozialen Medien deutlich schneller erkennen als ein menschliches Kommunikationsteam. Eine solche frühzeitige Identifikation würde es ermöglichen, zeitnah mit einer proaktiven Kommunikationsstrategie zu reagieren um eine Eskalation der Situation abzuwenden.

Automatisierte Erstreaktion

In den ersten Minuten einer Krise ist es entscheidend, schnell zu reagieren, auch wenn noch nicht alle Fakten bekannt sind. KI-Systeme können basierend auf vordefinierten Szenarien und historischen Daten erste Stellungnahmen generieren. Dabei lassen sich beispielsweise Wahrscheinlichkeiten für mögliche Entwicklungen berechnen oder Prognosen aus vergleichbaren Krisen ableiten, etwa durch den Einsatz von Supervised Machine Learning, bei dem die KI aus bestehenden Beispielen lernt, Muster erkennt und passende Reaktionsvorschläge ableitet. 

Wichtig zu erwähnen ist allerdings, dass die KI die menschliche Expertise nicht ersetzt, sondern das Krisenteam unterstützt, indem ein solider Ausgangspunkt für die Kommunikation geliefert wird, der dann mit Hilfe von KI verfeinert werden kann, ohne dabei viel Zeit zu verlieren.

Sentiment-Analyse in Echtzeit

Tools wie beispielsweise Brandwatch oder Talkwalker können den öffentlichen Diskurs in Echtzeit analysieren und somit die Effektivität der Krisenkommunikation messen. Unternehmen erhalten dadurch die Möglichkeit, unmittelbar auf Stimmungsumschwünge zu reagieren, beispielsweise indem sie bestimmte Botschaften gezielter platzieren oder Kommunikationskanäle priorisieren, auf denen besonders viel Unzufriedenheit geäußert wird.

Auch hier lassen sich Trends erkennen, bevor sie sich zu handfesten Problemen entwickeln. Die Auswertung der Daten erfolgt in Sekundenbruchteilen und genau dieser Zeitvorteil kann in kritischen Situationen entscheidend sein.

Personalisierte Kommunikation

KI ermöglicht es, Krisenkommunikation auf verschiedene Stakeholder-Gruppen zuzuschneiden. Statt einer einheitlichen Botschaft können Kunden, Investoren und Regulierungsbehörden individuell angesprochen werden. In einer Krise gibt es nicht die eine richtige Botschaft für alle. KI kann dabei unterstützen, die richtigen Worte für die richtigen Menschen zur richtigen Zeit zu finden. 

Wo Künstliche Intelligenz an ihre Grenzen stößt

Mangelndes Vertrauen durch fehlende Transparenz

Eine Onlinebefragung aus dem Jahr 2024 („PR-Trendmonitor“ von News Aktuell und PER) zeigt, dass nur 4% der befragten PR-Profis auf KI im Krisenmanagement setzen. Als größte Sorge wurde die mangelnde Überprüfbarkeit angegeben. 

Generell sehen viele Kommunikatoren in KI-Tools eine Art „Black Box“: Die Entscheidungswege sind oft nicht nachvollziehbar. Die Quellen, auf denen Analysen oder Textvorschläge basieren, bleiben im Verborgenen. In sensiblen Situationen, in denen jedes Wort auf die Goldwaage gelegt wird, kann das zu erheblichen Unsicherheiten führen. Wenn nicht klar ist, wie ein bestimmter Textvorschlag zustande kommt oder warum ein bestimmtes Thema als kritisch eingestuft wird, fällt es schwer, darauf vertrauensvoll zu reagieren oder dies auch noch nach außen zu vertreten.

Abhängigkeit von Technologie

Wie bei jeder Technologie besteht beim Einsatz von KI das Risiko der Abhängigkeit. Fremd-Technologien können durch deren Betreiber abgeschaltet werden oder schlicht ausfallen. Wenn sich Unternehmen also zu stark auf KI verlassen, könnten sie die eigene Flexibilität und die Fähigkeit zur kreativen Problemlösung verlieren. 

Wenn man diesen Gedanken weiterführt, stellt sich eine noch grundsätzlichere Frage: Was passiert, wenn sich nicht nur Prozesse, sondern auch Denkstrukturen zu stark auf KI stützen? In einem zunehmend automatisierten Kommunikationsumfeld könnte langfristig die Fähigkeit zum eigenständigen, kritischen Denken ins Schwanken geraten.

Hinzu kommt, dass KI-Systeme Inhalte aus einer Vielzahl öffentlich zugänglicher Quellen aggregieren, ohne deren Wahrheitsgehalt unabhängig zu prüfen. KI-Tools arbeiten nicht mit überprüften Fakten, sondern mit Wahrscheinlichkeiten und Mustern, die sich aus den Trainingsdaten ableiten. Das erhöht das Risiko, dass sich Fehlinformationen oder verzerrte Darstellungen unbemerkt in Kommunikationsprozesse einschleichen. Wenn sich Menschen dann reflexartig auf die Ergebnisse verlassen, ohne selbst zu hinterfragen oder zu recherchieren, kann das die Qualität und Glaubwürdigkeit von Kommunikation nachhaltig beeinträchtigen. Gerade deshalb ist es entscheidend, dass der Mensch bewusst daran arbeitet, seine Eigenständigkeit zu bewahren um sich nicht in eine technologische Abhängigkeit zu begeben.

Datenschutz und ethische Bedenken

Der Schutz persönlicher Informationen muss auch in hektischen Situationen gewährleistet sein. Ein unkontrollierter Einsatz von KI könnte, wie bereits erwähnt, zur Verbreitung von Fehlinformationen führen. Deshalb sind klare ethische Leitlinien unverzichtbar: Transparenz, menschliche Kontrolle und Datenschutz müssen stets eine hohe Priorität erhalten. 

Es stellt sich eine grundsätzliche ethische Frage: Sobald KI-Tools anfangen, menschliches Verhalten zu analysieren und einzuordnen, wird der Schutz der Privatsphäre zu einem heiklen Thema. Je weniger transparent diese Systeme arbeiten, desto schwieriger ist es für Außenstehende zu erkennen, welche Daten verarbeitet werden, zu welchem Zweck und mit welchen Konsequenzen. Verantwortung bedeutet in diesem Fall nicht nur, Daten zu schützen, sondern auch, offen zu kommunizieren, wie technologische Entscheidungen zustande kommen und wer für diese Entscheidungen die Verantwortung trägt.

Eine altmodische Waage: in der linken Schale eine menschliche, in der rechten eine Robotersilhouette

KI als unterstützendes Werkzeug, nicht als Ersatz

Krisenkommunikation ist immer auch ein Wettlauf mit der Zeit. Entscheidungen müssen innerhalb von Minuten getroffen, Botschaften präzise formuliert und Kanäle zielgerichtet bespielt werden. Genau hier kann Künstliche Intelligenz als Werkzeug einen echten Unterschied machen.

Allerdings ist klar, dass KI nach wie vor fehleranfällig ist. Fairerweise möchte ich hier allerdings anmerken, dass auch menschliches Verhalten logischerweise nicht unfehlbar ist.
KI-generierte Vorschläge müssen eingeordnet, bewertet und, wo nötig, korrigiert werden. Das verlangt eine enge Abstimmung zwischen Mensch und Maschine. Nur wenn die technischen Systeme gut vorbereitet sind und das Krisenteam genau weiß, wie diese sinnvoll eingesetzt werden können, lässt sich das volle Potenzial nutzen, ohne Risiken einzugehen.

Am Ende bleibt es eine Frage der Balance: Technologie allein bewältigt keine Krise. Aber gemeinsam mit klugen, verantwortungsbewussten Menschen kann KI helfen, einen entscheidenden zeitlichen Vorsprung in der Krisenkommunikation zu gewinnen.

Über die Autorin

Pauline Browatzki ist Studentin im Studiengang B. Sc. Onlinekommunikation im 6. Fachsemester an der Hochschule Darmstadt.

Quellen und weiterführende Links

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert