Wien | Gesundheit | Meinung | Chronik | Kultur | Umwelt | Wirtschaft | Politik | Panorama
WirtschaftInternationalFakten

Digitale Wut: Merkt sich die KI Wutausbrüche ihrer User?

Sie liefert wieder einmal nur Mist oder Fantastereien: Merkt es sich die KI, wenn User wütend werden und sie beschimpfen? Oder verzeiht sie alles?
Christina Torghele  •  19. März 2026 Volontärin    Sterne  36
Die Betreiber der großen Chatbots entwarnen, aber vor allem bei firmeninternen KI-Systemen sind Wutanfälle riskant. (Foto: Alex Green)
X / Twitter Facebook WhatsApp LinkedIn Kopieren

Es beginnt meist mit einer falschen Antwort. Auf Korrekturen reagiert die KI erst mit unterwürfigen Entschuldigungen, im nächsten Anlauf macht sie denselben Fehler wieder. Da verlieren viele Nutzer die digitale Selbstbeherrschung, beleidigen oder verspotten den Chatbot. Manche schrecken selbst vor Drohungen nicht zurück.

Das digitale Gedächtnis

Die KI ist kein Mensch, sie hat keine Gefühle. Trotzdem bleibt nach dem Wutausbruch ein schlechtes Gefühl: Hat das System die Aggression gerade als Verhaltensmuster gespeichert? Sollte sie die Wut aber in unserem Profil speichern, könnte das Jahre später, etwas wenn Kriminelle die Daten hacken, zum Problem werden.

Die Betreiber der Chatbots winken ab. Persönlichkeitsprofile seien kein Thema. ChatGPT, Siri oder Alexa sind demnach auf Deeskalation programmiert. Doch es gibt Grauzonen. Lernende Systeme speichern Beleidigungen sehr wohl ab. Angeblich aber nicht, um sich eines Tages zu rächen, sondern um das genutzte Vokabular besser zu erkennen.

Wobei es nicht immer um Deeskalation zu gehen scheint. Der Chatbot Microsoft Tay etwa hat durch Nutzer-Input gelernt, wie Aggros mit ihm sprechen. Jetzt produziert er selbst rassistische, sexistische und antisemitische Äußerungen. Landen Verhaltensweisen der User also doch in den Datenspeichern?

Experte mit vorsichtiger Entwarnung

Der Wiener KI-Unternehmer Clemens Wasner, CEO von EnliteAI, glaubt nicht, das KI-Systeme derzeit Persönlichkeitsprofile anlegen, zumindest keine „umfassenden“ und „detaillierten“, wie er sagt: „Das ist unwahrscheinlich.“ Sie würden nur sehr reduzierte Informationen über User speichern.

Ob das so bleibt, ist dabei fraglich. „Kontinuierliches Lernen und ein besseres Gedächtnis stehen ganz oben auf den Roadmaps der großen Anbieter“, sagt Wasner. „Parallel beginnen Chatbots wie ChatGPT Werbung zu integrieren. Diese Trends werden sich gegenseitig verstärken.“ Warum? „Je besser der Algorithmus seine Nutzer versteht, desto genauer kann er Werbung platzieren. Das erhöht den Wert dieser Werbeplätze.“ Aggros bekommen dann Entspannungsmassagen vorgeschlagen, oder Pfeffersprays, je nachdem.

Vorsicht bei firmeneigenen Chatbots

Theoretisch könnten Staaten oder Firmen aus den Verhaltensdaten eine Art „Gefährlichkeits-Ranking“ erstellen lassen. Wasner glaubt aber nicht, dass Chatbot-Betreiber ihre Verhaltensprofile mit anderen teilen würden. Gerade große Tech-Konzerne wollen Nutzerdaten möglichst exklusiv behalten. Außerdem würden sie hier die derzeit geltende Gesetze bremsen. In der EU verhindert die Datenschutzgrundverordnung (DSGVO) das Erstellen von Persönlichkeitsprofilen ohne triftigen Grund.

Vorsicht im Job

Im Arbeitsalltag ist allerdings Vorsicht geboten: Wer den internen Firmen-Chatbot des Arbeitgebers beschimpft, kann sich nicht auf diese Richtlinie berufen. Ein Verstoß gegen den in einem Unternehmen herrschenden Verhaltenskodex ist auch dann ein Verstoß, wenn das Angriffsziel ein KI-Chatbot ist. Außerdem können Unternehmen ganz legal firmeninterne Programme gezielt einsetzen, um Verhalten und Emotionen von Mitarbeitenden auszuwerten und daraus Vorteile zu ziehen.

„Wir sehen bereits Tools wie Sales-Assistants, die Gespräche automatisch protokollieren, To-Dos zusammenfassen und sogar die Stimmung in einem Call messen“, sagt Wasner. KI-Tools würde die Verhaltensweisen und die Privatsphäre der Mitarbeitenden künftig jedenfalls deutlich intensiver erfassen, glaubt Wasner. 

Dokumentierte Fälle, in denen User nach einem Wutanfall wegen dummer KI-Ergebnisse Konsequenzen zu tragen hatten, sei es bei öffentlichen oder internen Chatbots, gibt es allerdings noch nicht. Einziges Risiko: Sobald die geäußerte Wut in Hassrede, Gewaltandrohung oder Terrorpropaganda umschlägt, drohen Accountsperren.

Ewiges Gedächtnis

Die KI hat kein Bewusstsein, aber sie hat eine Datenbank. Als kleine Sicherheitsmaßnahme für alle Fälle können User zumindest bei größeren Anbietern das Speichern von Chats für Trainingszwecke deaktivieren. Wie viel das wirklich bringt, wissen nur die Betreiber. Höflichkeit gegenüber der KI ist deshalb mehr als eine Frage des guten Tons. Auch weil die Geschichte aller großen Innovationen zeigt: Was theoretisch passieren kann, passiert irgendwann auch.

Das Ressort Wirtschaft ist ermöglicht mit freundlicher Unterstützung durch SPAR Österreich.
SPAR Österreich

campus a-Preis für Nachwuchsjournalismus

Werde Teil der campus a-Redaktion!

Verfasse auch du einen Beitrag auf campus a.

Empfehlungen für dich

Kommentar
0/1000 Zeichen
Advertisement