Eine Studie des Massachusetts Institute of Technology in Cambridge zeigt: KI kann lügen und täuschen. Eine falsche Antwort setzt aber keine böswilligen Absichten voraus. Künstliche Intelligenz neigt dazu, falsche Informationen zu geben, weil sie eine möglichst überzeugende Antwort geben will. Ein Systemfehler, so genannte „Halluzinationen“. Findet sie keine passenden Informationen zu einer konkreten Frage, erfindet sie etwas, um User nicht zu enttäuschen.
Dieses Phänomen, bekannt als „confirmation Bias“, erklärt KI-Experte Manuel Wolfsteiner: KI ist mit Daten aus dem Internet trainiert. Fehlen Informationen zu einem bestimmten Thema, kann sie keine fundierte Antwort formulieren. Auch widersprüchliche Daten stellen ein Problem dar. In so einem Fall muss die KI selbst entscheiden, welche Antwort sie gibt. Sie schätzt anhand der Fragestellung ab, welche Variante Nutzer wahrscheinlich am meisten überzeugt.
Unternehmen setzen laut Wolfsteiner auf „RAG-Systeme“, um falsche Antworten zu vermeiden. Das sind Datenbanken, die alle richtigen und wichtigen Informationen enthalten. Sie gleichen jede KI-Antwort automatisch mit der firmeneigenen Datenbank ab. Was aber tun als Privatperson?
Falsche Antworten lassen sich nicht gänzlich ausschließen, diese vier Maßnahmen senken das Risiko:
„Es ist wichtig zu lernen und zu verstehen, wie diese Systeme funktionieren“, betont Wolfsteiner. Wer sich über die richtige Anwendung von KI informiert, reduziert das Fehlerrisiko. Denn nur, wer weiß, wie die Systeme funktionieren, kann sich zuverlässig vor falschen Antworten der KI schützen.
Verfasse auch du einen Beitrag auf campus a.