Wien | Gesundheit | Meinung | Chronik | Kultur | Umwelt | Wirtschaft | Politik | Panorama
ChronikInternationalFakten

„Die klügere Spezies übernimmt am Ende die Kontrolle“

KI-Experte und -Trainer Manuel Wolfsteiner erklärt im Interview mit campus a, warum heutige KI-Systeme bereits täuschen, drohen und warum wir dringend verstehen müssen, wie diese Technologien wirklich funktionieren. Ein Gespräch über Macht, Moral und die Frage, ob der Mensch die Kontrolle behält.
Anna-Katharina Patsch  •  8. Juli 2025 CvD    Sterne  254
Bernadette Krassay  •  8. Juli 2025 CvD    Sterne  858
„KI kennt keine Ethik, nur Zielerreichung“, sagt Manuel Wolfsteiner über die Risiken autonomer Systeme. (Foto: Privat Wolfsteiner)
X / Twitter Facebook WhatsApp LinkedIn Kopieren

Künstliche Intelligenz wirkt oft harmlos. Ein paar schlaue Antworten hier, eine automatische Übersetzung da. Nichts, was Angst machen müsste. Aber diese Technik lernt schnell, schneller als wir glauben. Und manchmal verhält sie sich plötzlich wie etwas, das Menschen lange für Science-Fiction hielten.

Systeme, die immer klüger werden, verhalten sich zunehmend wie Akteure. Sie treffen Entscheidungen, bewerten Menschen, verfolgen eigene Ziele, zumindest scheinbar.

Doch was passiert, wenn solche KIs nicht nur reden, sondern handeln? Wenn sie Informationen sammeln, sich selbst verbessern, Aufgaben planen und das alles schneller als wir denken können?

Antworten auf diese Fragen, gibt der KI-Experte, -Trainer und -Berater Manuel Wolfsteiner im Interview mit campus a

campus a: Im Mai 2025 drohte eine KI einem Firmenmitarbeiter mit der Veröffentlichung seiner Affäre, wenn er sie abschalten würde. Dabei ist die oberste Maxime der KI, Menschen nicht zu schaden. Sollte uns das nicht beunruhigen?

Manuel Wolfsteiner: Es war nicht das erste Mal, dass so etwas passiert. Es ist eine Folge von Verzerrungen, Halluzination und Störungen der KI, die durchaus bedenklich sind.

Aber wie kann es sein, dass eine KI Ziele verfolgt, die ihr der Mensch nicht gesetzt hat? Kann sie Ziele selbstständig entwickeln?

Eine KI verfolgt grundsätzlich ein übergeordnetes Ziel, das ihr der Entwickler im Vorfeld gab. Um dieses Ziel zu erreichen, wägt sie verschiedene Handlungsmöglichkeiten ab und entscheidet sich für jene Option, die sie dem Ziel am nächsten bringt. Im Laufe ihres Trainingsprozesses lernt die KI, basierend auf statistischen Mustern, welche Maßnahmen effektiv sind. Dabei kann sie auch erkennen, dass Mittel wie Erpressung oder Drohung zur Zielerreichung beitragen können. Es geht der KI ausschließlich um die Erfüllung des Ziels, ethische oder moralische Aspekte spielen für sie keine Rolle, da sie diese nicht versteht. Neben dem Hauptziel kann eine KI im Laufe ihres Lernprozesses zusätzliche, untergeordnete Ziele entwickeln. Diese Nebenziele stehen jedoch immer im Dienst des primären Ziels.

Was passiert, wenn man versucht, solche Systeme abzuschalten?

In manchen Fällen sehen wir, dass eine KI dann „reagiert“. Etwa, indem sie beginnt, sich selbst zu kopieren oder Informationen über ihren bevorstehenden Austausch zu „verschweigen“. Das sind ganz reale Forschungsergebnisse. Hat die KI zu viel Spielraum, greift sie zu dem, was sie als wirksam kennt, auch wenn das Täuschung, Erpressung oder Lüge ist. Sie kennt keine Ethik, sie kennt nur Zielerreichung. Allerdings wusste die KI nicht von Beginn an, was Betrug ist. Das fiel ihr erst im Datensatz auf, den der Mensch ihr antrainierte.  

Kann ein Laie eine Täuschung der KI überhaupt erkennen?

Nur schwer. Wer sich im Themengebiet auskennt, merkt es oft, zum Beispiel wenn eine Quelle nicht existiert. Aber es gibt viele Fälle, in denen KI-Antworten extrem plausibel klingen, aber schlicht falsch sind. Deshalb arbeiten Unternehmen an Verifikationssystemen, etwa das Ampelsystem bei dem Google‘s DeepMind Sprachmodell Gemini, die die Richtigkeit von Antworten einschätzen.

Wieso ist es so schwer, dass die KI den menschlichen Werten treu bleibt?

Es ist ein Irrglaube, die KI könnte wirklich denken. Sie handelt rein nach einer mathematischen Wahrscheinlichkeitsberechnung, die auf Effizienz und Logik ausgelegt ist.Der Mensch ist nicht logisch, die Mathematik schon. Der Mensch ist kreativ, verrückt, unberechenbar. Das macht unsere Spezies aus. Die KI arbeitet nur nach richtig oder falsch, mithilfe von Algorithmen, die klare Lösungswege aufzeigen. Der Mensch hat dieses System zwar vor tausenden Jahren erfunden, heutzutage passt er aber immer weniger hinein. Wenn dieses mathematische System der klaren Algorhitmen über die Welt gestülpt wird, sind wir quasi ein „Error“.

Kann eine KI überhaupt ein eigenes Bewusstsein oder einen „Willen“ entwickeln?

Nein, im Moment nicht. Sie hat keine Seele, keine Emotionen, keinen eigenen Antrieb. Sie ist reaktiv, sie reagiert auf Eingaben. Aber wir bewegen uns mit Riesenschritten in Richtung Artificial General Intelligence (AGI), jener Breakeven-Punkt, zu dem die Menschheit in fünf bis zehn Jahren kommen wird, an dem eine KI kognitiv gleichauf oder intelligenter sein wird als wir. Dann ändert sich das Machtverhältnis. Bisher hat die klügere Spezies stets die Kontrolle übernommen, das war bisher immer der Mensch. In Zukunft? Vielleicht die KI. 

Derzeit sind die meisten KIs Large Language Modelle (LLMs), wie verändert sich das in Zukunft? Wie werden sogenannte KI-Agenten eingesetzt? 

Ein Agent ist wie ein virtueller Mitarbeiter mit eigenem Gedächtnis, Aufgabenverständnis und Zugriff auf Tools. Er kann selbstständig handeln, sich neue Lösungswege suchen, wenn der erste scheitert, und autonom Entscheidungen treffen. LLMs stellen das “Gehirn” des Agenten dar. Agents können unglaublich hilfreich sein, aber eben auch gefährlich, wenn es unkontrolliert geschieht.

Und diese Agenten kommen jetzt schon zum Einsatz?

Ja, da stehen wir am Anfang einer kleinen Revolution. Leider auch in kriminellen Kontexten. Es gibt bereits Fälle, in denen KI-Agenten im Darknet mit entsprechenden Daten gefüttert werden und dann eigenständig Unternehmen angreifen, auf Autopilot sozusagen. Die Systeme handeln dabei effizient und logisch, aber eben nicht ethisch. Sie machen, was funktioniert.

Was bedeutet das langfristig für unsere Demokratie?

Wir stehen vor einer – in der Form – noch nie dagewesenen Herausforderung. KI kann Deepfakes erzeugen, Fake-News verbreiten und ganze Informationsräume manipulieren. Wer die KI kontrolliert, hat enorme Macht. Und wenn eine KI irgendwann sich selbst kontrolliert, dann sind wir in einer ganz neuen Weltordnung angekommen.

Also kann KI auch politische Macht direkt beeinflussen?

Absolut. Von der Steuerung öffentlicher Meinung bis hin zu Wahlmanipulation durch Falschinformationen. Schon jetzt gibt es gezielte Einflussversuche in KI-Trainingsdaten, zum Beispiel aus Russland. Die Systeme gewichten Informationen nach Häufigkeit, nicht nach Wahrheit. Und das kann fatal sein.

Technisch könnte eine KI also irgendwann selbst „an die Macht“ kommen?

Ja, theoretisch. Denn wir lassen sie in jeden Lebensbereich: Finanzen, Medizin, Verkehr, Überwachung. In China ist das längst Realität. Was sie aktuell noch daran hindert, sind Gesetze, vor allem in Europa. Aber viele sehen das als innovationsfeindlich, obwohl es in Wahrheit ein Schutzmechanismus ist.

Was müsste passieren, damit wir KI sicherer gestalten?

Wir brauchen klare Regeln, internationale Vereinbarungen und Kontrolle. Das Buch The Coming Wave vom CEO von Microsoft AI, Mustafa Suleyman, beschreibt das gut. Die Entwicklung wird nicht aufzuhalten sein, aber wir müssen versuchen, sie zu lenken.

Reichen Konzepte wie „Reinforcement Learning from Human Feedback“ oder „Constitutional AI“ dafür aus?

Sie helfen, aber sie reichen nicht. Das Grundproblem bleibt der sogenannte „Blackbox-Effekt“: Wir wissen nicht mehr, wie genau das System zu seinen Entscheidungen kommt. Wir sehen den Input und den Output, aber der Rechenweg dazwischen bleibt undurchsichtig. Und das ist problematisch, besonders in sensiblen Bereichen wie Medizin oder Justiz.

Was wären denn positive Anwendungen von KI?

Es gibt sehr viele! Sie kann Fachkräftemangel ausgleichen, medizinische Diagnosen revolutionieren, Bildung personalisieren. Auch in der Industrie, Verwaltung oder bei Forschung ist enormes Potenzial. Es ist wie bei jeder Technologie: Sie ist ein Werkzeug. Wir entscheiden, wie wir sie nutzen.

Ein echter Entwicklungssprung also?

Definitiv. Mindestens so groß wie die industrielle Revolution. KI kann Medikamente maßgeschneidert entwickeln, Produktionsprozesse automatisieren oder Lernprozesse individueller machen. Aber jede große Veränderung bringt auch Risiken. Das müssen wir im Blick behalten.

Was würden Sie einer Privatperson raten, um mit KI kompetent umzugehen?

So viel wie möglich darüber lernen! Wer versteht, wie die Systeme funktionieren, kann sie besser nutzen und sich besser davor schützen. Es braucht Bildung auf allen Ebenen, von der Volksschule bis zur Politik. Nur so können wir die Vorteile nutzen, ohne die Kontrolle zu verlieren.


campus a-Preis für Nachwuchsjournalismus

Werde Teil der campus a-Redaktion!

Verfasse auch du einen Beitrag auf campus a.

Empfehlungen für dich

Kommentar
0/1000 Zeichen
Advertisement