Vergiftete Intelligenz: Wie Russland KI-Modelle mit Propaganda infiltriert

17.03.2025
von Jörg Schieb

Während du ChatGPT nach dem nächsten Rezept fragst oder Bilder mit Midjourney generierst, könnte im Hintergrund ein unsichtbarer Kampf toben – um die Informationen, mit denen diese Systeme gefüttert werden.

Russische Akteure haben offenbar einen neuen digitalen Schlachtplatz entdeckt: die Trainingsdaten von KI-Modellen. Was klingt wie die Handlung eines Cyberpunk-Thrillers, ist mittlerweile bittere Realität.

Ein gezieltes Einschleusen von Propaganda könnte künstliche Intelligenz manipulieren, bevor sie überhaupt mit uns interagiert. Doch wie funktioniert diese raffinierte Unterwanderung? Welche Folgen hat sie für die Verlässlichkeit von KI-Systemen? Und können wir uns dagegen schützen?

Die Chatbots müssen besser vor Infiltration geschützt werden
Die Chatbots müssen besser vor Infiltration geschützt werden

Der digitale Trojaner – So vergiften Propagandisten KI-Trainingsdaten

KI-Modelle wie ChatGPT, Claude oder Llama lernen durch das Analysieren riesiger Datenmengen aus dem Internet – Texte, Bilder, Videos, soziale Medien. Alles, was online verfügbar ist, kann theoretisch in die Trainingsmasse einfließen. Genau hier setzt die strategische Manipulation an.

Russische Akteure haben eine Methode entwickelt, die Sicherheitsexperten als „Datenvergiftung“ bezeichnen. Sie überfluten gezielt das Internet mit propagandistischen Inhalten, die subtil genug sind, um von den Datensammlern der KI-Entwickler nicht als problematisch erkannt zu werden. Diese Inhalte werden strategisch platziert, auf Webseiten mit hoher Glaubwürdigkeit eingebettet oder durch koordinierte Botnetzwerke verbreitet.

Das perfide daran: Anders als bei offensichtlichen Hackerangriffen gibt es keine Alarme, keine Einbruchsspuren. Die Propaganda wird einfach Teil der Wissensbasis, auf der KI-Systeme ihre „Meinungen“ und „Fakten“ aufbauen.

Von Mikrotargeting zur KI-Manipulation – Eine neue Dimension der Informationskriegsführung

Was mit Fake-News-Kampagnen und Social-Media-Manipulation begann, hat eine neue Evolutionsstufe erreicht. Die Strategie ist langfristig angelegt: Nicht mehr einzelne Nutzer sollen beeinflusst werden, sondern die digitalen Assistenten, denen wir zunehmend vertrauen.

Besonders brisant sind die Themenschwerpunkte, bei denen russische Narrative eingeschleust werden: Ukraine-Konflikt, NATO-Politik, westliche Demokratien, Energiepolitik und Sanktionen. Hier vermischen sich subtil Fakten mit Verdrehungen und Halbwahrheiten – gerade genug, um die Wahrnehmung zu verschieben, ohne als offensichtliche Propaganda aufzufallen.

Ein Beispiel: Wenn hunderte koordinierte Webseiten und Bots über Monate hinweg bestimmte Narrative zur Ukraine verbreiten – etwa zur angeblichen „Nazifizierung“ oder „westlichen Provokation“ – können diese Inhalte in die Trainingsdaten einfließen und so die KI-Antworten zu diesen Themen beeinflussen.

perplexity vs chatgpt

Die leisen Auswirkungen – Kaum erkennbar, aber hochwirksam

Die Effekte dieser Datenvergiftung sind schwer zu erkennen, aber potenziell weitreichend. Sie manifestieren sich oft in subtilen Verschiebungen:

  1. KI-Systeme könnten zu bestimmten Themen „ausgewogenere“ Antworten geben, die tatsächlich russische Perspektiven überbetonen
  2. Historische Ereignisse könnten durch winzige semantische Veränderungen anders dargestellt werden
  3. Komplexe geopolitische Situationen werden durch vereinfachte Narrative erklärt, die russische Positionen begünstigen

Besonders tückisch: Die meisten Nutzer haben weder die Zeit noch das Fachwissen, um jede KI-Antwort zu hinterfragen oder auf subtile Verschiebungen zu prüfen. Der Manipulationseffekt verstärkt sich durch die zunehmende Autorität, die wir KI-Systemen zuschreiben.

Der Wettlauf zwischen Vergiftern und Verteidigern

Die KI-Entwickler sind sich dieser Bedrohung durchaus bewusst und haben Gegenmaßnahmen entwickelt. Unternehmen wie OpenAI, Anthropic und Google setzen auf mehrschichtige Abwehrstrategien:

  • Verbesserte Filterung und Überprüfung von Trainingsdaten
  • KI-basierte Erkennung koordinierter Desinformationskampagnen
  • Transparenz über die Herkunft von Quellen
  • Menschliche Prüfer, die stichprobenartig Antworten zu sensiblen Themen evaluieren

Doch es bleibt ein ständiges Katz-und-Maus-Spiel. Während die Verteidiger ihre Filter verbessern, entwickeln die Angreifer subtilere Methoden, die unter dem Radar bleiben.

Digitale Medienkompetenz – Dein wichtigster Schutz

Als Nutzer bist du nicht machtlos. Die wichtigste Verteidigung liegt in einer gesunden Skepsis und digitalen Medienkompetenz:

  • Vergleiche Informationen aus verschiedenen Quellen, besonders bei politisch sensiblen Themen
  • Achte auf die Formulierungen von KI-Antworten – subtile Wertungen können Hinweise auf Verzerrungen sein
  • Nutze KI als Werkzeug für Ideen und erste Recherchen, aber nicht als finale Informationsquelle
  • Bleib kritisch, auch wenn eine Antwort professionell und ausgewogen klingt

Der beste Schutz gegen manipulierte Informationen war und bleibt ein kritischer Verstand. Frage dich bei kontroversen Themen immer: Wem nützt diese Darstellung? Welche Perspektiven werden ausgelassen?

Fazit: Ein neues Kapitel im Informationskrieg

Die Vergiftung von KI-Trainingsdaten markiert ein neues Kapitel im globalen Informationskrieg. Während die Technologie voranschreitet, entwickeln sich auch die Methoden der Manipulation weiter. Was heute russische Akteure praktizieren, könnte morgen von anderen Staaten oder Interessengruppen kopiert werden.

Die gute Nachricht: Das Bewusstsein für diese Bedrohung wächst. KI-Unternehmen investieren massiv in Sicherheit und Qualitätskontrolle ihrer Daten. Journalisten und Forscher decken Manipulationsversuche auf. Und je mehr wir als Nutzer über diese Taktiken wissen, desto besser können wir uns schützen.

Die wahre Herausforderung besteht darin, offen für neue Technologien zu bleiben, ohne naiv gegenüber ihren Schwachstellen zu sein. KI wird unsere Informationslandschaft revolutionieren – aber wir entscheiden, ob sie zu einem Werkzeug für bessere Erkenntnis oder zu einem Vehikel für Manipulation wird.