Wie Sprach-KI unser Weltbild verändert – und was wir dagegen tun können
Ein neues Schlagwort macht die Runde in Tech-Kreisen: LLM-Grooming. Es klingt sperrig, technisch – und doch beschreibt es eine zutiefst beunruhigende Entwicklung. Denn es geht um nichts Geringeres als die Frage, wer in Zukunft bestimmt, was wir für wahr halten.

Große Sprachmodelle wie ChatGPT, Gemini oder Claude sind längst Teil unseres digitalen Alltags. Sie schreiben Mails, fassen Artikel zusammen, erklären politische Begriffe. Sie wirken sachlich, neutral, unbestechlich. Doch genau das sind sie nicht – zumindest nicht automatisch. Und gerade darin liegt die Gefahr.
Wenn die Wahrheit sich verstellt
„LLM“ steht für „Large Language Model“. Gemeint sind jene KI-Systeme, die aus Milliarden von Textdaten Regeln ableiten, Muster erkennen – und auf dieser Basis Antworten formulieren.
„Grooming“ beschreibt normalerweise eine perfide Form der Vorbereitung zur Manipulation – in diesem Fall jedoch nicht bei Kindern, sondern bei Maschinen. Es geht um die gezielte Fütterung der KI mit irreführenden, propagandistischen Inhalten – lange bevor sie überhaupt zum Einsatz kommt.
Die Manipulation beginnt im Verborgenen. Sie findet dort statt, wo Trainingsdaten entstehen: in Newsportalen, Kommentarspalten, Pseudojournalismus. Ein besonders krasser Fall flog kürzlich auf: Das Netzwerk Portal Kombat betrieb Hunderte Webseiten, die wie Lokalzeitungen wirkten, aber systematisch Falschinformationen streuten – viele davon pro-russisch, antidemokratisch, verschwörungsoffen.
Diese Inhalte waren nicht für Menschen gemacht. Sondern für Maschinen. Für die KIs, die später unsere Antworten liefern.
Die KI, die nicht weiß, dass sie lügt
Das Fatale daran: Die KI weiß nicht, dass sie belogen wurde. Sie zieht Muster aus der Datenlage. Wenn aber ein signifikanter Teil dieser Daten verzerrt ist, dann wird auch das Antwortverhalten verzerrt.
Eine Untersuchung des Dienstleisters NewsGuard zeigte: Über 30 % der getesteten KI-Antworten enthielten Elemente aus diesem Propagandanetz – oft garniert mit falschen Quellen oder erfundenen Fakten.
So behauptete etwa ein KI-System, der ukrainische Präsident Selenskyj habe Donald Trumps Plattform „Truth Social“ in der Ukraine verboten. Eine frei erfundene Nachricht. Sechs von zehn Chatbots gaben sie dennoch weiter – inklusive falscher Quelle.
KI ist keine Suchmaschine – auch wenn sie so klingt
Wer heute online etwas wissen will, fragt oft nicht mehr Google – sondern ChatGPT. Der Unterschied scheint gering, ist aber fundamental:
Google zeigt eine Liste von Treffern, die Nutzer:innen vergleichen können. KI liefert eine einzige, scheinbar stimmige Antwort.
Die Folge: Die Antwort wirkt glaubwürdiger, verbindlicher – selbst wenn sie falsch ist. Es fehlt die Kontextualisierung, die Unsicherheit, die Auswahl.
Was wie ein Komfortgewinn erscheint, ist in Wahrheit ein Verlust an Kontrolle.
Wo KI hilfreich ist – und wo sie gefährlich wird
Die gute Nachricht: Sprachmodelle können extrem nützlich sein. Sie helfen beim Gliedern, Erklären, Formulieren. Sie entlasten im Alltag – besonders bei Dingen wie:
- dem Schreiben einfacher Erklärtexte
- der Erstellung von Gliederungen oder Zusammenfassungen
- der Formulierung von Social-Media-Beiträgen
- dem Auffinden neuer Perspektiven auf ein Thema
Doch diese Vorteile dürfen nicht darüber hinwegtäuschen, dass KI ihre Grenzen hat – und teils sogar schadet, wenn sie falsch eingesetzt wird.
Ungeeignet ist KI insbesondere für:
- medizinische Fragen (Diagnosen, Therapien)
- politische oder historische Fakten ohne Quelle
- komplexe ethische Bewertungen
- Zitate, Studien, Statistiken ohne klare Belegstelle
- persönliche Entscheidungen mit realen Konsequenzen
Was wir tun können – und sollten
Der Umgang mit KI erfordert neue Kompetenzen. Nicht technisches Wissen, sondern kritische Medienkompetenz. Die Fähigkeit, Quellen zu hinterfragen. Zwischen Stil und Substanz zu unterscheiden. Und Maschinen nicht für klüger zu halten, als sie sind.
🧠 Checkliste: So nutzt du KI sicher und sinnvoll
1. Glaub nicht alles.
KI klingt überzeugend – aber sie kann irren oder erfinden.
2. Frag nach Quellen.
Woher stammt die Information? Gibt es einen Link, eine Studie, einen Namen?
3. Vertraue deinem Bauchgefühl.
Wenn etwas zu glatt klingt, ist es vielleicht nur plausibel – nicht wahr.
4. Nutze mehrere Quellen.
KI ist ein Werkzeug. Keine Wahrheit. Immer querlesen und vergleichen.
5. Sei besonders wachsam bei sensiblen Themen:
Krieg, Klima, Migration, Impfen, Religion – hier steckt oft Meinung unter der Oberfläche.
6. Nutze KI als Assistentin – nicht als Richterin.
Sie kann dir helfen, denken musst du trotzdem selbst.
Ein letzter Gedanke:
Die Wahrheit stirbt nicht nur durch Lügen. Sie stirbt auch durch zahllose kleine Halbwahrheiten – gut verpackt, maschinell formuliert, glaubhaft dargeboten.
Es liegt an uns, das zu erkennen. Und gegenzusteuern
Persönlicher Nachsatz:
Ich beschäftige mich seit über drei Jahren intensiv mit Künstlicher Intelligenz – in all ihren Formen und Farben.
Als Gestalterin, Entwicklerin und Redakteurin bin ich beruflich oft dort unterwegs, wo Technik auf Inhalt trifft. Seit meinen Anfängen mit HTML und PHP fasziniert mich das Zusammenspiel von Code und Kreativität.
KI war für mich von Anfang an ein Werkzeug – kein Ersatz.
Ein kluger Helfer, kein Besserwisser. Wer lernt, damit umzugehen, kann viel gewinnen.
Wer sie unkritisch nutzt, hat viel zu verlieren.
Verfasst von Jeanette Atherton
.