KI-Detection-Tools versprechen, Fakes zu entlarven – doch sie versagen regelmässig. Warum und was die Alterantiven sind, habe ich in meinem Webinar im Rahmen der Swiss {ai} Weeks gezeigt.
Nachfolgend habe cih die wichtigsten Informationen aus dem Webinar (oben im Video) kurz zusammengefasst (im Webinar hats viele Beispiele, die das Ganze illustrieren):
KI-Modelle sind keine Wahrheitsmaschinen. Sie erkennen Muster aus riesigen Textmengen und stellen statistische Beziehungen zwischen Wörtern her – vergleichbar mit einem Wetterbericht, der zu 30 Prozent Regen vorhersagt. Es kann stimmen, muss aber nicht.
- KI produziert das Wahrscheinlichste, nicht das Wahre
- Trainingsmaterial bestimmt die Ausgabe – und das bleibt meist intransparent
- Gesellschaftliche Vorurteile werden übernommen und verstärkt
- Dominante Informationen können von keinem KI-Modell übersteuert werden
Warum KI-Detektoren scheitern
Die verfügbaren Tools zur Erkennung von KI-generierten Inhalten sind unzuverlässig. Ich habe das selbst getestet. Einen zu 100 Prozent KI-generierten Newsbeitrag über einen fiktiven Postüberfall in Winterthur analysierten zwei verschiedene Detektoren unterschiedlich: 74 Prozent bzw. 52 Prozent seien KI-generiert.
Probleme der Detection-Tools
- Hohe Fehlerquoten bei menschlichen und KI-Texten
- Gleicher Text wird von verschiedenen Tools unterschiedlich bewertet
- Keine Transparenz über die Funktionsweise
- Falsch-positive Ergebnisse bei menschlichen Texten oder falsch-negative bei KI-Texten
- Bei Bildern dasselbe Problem: Wasserzeichen funktionieren nicht zuverlässig
Menschliche Erkennung: Was funktioniert
Obwohl die technischen Tools versagen, können wir KI-generierte Inhalte dennoch identifizieren – durch aufmerksames Lesen und kritisches Hinterfragen.
Typische Merkmale von KI-Texten:
- Einzeilige Absätze (besonders auf LinkedIn)
- Generische Floskeln wie «nicht das, sondern jenes»
- Vorhersagbare Strukturen
- Wiederholende Satzmuster
- Ausgewogene Darstellung ohne klare Position
- Übermässige Emoji-Nutzung
- Gedankenstriche (typisch für ChatGPT)
Merkmale menschlicher Texte:
- Persönliche Anekdoten und Erfahrungen
- Kreative Sprachbilder
- Konkrete Beispiele
- Erkennbare Meinungen
- Ecken und Kanten
Die einzige zuverlässige Methode: Manueller Faktencheck
Da technische Lösungen versagen, bleibt nur der Klassiker Medienkompetenz
- Mindestens zwei unabhängige, vertrauenswürdige Quellen suchen
- Google-Rückwärtsbildersuche für verdächtige Bilder
- Nach Originalquellen suchen
- Zitate und Statistiken googeln
- Kontextlose Sekundärquellen identifizieren
Fazit: Vertrauen bleibt entscheidend
Am Ende läuft alles auf eine Vertrauensfrage hinaus. Wenn ich einem Absender oder einer Absenderin vertraue, kann diese Person oder diesem Medium KI zur Unterstützung nutzen – solange sie mit ihrem Namen für den Inhalt einsteht.
- Faktenchecks bleiben Pflicht – und zwar menschliche Faktenchecks
- Kritisches Hinterfragen ist unverzichtbare Kompetenz
- KI als Werkzeug nutzen, aber das Zepter in der Hand behalten
- Bei mehreren KI-Modellen diversifizieren
- Nie alles ungeprüft übernehmen
In einer Zeit, in der wir nicht mehr allem glauben können, was wir sehen und lesen, wird Medienkompetenz zur Überlebensfähigkeit. Auf Technologie kann man sich zur Identifikation von KI-Fakes nicht verlassen.
Schreiben Sie einen Kommentar