KI-Fakes enttarnen: Warum die Tools versagen und was wirklich funktioniert

KI-Detection-Tools versprechen, Fakes zu entlarven – doch sie versagen regelmässig. Warum und was die Alterantiven sind, habe ich in meinem Webinar im Rahmen der Swiss {ai} Weeks gezeigt.

Nachfolgend habe cih die wichtigsten Informationen aus dem Webinar (oben im Video) kurz zusammengefasst (im Webinar hats viele Beispiele, die das Ganze illustrieren):

KI-Modelle sind keine Wahrheitsmaschinen. Sie erkennen Muster aus riesigen Textmengen und stellen statistische Beziehungen zwischen Wörtern her – vergleichbar mit einem Wetterbericht, der zu 30 Prozent Regen vorhersagt. Es kann stimmen, muss aber nicht.

  • KI produziert das Wahrscheinlichste, nicht das Wahre
  • Trainingsmaterial bestimmt die Ausgabe – und das bleibt meist intransparent
  • Gesellschaftliche Vorurteile werden übernommen und verstärkt
  • Dominante Informationen können von keinem KI-Modell übersteuert werden

Warum KI-Detektoren scheitern

Die verfügbaren Tools zur Erkennung von KI-generierten Inhalten sind unzuverlässig. Ich habe das selbst getestet. Einen zu 100 Prozent KI-generierten Newsbeitrag über einen fiktiven Postüberfall in Winterthur analysierten zwei verschiedene Detektoren unterschiedlich: 74 Prozent bzw. 52 Prozent seien KI-generiert.

Probleme der Detection-Tools

  • Hohe Fehlerquoten bei menschlichen und KI-Texten
  • Gleicher Text wird von verschiedenen Tools unterschiedlich bewertet
  • Keine Transparenz über die Funktionsweise
  • Falsch-positive Ergebnisse bei menschlichen Texten oder falsch-negative bei KI-Texten
  • Bei Bildern dasselbe Problem: Wasserzeichen funktionieren nicht zuverlässig

Menschliche Erkennung: Was funktioniert

Obwohl die technischen Tools versagen, können wir KI-generierte Inhalte dennoch identifizieren – durch aufmerksames Lesen und kritisches Hinterfragen.

Typische Merkmale von KI-Texten:

  • Einzeilige Absätze (besonders auf LinkedIn)
  • Generische Floskeln wie «nicht das, sondern jenes»
  • Vorhersagbare Strukturen
  • Wiederholende Satzmuster
  • Ausgewogene Darstellung ohne klare Position
  • Übermässige Emoji-Nutzung
  • Gedankenstriche (typisch für ChatGPT)

Merkmale menschlicher Texte:

  • Persönliche Anekdoten und Erfahrungen
  • Kreative Sprachbilder
  • Konkrete Beispiele
  • Erkennbare Meinungen
  • Ecken und Kanten

Die einzige zuverlässige Methode: Manueller Faktencheck

Da technische Lösungen versagen, bleibt nur der Klassiker Medienkompetenz

  • Mindestens zwei unabhängige, vertrauenswürdige Quellen suchen
  • Google-Rückwärtsbildersuche für verdächtige Bilder
  • Nach Originalquellen suchen
  • Zitate und Statistiken googeln
  • Kontextlose Sekundärquellen identifizieren

Fazit: Vertrauen bleibt entscheidend

Am Ende läuft alles auf eine Vertrauensfrage hinaus. Wenn ich einem Absender oder einer Absenderin vertraue, kann diese Person oder diesem Medium KI zur Unterstützung nutzen – solange sie mit ihrem Namen für den Inhalt einsteht.

  • Faktenchecks bleiben Pflicht – und zwar menschliche Faktenchecks
  • Kritisches Hinterfragen ist unverzichtbare Kompetenz
  • KI als Werkzeug nutzen, aber das Zepter in der Hand behalten
  • Bei mehreren KI-Modellen diversifizieren
  • Nie alles ungeprüft übernehmen

In einer Zeit, in der wir nicht mehr allem glauben können, was wir sehen und lesen, wird Medienkompetenz zur Überlebensfähigkeit. Auf Technologie kann man sich zur Identifikation von KI-Fakes nicht verlassen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert