Im Osten nichts Neues

China veröffentlichte die Tage ein neues Sprachmodell. Deepseek heisst es und ist vergleichbar mit der amerikanischen Konkurrenz wie ChatGPT, Claude oder Gemini. Nur: Es ist weitaus günstiger.

Den amerikanischen Kollegen geht derweil – etwas plakativ formuliert – die Düse. Sie haben Angst vor dem Mitbewerber aus dem Osten, vor allem weil der Betrieb von Deepseek offenbar keine milliardenteuren Serverfarmen benötigt, sondern ein Windows-XP-Rechner aus dem Jahre 2003 – ebenfalls plakativ formuliert.

Nvidia verliert brutal an Börsenwert

Entsprechend wenig Freude bereitet Deepseek auch der Börse. Der Wert von Chiphersteller Nvidia fiel Anfang Woche um sage und schreibe 600 Milliarden Dollar (!); einen grösseren Tagesverlust gab es an der Wallstreet nie. Der Grund dafür ist die Frage: Braucht es die Chips des Herstellers zum Betrieb eines grossen Sprachmodells überhaupt noch?

Meiner Meinung nach ist es viel zu früh, diese Frage abschliessend zu beantworten. Deepseek dürfte noch nicht annährend die Nutzerzahlen von ChatGPT & Co. erreichen. Sollten diese skalieren, sieht das womöglich schon wieder ganz anders aus.

Viel entscheidender finde ich etwas ganz anderes, und das betrübt mich etwas: Spiegel-Journalist Mathieu von Rohr fragte Deepseek, was denn anno 1989 am Tiananmen-Platz passiert sei. Und die chinesische KI antwortete «pflichtbewusst»:

Mich erstaunt die Überraschung von Rohrs sehr. Das Posting insinuiert für mich, dass die amerikanischen Sprachmodelle bisher total objektiv und nur der Wahrheit verpflichtet geantwortet hätten.

Die chinesische KI ist genauso voreingenommen wie andere

Aber das ist nicht so. Jede KI ist biased. Keine KI ist der Wahrheit verpflichtet, sondern bestenfalls der Wahrscheinlichkeit – und schlimmstenfalls der voreingenommenen Daten, mit denen sie trainiert worden ist.

Ich hoffe, dass Deepseek zu einem bewussteren Umgang mit KI führt. Vielleicht ist es gerade die chinesische KI, die uns zeigt, wie wichtig es ist, KIs kritisch zu hinterfragen – denn letztlich ist nicht die Technologie das (Haupt)problem, sondern der Mensch, der sie unüberlegt steuert.

Das chinesische Sprachmodell zeigt vor allem eines: Jede KI ist ein Spiegel der Daten und der Werte, die ihr zugrunde liegen – egal ob sie aus China oder dem Westen stammt. Wer glaubt, dass westliche KI-Modelle neutral und objektiv sind, hat nicht verstanden, wie sie funktionieren. Die Frage ist also nicht, ob wir einer KI vertrauen können, sondern ob wir bereit sind, sie als das zu akzeptieren, was sie ist: Ein Werkzeug, das nicht die Wahrheit, sondern höchstens Wahrscheinlichkeiten liefert. Und diese können ebenso politisch wie gefährlich sein – im Westen wie im Osten.

Antwort

  1. […] Reto Vogt, den ihr von seiner Zeit als Chefredaktor bei inside-it.ch her kennt, weist auf einen wichtigen Punkt hin. Auch die westlichen KIs sind nicht der reinen Wahrheit verpflichtet, sondern haben Vorurteile. […]

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert