In Indien hat die Presseagentur ANI (Asian News International) jetzt openAI, den Betreiber der Künstlichen Intelligenz chatGPT, verklagt. Hintergrund ist, dass chatGPT einem User in einer Antwort von einem Interview zwischen ANI und dem Führer der Opposition in Indien berichtet hat. Dieses Interview hat es aber nie gegeben. chatGPT hat sich das ausgedacht. Oder wie wir Techniker sagen: halluziniert.
Warum denkt sich eine KI so etwas aus? Weil eine KI eigentlich gar nichts weiß, sondern nur vermutet. Aufgrund von Wahrscheinlichkeiten. Vereinfacht gesagt „zählt“ eine Künstliche Intelligenz wie chatGPT beim Lernen in ganz vielen Texten die Wörter. Aber nicht nur die Wörter selbst, sondern auch, wie oft sich welche Wörter folgen und in welchem Abstand. Am Ende gibt es dann eine riesig große mehrdimensionale Tabelle und die Künstliche Intelligenz vermutet einfach, dass es in den Alpen schneit und nicht am Meer, weil die Wörter „Berg“ und „Schnee“ viel häufiger eng beieinander stehen, als „Strand“ und „Schnee“.
Schwieriger wird es bei doppeldeutigen Wörtern wie „Golf“. Aber auch das kriegt eine KI meistens hin, denn es werden ja nicht nur zwei oder drei Wörter gezählt, sondern auch alle anderen drumherum. Und mit dem Kontext „Rasen“ wird schnell klar, dass der Sport gemeint ist und nicht das Auto oder die Bucht bei Mexiko.
Im Prinzip antwortet eine KI auf Fragen mit dem Wort, dass jetzt mit einer sehr hohen Wahrscheinlichkeit folgt. Sie können das auch. „Opa liest seine …“ Na, auch an Zeitung gedacht? Sehen Sie! Manchmal ist so eine Vorhersage aber problematisch, weil Opa auch mal Beipackzettel oder Rezepte liest. Ergibt sich aus dem Kontext kein eindeutiges Bild, dann wird eine KI raten bzw. halluzinieren – und halt auch mal Unsinn erzählen.
So wie bei Martin Bernklau aus Tübingen. Als er „Copilot“, das chatGPT-Pendant von Microsoft, nach sich selbst befragte, wurde ihm folgendes mitgeteilt: Martin Bernklau aus Tübingen ist ein wegen Kindes-Missbrauch verurteilter, geständiger Straftäter, der aus der Psychiatrie ausgebrochen ist, Frauen betrügt und unerlaubt Waffen besitzt.
Nichts davon hat Herr Bernklau jemals getan, sein Name steht nur häufig mit Wörtern wie Straftäter, Missbrauch, Betrug und Waffenbesitz in Texten im Internet. Der Grund dafür ist banal. Bernklau ist seit vielen Jahrzehnten Gerichtsreporter in Tübingen. Er schreibt über Fälle von Missbrauch, ausgebrochenen Straftätern, Betrügern und auch unerlaubten Waffenbesitz. Und über jedem Artikel steht sein Name, weshalb die KI die obigen Thesen für wahrscheinlich richtig hielt.
Da sollte sich die KI mal besser eine Scheibe bei der Rechtsprechung abschneiden. Da heißt es: im Zweifel für den Angeklagten. Und nicht: wahrscheinlich war er es. Denn Wahrscheinlich ist für die Wahrheit halt einfach nicht genug.