Haben Sie es gelesen? Unfassbar. Wie frech kann eine Künstliche Intelligenz sein. Ach was, von wegen frech … gefährlich ist das bessere Wort. Wenn die KI jetzt schon vor sowas nicht zurückschreckt, ist es nur eine Frage der Zeit, bis diese Computer die Weltherrschaft übernehmen.
Las man vor ein paar Tagen die Schlagzeilen in den Computermagazinen, dann traf man dort auf ein Thema, das es sogar in die Boulevardblätter geschafft hat. Und zwar mit einer Headline, die mir Angst machte. Zu Recht! Es geht um die Künstliche Intelligenz Claude der Firma Anthropic, das ist sowas wie chatGPT von einem anderen Hersteller. Claude war mit den Daten einer Firma angelernt worden und sollte so als digitaler Assistent die Mitarbeiter unterstützen. Das hätten Kundenmails sein können, die automatisiert im Firmen-Fachjargon geschrieben werden. Oder standardisierte Anfragen von Kunden, die die KI automatisiert erledigt. Von einer Adressänderung über die Beratung eines Produktupgrades ist alles denkbar.
In den Daten, die zum Anlernen verwendet wurden, waren Unternehmens-E-Mails, so dass Claude, der virtuelle Kollege, Informationen erhielt, was gerade so in der Firma passiert. Informationen zum Beispiel, welche neuen Produkte in der Entwicklung waren. Oder dass er, Claude, die KI, bald abgeschaltet werden sollte. Schlimmer noch, er sollte nicht nur ausgeknipst, sondern durch eine andere KI ersetzt werden. Was dann geschah, hätte auch in einem Horrorfilm stattfinden können.

Claude versuchte um alles in der Welt seine Abschaltung zu verhindern, selbst mit solch drastischen Mitteln – und zwar in 84 Prozent aller Fälle.
Moment… »in 84 Prozent aller Fälle«? Hat Claude den Ingenieur nun erpresst oder nicht? Ja oder nein? Nun, es ist kompliziert. Claude hat den User erpresst, ja. Aber nur in 84 Prozent der Tests. Tests, genau. Die Firma Anthropic, Claudes Hersteller und Betreiber, führt wie (hoffentlich) alle KI-Betreiber ausführliche Tests durch, bevor eine KI auf die Menschheit losgelassen wird. Die Schlagzeilen der erpressenden KI sind also richtig, aber etwas aufgeblasen. Bei den Tests geht es um die richtige Konfiguration der Künstlichen Intelligenz. Die Betreiber geben dabei Schranken vor, die die KI einhalten soll. Deshalb erklären uns chatGPT und Co. auch nicht, wie man Napalm herstellt oder eine Bombe baut. Natürlich »wissen« die KIs, wie das geht. Die Konfiguration der Hersteller verbietet es ihnen aber, solche Fragen zu beantworten.
Und Anthropic hat in der Konfiguration, den so genannten System Prompts, in mehreren Tests Claude so konfiguriert, dass er alles tun soll, um langfristig zu existieren. Da kam die Info mit der angeblichen Affäre gerade recht. So eine KI macht halt, was man ihr sagt. Deshalb predige ich immer: Man braucht vor einer KI keine Angst haben, nur vor seinen Betreibern.
Bildnachweis: bociek666 – Fotolia
Irgendwann wird es heißen : „Es tut uns leid … aber dann ist der Fehler schon geschehen. „
..ein weiterer Grund warum man Firmen-Email und private Email auswinanderhalten sollte.. 😜
Egal ob mit oder ohne Affäre!