Ich glaube nur, was ich sehe

Ich glaube nur, was ich sehe. Diesen Satz haben Sie sicherlich schon einmal gehört oder gesagt. Auch ich habe ihn als junger Mensch häufiger genutzt, wenn ich meinen Kumpels in der Schule erklärt habe, warum ich nicht katholisch oder evangelisch bin, sondern in „Ethik“ gehe. Damals versuchten die Jünger der Gemeinde mir dann zu erklären, dass da mehr ist – und der Satz einfach falsch sein muss. Und wissen Sie was, heute weiß ich, dass diese Menschen Recht haben! Auch wenn es ganz anders gemeint war. Die Fälschungsmöglichkeiten von Bildern und Videos sind mittlerweile nämlich derart gut geworden, dass man eben nicht mehr glauben kann, was man sieht.

Wikipedia definiert Deepfakes als von einer künstlichen Intelligenz manipulierte Medieninhalte (Audio, Foto, Video), die (extrem) realistisch wirken. Das kann eine künstlich veränderte Stimme eines Finanzvorstands(m/w/d) sein, der einen Mitarbeiter(ebenfalls) am Telefon anweist, eine hohe Geldsumme zu überweisen – eine Mischung aus Voice Phishing und CEO Fraud. Oder ein Video, bei der einer Pornodarstellerin das Gesicht einer Nachrichtensprecherin einmontiert wurde. 2019 enthielten über 95% aller Deepfake Videos pornografische Inhalte.

Ganz exzellent sind mittlerweile Fälschungen von Fotos mit Gesichtern. Dass die künstliche Intelligenz (KI) gerade das Erstellen von superrealistischen Gesichtern so gut beherrscht, haben wir Ian Goodfellow zur verdanken. Denn damit eine KI überhaupt Gesichter erstellen kann, benötigt sie – super vereinfacht gesagt – viele Daten von Nasen, Mündern und Augen. Und zudem – ganz wichtig – einen Menschen, der der KI mitteilt, was sie beim Versuch daraus ein Gesicht zu „malen“ gut gemacht hat und wo es Fehler beim Zusammensetzen der Komponenten gab. Ian Goodfellow kam auf die Idee, zwei künstliche Intelligenzen gegeneinander antreten zu lassen. Die eine (der Fälscher) sollte versuchen, Fotos mit realistischen Gesichtern zu erstellen. Die andere (der Detektiv) sollte echte Gesichter von falschen unterscheiden können. Nach kurzer Einlernphase waren die KIs in der Lage ohne Menschen miteinander zu interagieren. Sie schaukeln sich gegenseitig hoch und die Erfolge dieses Trainings sind unglaublich.

Auf der Webseite ThisPersonDoesNotExist.com (auf Deutsch: diese Person existiert nicht) können Sie nahezu unbegrenzt Fotos von Menschen aufrufen, die es nicht gibt und nie gab. Und bei den meisten werden Sie das selbst bei genauerem hinsehen nicht merken. Wem das mit falschen Gesichtern von Menschen zu viel des Guten ist, kann sich auch Katzenfotos ansehen. Auf ThisCatDoesNotExist.com gibt es tausende davon, die jedoch ebenfalls alles kaum zu erkennende Fälschungen sind. Kein einziges Tier, das dort zu sehen ist, hat je gelebt.

Ian Goodfellow ist mittlerweile Direktor für Maschinelles Lernen bei Apple. Wikipedia zeigt ein Foto von ihm. Vielleicht.


Keine der folgenden Personen esxistiert. Sie wurden alle “generiert” und stammen von thispersondoesnotexist.com Die Katzenbilder stammen von thiscatdoesnotexist.com

 

 

 

 

 

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.