Ariel und Maridol Mendones klagen gegen die Verwaltung ihres Apartmentkomplexes. Laut ihren Aussagen wurden sie von Nachbarn belästigt und haben das der Verwaltung auch gemeldet. Aber nichts ist passiert, die Hausverwaltung bleibt untätig. Ein Zeuge soll die Version des Ehepaars Mendones untermauern. Die Tür geht auf und …. kein Zeuge betritt den Saal. Stattdessen fährt ein Gerichtsdiener einen Monitor in den Raum. (In Deutschland vermutlich noch mit einem VHS-Abspielgerät darunter.) Das Video einer Zeugenaussage wird abgespielt – eine Nachbarin schildert glaubhaft, wie die Kläger in ihrer Wohnung unter den anderen Bewohnern des Hauses leiden. So weit, so gut. Nur: Die Zeugin in dem Video gibt es nicht. Sie wurde von einer KI erschaffen. Willkommen im Jahr 2025.
Genau das ist im Fall Mendones versus Cushman & Wakefield passiert. Die Klägerseite reichte im US-Bundesstaat Kalifornien KI-manipulierte Beweisvideos ein. Richterin Victoria Kolakowski erkannte das jedoch und wies das als Beweisstück 6C eingereichte Video, ebenso wie das angebliche Video einer Überwachungskamera (Beweisstück 6A) und Screen-Shots eines Chats ab. Kein echter Zeuge, kein echter Beweis. Das Verfahren wurde geschlossen, es hat aber ein neues Kapitel digitaler Täuschung eröffnet.
Das Fatale: Solche Deepfakes sind heute kein Hexenwerk mehr. Mit Tools wie Synthesia oder HeyGen kann jeder in wenigen Minuten eine »sprechende« Person aus dem Nichts erzeugen – glaubwürdig, mehrsprachig, emotionsgeladen. Zum Glück sind unsere Gesetze gegen so etwas schon gewappnet. Wir brauchen wegen KI keine neuen Paragrafen. Schon heute ist das Fälschen von Beweisen und Falschaussagen strafbewehrt. Gesetze sind technikneutral. Und: Wer lügt, verliert – erst recht bei Beweisen.
Aber: Ein gut gemachtes KI-generiertes Zeugenvideo kann heute täuschen, morgen entscheiden – und übermorgen missbraucht werden. Und genau hier liegt das Problem: Je mehr sich Gerichte auf digitale Beweismittel verlassen, desto größer wird das Risiko, manipuliert zu werden und es nicht zu merken. Besonders, wenn die Gegenseite nicht über die technischen Mittel verfügt, Deepfakes zu erkennen. Was wir daher brauchen, ist mehr forensisches Know-how in Gerichtssälen. Tools zur Analyse von Metadaten, zur Prüfung auf generierte Inhalte.
Denn man kann ja nicht immer so viel Glück haben wie im Fall der Mendones. Die Richterin brauchte keine forensischen Tools. Im angeblichen Chat waren Namen in erkennbar falscher Schriftgröße zu sehen. Texte wurden in rechteckigen Blöcken eingefügt.
Beim Überwachungsvideo ebenfalls. Auf den schwarz-weiß Nacht-aufnahmen stand der eindeutig nachträglich eingefügte Security-Mitarbeiter zwar nichts tuend im Eck, allerdings in Farbe, hell ausgeleuchtet und deutlich schärfer als der Rest des Bildes. Und dann war da ja noch das Zeugenvideo der Nachbarin, die für die Mendones ausgesagt hat. Auch da stimmte einiges nicht.
Die Tonspur des Zeugenvideos wirkte zwar glaubwürdig – aber das Gesicht? Starre Mimik, unnatürliche, nicht zum gesprochenen Wort passende Lippenbewegungen. Und dann: ein Loop, derselbe Augenaufschlag, dieselbe Kopfbewegung – immer wieder. Die KI hatte sich verraten.
Ehrlich gesagt … das klingt alles nicht nach KI, das klingt nach ganz schlecht selbstgemacht von jemandem, der seine Familie auch sonst mit selbstgeschnittenen Urlaubsvideos malträtiert.
Hier das original Video (Quelle: hier und auch verlinkt im Urteil)