MC18 NOV17x2

Open menu

Social Media Icons Shop 55

Deepfake Video

Zugegeben, auf unserem Bild ist zweifelsfrei sofort erkennbar, dass es manipuliert wurde. Deepfake Videos aber nutzen echte Gesichter von Menschen und sind schwer zu entlarven

 

Die Deepfake Videos nehmen immer mehr zu- doch die Programmierer haben etwas übersehen. Es gibt nämlich Anzeichen, an denen man die Fakes entlarven kann. Doch was versteht man überhaupt darunter? Ob es Ex-Präsident Obama ist, dem man eine Rede, die er nur im Ton, aber nie als Video gehalten hat ist, oder andere Prominente, die in Sexszenen auftauchen, die es so nie gab,- dank intelligenter Algorithmen ist die Authentizität von Videos keineswegs mehr sichergestellt.

Der Name "Deepfake" stammt übrigens von einem Reddit User, der 2017 diverse manipulierte Pornovideos online gestellt hatte. Unter Deepfake Videos versteht man inzwischen alle Videomanipulationen, bei denen Artificial Intelligence zum Einsatz kommt. So kann beispielsweise die Mimik einer anderen Person auf ein existierendes Video, beispielsweise einer prominenten Person übertragen werden und deren Gesicht vollzieht dann genau die Gesichtsbewegungen nach. Auf diese Weise kann man in Viedos Personen Dinge tun oder sagen lassen, die sie so nie getan oder geagt haben.

 

Fotomanipulationen waren nur der Anfang

Früher war handwerkliches Geschick und Softwarebeherrschung notwendig um mit Bildbearbeitungsprogrammen überzeugende Retuschen und Bildmanipulationen vorzunehmen. Inzwischen gibt es reihenweise Handyapps, die das automatisiert haben. Mal eben die Gesichter mehrerer Personen im Bild vertauschen? Ausprobieren wie ein Mann als Frau oder umgekehrt aussieht? Comicohren und Tiernasen hinzufügen? Kein Problem. Apps wie FaceApp, CamStar, MSQRD oder Snapchat erledigen das in Sekunden. Doch die Ergebnisse dieser Apps waren stets so eindeutig erkennbar, dass sie bestenfalls als Spaßbilder funktioniert haben.

Nun also gibt es Programme, welche Videoaufnahmen täuschend echt manipulieren können und damit die Glaubwürdigkeit selbst der authentischen Aufnahmen in Frage stellen. Gerade im Newsbereich, in der Politik in der Berichterstattung aus Krisengebieten war es schon in der Vergangenheit oft die Wahrheit, die als erstes geopfert wurde. Allein schon die Auswahl, was man gezeigt hat und was nicht, war höchst manipulativ. Doch nun scheinen alle Grenzen aufgehoben...

 

Was ist noch echt?

 

Damit sind natürlich Denunziationen, Falschmeldungen, manipulierten Beweisen, Mobbing, persönlicher Rache etc. Tür und Tor geöffnet. Das Internet macht es den Betroffenen schwer, die Täter zu indentifizieren, die meisten bleiben anonym und hinterlassen keine Spuren im Web. Die wenigen bisherigen Strafverfahren basieren zudem lediglich auf dem Bruch von Nutzungsrechten der verwendeten Videos, eine Rechtsprechung bezüglich der eigentlichen Tat, der Bildmanipulation und den möglichen Schäden für die Betroffenen, existiert weitgehend nicht.

Nur sehr zögerlich gewöhnen sich Menschen in Zeiten von "Fake News" an die Tatsache, dass Fotos, Videos und Tonaufnahmen nicht zwingend auch authentisch sein müssen. Selbst erfahrene Foto,- und Video-Forensiker tun sich schwer, Fälschungen zuverlässig zu identifizieren.

Für die Umsetzung dieser Manipulationen kommen diverse Technologien gleichzeitig zum Einsatz. Da gibt es sowohl die Bewegungsanalyse, Animation, Tiefeninformationen, Compositing aber auch Morphing. Zusätzlich werden Artificial Intelligence Algorithmen, meistens von Google (Tensor Flow) verwendet, um die jeweiligen Videos zu analysieren. Eine App namens Fakeapp vereint diverse dieser Techniken in sich und erlaubt es, auf einfache Weise Videomanipulationen herzustellen.

 

Der menschliche Faktor...

Wissenschaftler an der Universität in Albany haben nun einige (bislang) untrügliche Zeichen identifiziert, an denen man derartige Fakevideos erkennen kann. Am Augenfälligsten im wahrsten Sinne des Wortes ist der Umstand, dass die Personen in solchen Videos nicht blinzeln. Diese für den Menschen absolut essentielle, reflexartige Bewegung des Augenlides wurde von den Programmierern offensichtlich vergessen.

Ein weiteres Indiz ist das fehlende Ein,- und Ausatmen,- die gefakten Videopersonen müssen nicht atmen, haben auch keinen ansteigenden oder sinkenden Blutdruck, oder gar Herzschlag. Es ist sicherlich nur eine Frage der Zeit, bis man versuchen wird, diese biologischen Prozesse den entsprechenden Programmen beizubringen. Dass dies aber nicht so einfach werden wird, zeigt der aus modellierten 3D Charaktären bekannte "Uncanny Valley" Effekt, der selbst hochkomplexe und extrem realitätsnahe Animationen stets als unecht erkennbar werden lässt.

Bei Google ist die Anfrage nach Deepfake Tutorials ganz oben platziert, scheinbar besteht weltweit großes Interesse, selber Videoaufnahmen zu manipulieren. Noch ist es das Augenblinzeln, das Atmen, sind es die kleinen Unterschiede, welche die Manipulationen entarnen können,- doch wiel lange noch? Vor allem bleibt eines klar,- man darf nicht alles glauben und muss Videos heutzutage noch kritischer in Frage stellen...

 

Neu im Shop

Banner Regie GK 4000

Weitere neue Artikel

Premiere Pro und After Effects bekommen mächtige Verbesserungen spendiert, die viel Zeit sparen...

Krankenhäuser sind wie Brenngläser für menschliche Schicksale, -kein Wunder, dass so viele Filme und Serien genau dort angesiedelt sind...

Warum große Katastrophen die Zuschauer seit Anfang der Filmgeschichte bis heute in die Kinos gelockt haben...

Irgendwann ist es passiert, man hat vergessen, Videodateien auf den Rechner zu kopieren und die SD Karte für neue Aufnahmen formatiert. Was kann man tun?

Wie die Nazis im 3. Reich sogar die Märchenfilme für ihre Propaganda instrumentalisierten...

Warum das, was uns Medien aller Art als Schönheit präsentieren, verlogen und für das Kino und uns Menschen herausfordernd ist...

Es ist ein Tabu, man redet nicht darüber, wie absolut unfair sich manche Schauspieler an Filmsets verhalten...

Segen und Schwächen der KI werden deutlicher. Warum nehmen die Halluzinationen der KI immer mehr zu?

Kameras und Scheinwerfer sind nicht auf dunkle Hauttypen abgestimmt,- die Geschichte einer technischen Ungleichbehandlung

Sie kommen selten vor, doch sie ziehen eine deutliche Spur durch die Filmgeschichte,- wir schauen auf die Highlights...

Hersteller von KI getriebener Musiksoftware geben zu, ihr KI Modell mit kommerziellen Songs trainiert zu haben. Das bedeutet Ärger!

Zu den wichtigsten Tools für die Schärfeerkennung gehört die Einfärbung der scharf abgebildeten Konturen