MC18 NOV17x2

Open menu

Social Media Icons Shop 55

Meer

 

Dank Artificial Intelligence und neuen Videotools ist es kinderleicht geworden, Videos zu fälschen. Besonders beliebt: Fake Pornovideos mit Promis. Plötzlich tauchen dank AI zahlreiche ziemlich echt aussehende, manipulierte Sex-Videos von amerikanischen Promis auf, bei denen Videoaufnahmen der Stars mit irgendwelchen Sexvideos kombiniert wurden. Opfer sind unter anderem Schauspielerinnen wie Scarlett Johansson, Taylor Swift und Emma Watson. Aber auch zahlreiche Privatpersonen müssen die denunzierende Rache ihrer Verflossenen in Form von Pornostreifen mit ihrem Konterfei erleiden. Revenge-Porn nennen das die Amerikaner, womit sowohl Privataufnahmen, die nicht für die Öffentlichkeit gedacht waren, als auch neuerdings dreiste Fälschungsvideos gemeint sind, die plötzlich im Internet die Runde machen.

 

Pandoras Büchse

Die geschriebene Lüge ist so alt wie die Schrift, Propaganda in Wort und Bild gibt es seit dem Buchdruck. Bildmanipulationen sind schon lange möglich, doch wenn man sie für Videos bewerkstelligen wollte, etwa um ein anderes Gesicht in eine vorhandene Videoaufnahme sauber einzubauen, war dafür ein großer Aufwand notwendig. Schließlich mussten die Bildkompositionen Bild für Bild mit aufwändigen Masken und Retuschen bewerkstelligt werden.

SFX Artists wären lange mit so etwas beschäftigt, doch seit Januar 2018 gibt es Apps, die diesen Job automatisieren und die Videofälschungen mit hoher Präzision ermöglichen. Im Grunde genommen hat Snapchat das Verfahren in einer primitiven Variante schon seit Jahren angeboten und auch Apps wie FaceApp, bei denen man sein eigenes Gesicht verjüngen oder altern lassen kann, verwendeten ähnliche Techniken.

2017 hatte die Universität in Washington es mit Hilfe von Artificial Intelligence geschafft, Gesichtsmimik und Lippenbewegungen eines Videos von Ex-Präsident Obama auf einen nur als Tonaufnahme vorhandenen Text von ihm automatisch zu synchronisieren. Das Ergebnis war überzeugend.

Ein anonymer User der sich "Deepfakes" nennt, hat im Dezember 2017 auf Reddit erläutert, wie er derartige Manipulationen mit Hilfe von Analysetools und freier Software bewerkstellige, wobei die Aufgabe der Artificial Intelligence vor allem darin besteht, für die gewünschte zu fälschende Videosequenz passende andere Videos zu finden, in denen die Gesichter und Bewegungen der Promis oder Privatpersonen in ähnlichem Bildwinkel, ähnlichem Licht und mit ähnlichen Bewegungen zu sehen sind.

 

Alles ist vergiftet

Eigentlich war in Zeiten von Fake-News und Bots nicht mehr allzu viel übrig, dem man im Internet vertrauen konnte, Videos gehörten mehr oder weniger noch zu dem, wovon man wusste, dass Laien sie nicht so leicht manipulieren konnten. Das hat sich grundlegend geändert. Der Grundsatz "Ich glaube nur, was ich sehe" hat seine Basis in Bezug auf Videos quasi über Nacht veroren. Die Verfügbarkeit zahlloser Videos von Personen öffentlichen Interesses eröffnet potentiellen Manipulationen schier unbegrenzte Möglichkeiten. Während man früher bei der Suche nach den Urhebern derartiger gefälschter Videos den Kreis sehr genau auf professionell Firmen eingrenzen konnte, kommt mit den neuen Techniken nahezu Jeder als Hersteller in Frage.

In einer Zeit, in der Wutbürger und Hassprediger ihre Meinungen durch das Internet posaunen, in der Mitschüler es als Gag empfinden, Andere aus ihrer Schule per Social Media zu denunzieren, sind die Chancen, dass die neuen Video-Manipulationsverfahren erheblichen Schaden anrichten werden, sehr groß. Neben moralischen Angriffen auf Prominente können natürlich auch Politiker durch gefälschte Videoaufnahmen diskreditiert werden.

Wo die Promis zumindest die Presse und Anwälte zur Verfügung haben, sich zu wehren, sind Privatpersonen zumeist schutzlos den Angriffen ausgeliefert. Andererseits sind die Rechte auf Privatheit bei "Personen öffentlichen Interesses" oftmals schwer einzuklagen, weil die Videos dieser Personen ja bewusst für den freien Zugang durch die Öffentlichkeit publiziert wurden.

 

 

Fotomontage

 

Viele der anonymen Urheber gefakter Videos reklamieren für sich, dass sie eine neue Technologie kreativ nutzen würden und keinerlei Absichten hätten, Jemand zu schaden. Eine schwierige Argumentation, schließlich werden Videos im Web so oft vervielfältigt, dass man sie praktisch nicht mehr löschen kann, selbst wenn man den oder die Urheber ausfindig gemacht hat.

Fast scheint es, als wenn das Web auf derartige Fälschungen noch gar nicht vorbereitet ist, jedenfalls gibt es noch keine Software, die derartige Manipulationen automatisch erkennt. Bei den neuen Systemen sind auch die Kanten an denen die zusammengesetzten Bildebenen aufeinander treffen, viel sauberer in den Übergängen, als etwa bei dem Bild über diesem Text, wo man besonders bei den Haaren gut erkennen kann, was hinzugefügt wurde.

Der Umgang mit dieser neuen Art der Bedrohung von Wahrheit muss erst noch erlernt werden. Unsere Kritikfähigkeit, unser wacher Zweifel und unser gesunder Menschenverstand werden in Zukunft auf noch härtere Proben gestellt. Facebook, Youtube & Co werden uns diese Aufgabe nicht abnehmen.

 

Weitere neue Artikel

Wie Animatronics die phantastische Nähe bei Aufnahmen von Wildtieren erst möglich machen

Der Film hatte mehrere Erfinder. Das was im November 1895 im Berliner Wintergarten passierte, war der Beginn der Deutschen Filmgeschichte.

Die ersten Filmscheinwerfer waren furchtbar, doch die Schauspieler*Innen ließen sich nichts anmerken

Handys sind aus unserem Alltag nicht mehr wegzudenken, wie finden sie Eingang in Filme und Serien?

Es ist ein schwieriges Kapitel und schwer nachzuvollziehen, weshalb Film & Kino in den Schulen kaum vorkommen

Wenn man über Schauspiel-Ikonen spricht, fällt ihr Name sofort. Was war das Erfolgsgeheimnis der beliebten Schauspielerin?

Worauf muss man bei Handgriffen (Handles) achten, um sauber aus der Hand drehen zu können?

Zwischen dem ersten Weihnachtsfeiertag und dem 6. Januar liegen zwölf Nächte, welche die Fantasie auch von Filmemacher*Innen anregen...