• Bluebox

    green screen1 2000

    Green-Screen in einem Keying-Studio

     

    Keying

    Compositing bedeutet das tricktechnische Zusammenfügen verschiedener Elemente in ein Bild. Es bietet heutzutage schier unendliche Möglichkeiten. Heutige Fantasy-Filme kommen ohne Keying-Tricks kaum mehr aus. Im Harry-Potter-Film etwa saßen die Darsteller für die Quidditch-Szenen natürlich nicht auf fliegenden Besen. Sie saßen vielmehr in einem Keying-Studio (Grün oder Blau) und wurden auf einer Drehwippe herumgewirbelt. Die digital ausgestanzten Aufnahmen wurden dann im Compositing mit separaten Vorder- und Hintergründen (Multilayer) kombiniert.

     

    Maskieren

    Eishexe2

    Eishexe

    Im Prinzip können Sie viele Möglichkeiten, die es für Filme gibt, bei allen wichtigen Photo-Bearbeitungsprogrammen kennen lernen. Deren Plug-Ins stehen in abgewandelter Form auch den Trickstudios zur Verfügung. Je höher die Auflösung des Bildes, desto feiner muss die Kontur ausfallen. Sie kennen den Aufwand, eine Figur vernünftig freizustellen. Entlang der Außenkante der Figur muss möglichst präzise eine Grenze gezogen werden. Bevor die Stern-, Licht- und Nebeleffekte zum Einsatz kommen können, muss der „banale“ Hintergrund des Originalbildes, Bäume und ein grauer Himmel maskiert werden. Wäre die Originalaufnahme vor einem neutralen, keyfähigen Hintergrund (z. B. Blue-Screen) aufgenommen worden, wäre es für Compositing-Programme ganz leicht, die Zauberin zu isolieren und vor einen anderen Hintergrund zu setzen.

    Schwierig, bei einem solch unruhigen Hintergrund die Hauptfigur zu isolieren. Da beim Film jedes einzelne 35mm-Bild auf der Kinoleinwand bis zu zehntausendmal vergrößert wird, ist klar, dass die so genannte Maske, mit der man den Hintergrund verschwinden lässt, um ihn durch einen anderen zu ersetzen, besonders präzise an der Kontur entlang verlaufen muss. Am schwierigsten ist erfahrungsgemäß der Bereich der Haare. Ungenauigkeiten lassen hier jede Art von Trickverfahren durchschaubar werden.

     

    Das Keyingverfahren

    Green Screen 4000

     

    Wer diesen Job für die relativ grobe Auflösung des Computer-Bildschirms manuell schon mal gemacht hat und sich vorstellt, er müsse dies von Hand pro Sekunde 24 Mal (für die Einzelbilder beim Film) tun, sieht schnell ein, dass die Genauigkeit und der Arbeitsaufwand andere Lösungen erfordern: Keyingverfahren. Wie das Wort schon sagt, wird ein bestimmter Key, ein Schlüssel, verwendet, der es dem Trickmischer oder Compositing-Programm ermöglicht, ganz präzise und leicht eine Person vom Hintergrund zu isolieren, um sie vor einen anderen Hintergrund zu montieren. Der Key ist in diesem Fall eine Farbe, etwa Grün oder Blau (Green- oder Blue-Screen). Der Schauspieler/die Schauspielerin agiert vor einem einheitlichen grünen Hintergrund und dieser lässt sich dann im Computer zu einer Maske umrechnen. Wird statt des grünen Hintergrundes dann eine Wolkenlandschaft montiert, kann unsere „Zauberin“ aus dem Beispiel schon fast fliegen. Damit es wirklich echt aussieht, hängt man bei Flugszenen die Darsteller übrigens an Stahlseile (die man über Key rausfiltert oder digital retuschiert), lässt ihnen mit der Windmaschine Haare und Kleidung ordentlich durchpusten.

     

    Transparenz

     

    Bildmischer und Compositing Programme verwenden neben den Bildinformationen den so genannten Alpha-Kanal. Dieser liefert Informationen über den Key, insbesondere über dessen Transparenzen, mit einem üblichem 8-Bit-Kanal können 256 Transparenzstufen von komplett undurchsichtig bis völlig transparent definiert werden. Durch Festlegung dieser Transparenz werden die Übergänge feiner, die Weichheit, mit der eine Grafik in eine andere gestanzt wird, insbesondere an den Key-Rändern besser abgestuft. In der Kombination (hier ohne Key-Funktion) werden dann zwei getrennte Bilder so kombiniert, dass der Eindruck entsteht, es handle sich um ein einzelnes, homogenes Bild. Da die Kinoprojektoren mit 24 Bildern pro Sekunde laufen und Filmbilder eine sehr hohe Auflösung besitzen, haben die Computer eine ganze Menge Arbeit, ganze Einstellungen zu berechnen (rendern). Im Kino können auf diese Weise die Filmfiguren ohne jede Gefahr scheinbar zwischen Wolkenkratzern fliegen, hinunterstürzen, alle Arten von Waffen und Wurfgeschossen abwehren, so ziemlich alle Gesetze der Schwerkraft überwinden, durch das Weltall reisen und vieles andere mehr.

    Die Nachrichten und Magazine im TV arbeiten übrigens auch fast alle mit diesem Verfahren. Die Sprecher*Innen agieren alle vor grünem Hintergrund. Auf dem Bildschirm werden als Hintergrund Weltkarten, Filmbeiträge oder ganze Nachrichtenredaktionen mit hunderten Bildschirmen gezeigt.

     

    Vorsicht!

    Übrigens sollte man es vermeiden, die Key-Farbe (oder ihre Spiegelung) im Kostüm auftauchen zu lassen. Denn dann wird logischerweise der Darsteller an dieser Stelle genauso durchsichtig wie der Hintergrund. Andererseits kann man sich diesen Effekt natürlich auch gezielt zunutze machen. Besonders empfindlich sind alle elektronischen Stanzverfahren gegen Spiegelungen und Reflektionen. Ein Auto vor einer grünen oder blauen Leinwand bedeutet unweigerlich gespiegeltes Grün oder Blau auf Chrom, Fenstern und sogar Lack! Und überall werden dann auch die gespiegelten Key-farben ausgestanzt (Horror!).

    Klassische Filmtrick-Verfahren wie die Aufprojektion bieten in Bezug auf Reflektionen deutliche Vorteile, auch wenn es nicht so chic klingt wie Green- oder Blue-Screen.

     

  • Filmausbelichtung

    Faz – Filmaufzeichnung

    Egal, ob George Lucas in den ersten Star Wars Episoden glänzende Raumschiffe durch den Weltraum jagte, ein Flammenwesen den Herren der Ringe durch unterirdische Gewölbe verfolgte oder ob die Hauptdarsteller der "Toy Story", "Monster-AG" oder von "Final Fantasy" nur noch aus dem Computer stammten: Irgendwie mussten die Bilder in Zeiten vor den DCPs in Form von analogen Filmkopien ins Kino kommen.

     

    Filmbelichtung war nicht immer digital

    Früher gab es nur relativ wenige Wege, Bilder auf Filmmaterial zu bringen. Der verbreitetste war, durch ein Objektiv in der Filmkamera das Filmmaterial zu belichten. Einige experimentierfreudige Filmemacher belichteten auch schon mal mit Taschenlampen und Wunderkerzen direkt auf den unbelichteten Film. Ja, und dann gab es auch noch Künstler, die direkt auf Blankfilm malten oder mit Nadeln die Schicht in Schwarzfilm auskratzten. Der Kanadier Norman Mc Laren entwickelte diese Trickkunst zur Perfektion.

     

    CRT-Belichter

    Mit dem Verschmelzen von elektronischem Bild und klassischem Film wurden weitere Verfahren entwickelt, Bilder auf Filmmaterial zu belichten, die so genannten Ausbelichter. Die ersten arbeiteten mit modulierten Elektronenstrahlen aus Kathodenstrahlröhren (Cathod Ray Tube) – so genannte CRT-Belichter – und zeichneten Bilder Punkt für Punkt statt auf einen Fernsehbildschirm auf Filmmaterial. Sie können aber keine sehr hohe Farbdichte erzeugen, haben manchmal Probleme mit Streulicht und sind relativ langsam. Nur ein einzelnes Bild in hoher Auflösung auszubelichten kann 30 bis 40 Sekunden in Anspruch nehmen. Man kann sich leicht ausrechnen, wie lange so ein Gerät an einer einzigen Filmminute arbeiten muss. Ein abendfüllender Film kann einen solchen Filmbelichter problemlos einige Wochen beschäftigen.

     

    Laser-Belichter

    Laser-Belichter

    Die modernen Ausbelichter arbeiten immer häufiger mit moduliertem Laserlicht aus drei Gaslasern der Farben Rot, Grün und Blau. Vorteile des Laserbelichters sind vor allem eine höhere Bildqualität und Geschwindigkeit. Allerdings haben die horrenden Wartungskosten dieses Verfahren bei den Investoren nicht gerade beliebt gemacht. Neuere Entwicklungen setzen erstmals Festkörperlaser ein, die weit weniger Wartungskosten erzeugen und zudem nochmals schneller sind. Die drei Laserstrahlen werden optisch zusammengeführt und schreiben über einen rotierenden Spiegel die Bildzeilen auf den kontinuierlich transportierten Negativfilm. Ein einzelnes Filmbild in hoher Auflösung kann damit in vier bis fünf Sekunden belichtet werden. Für einen ganzen abendfüllenden Film sind damit nur noch einige Tage erforderlich.

     

    Test halfen, das beste Verfahren zu ermitteln

    Die Entscheidung für ein bestimmtes Verfahren ist schwierig, weil es viele qualitätsentscheidende Faktoren gibt. Da treffen einfach zwei Welten, die digitale Videotechnik und die analoge Filmaufnahme aufeinander. Der Vorgang ist stets mit großen Veränderungen verbunden, die man unbedingt steuern und nicht dem Zufall überlassen sollte. Die Kombination verschiedener Ausbelichter und Positivmaterialien führt zu sehr abweichenden Resultaten. Ob es eher schmuddelig oder technisch klar bis hin zu überscharf aussieht, darüber entscheidet auch die Justierung der Belichter und die Interpolation (Algorithmen). Interpolation ist der Vorgang, in dem aus Halbbildern (siehe Fernsehen) Vollbilder gemacht werden. Aus je einem ungeraden und einem geraden Halbbild (1+2, 3+4 etc.) wird ein Vollbild gerechnet. Man kann die Bilder jeweils verdoppeln oder aber interpolieren (zusammenrechnen). Die erste Variante vermindert Bewegungsunschärfe bei halber Auflösung, die zweite Methode erzielt die volle DV-Auflösung. Es ist deshalb angebracht, für Ihr individuelles Projekt Tests zu machen, um die gewünschte Wirkung zu erzielen.

     

    Auflösung

    Kein Wunder, dass die Höhe der Auflösung auch über Dauer und Preise entscheidet. Man unterscheidet im Prinzip zwischen 2K, das sind 2000 Bildpunkte pro Zeile, und 4K, 4000 Bildpunkte pro Zeile. Die höhere Auflösung entspricht fast der Filmauflösung und ist damit für Kinozwecke angesagt. Doch Auflösung ist, wie wir wissen, nicht alles. Ein Unterschied der Ausbelichtung von Video, bei dem jeder Bildpunkt starr immer an der gleichen Stelle sitzt, zum Film ist, dass auf dem Filmmaterial winzige Farbpigmente nach dem Zufallsprinzip jeweils in der Nachbarschaft zueinander sich abwechseln, eine bestimmte Farbe wiederzugeben, bzw. wegzufiltern. Die effektive Auflösung sinkt dadurch auf die erwähnten 4K, aber durch diesen Effekt wirkt eine Filmaufzeichnung organischer als eine Videobelichtung. Um diesen Effekt abzuschwächen, werden beim Ausbelichten auf Wunsch per Software ähnliche Zufallsmomente bei der Wiedergabe benachbarter Pixel in die Bildinformation hinein gerechnet.

     

    Tricks, Effekte und Zukunftspläne

    Der Bedarf an Geräten zur Filmbelichtung ist in den letzen Jahren enorm gestiegen. Was nützen schließlich die tollsten im Computer berechneten Tricks und Effekte, wenn man sie nicht auf Film bringen kann? Festplatten voller Dinosaurier, fliegender Superraumschiffe oder futuristischer Welten sind im Kino wenig wert. Der Versuch, neue Videoverfahren wie 24P als Alternativen zu 35mm-Film zu etablieren, ist ohne die Ausbelichtung der geschnittenen Videotapes auf Film undenkbar. Momentan sind aber die Kosten für die Miete des teueren Equipments und eine hochwertige Ausbelichtung so exorbitant, dass der Dreh auf 35mm-Film in den meisten Fällen die günstigere Alternative bleibt. Ganz abgesehen davon ist es in Bezug auf die Bildqualität und Farbauflösung bisher auch die höherwertige Lösung.

     

    Doch dies sind nicht die einzigen Einsatzzwecke. Auch bei der Restauration alter Filme werden Computerprogramme eingesetzt. Die alten Kopien oder (wenn noch vorhanden) Negative werden hochwertig abgetastet, im Computer bearbeitet und anschließend wieder ausbelichtet. In den USA ließen alle großen Studios nach und nach ihre ganzen Klassiker auffrischen. Leider bleibt es nicht immer beim Auffrischen. Auch das nachträgliche Kolorieren ursprünglich schwarzweißer Filme gehörte zu den Einsatzgebieten dieser Systeme.

     

    Längst kommen fast alle Filme von Festplatte in Form von DCPs in die Vorführräume.
     
  • Maskentricks

    Maske Stanz 2 500Für digitale Tricks sind Masken besonders wichtig. Wir erläutern die Basics.

  • Visual Effects

    VFX 3D

    Dass hier in Wirklichkeit viel weniger und kleinere Zelte stehen, weiß nur der VFX-Artist

     

    Digitale Effekte sind aus internationalen Fantasy-Großproduktionen gar nicht mehr wegzudenken. Die stetige Weiterentwicklung von Hard- und Software eröffnet heute Möglichkeiten, die einen hohen Grad an Realismus möglich machen.

     

    Peter Jackson mit seinen "Herr der Ringe" Adaptionen oder mit "King Kong" gehört sicher zu den Regisseuren, die besonders intensiv in die digitale Trickkiste greifen. Aber auch Filme wie "Batman", "Matrix","Harry Potter", "Star Wars" oder "Krieg der Welten" wären ohne VFX nur halb so interessant.

    Die Arbeitsabläufe beginnen mit der Planung. Im sogenannten Concept-Design legt man die Örtlichkeit, die Szene, Licht etc. fest. Anschließend erstellt man im sogenannten Modelling das 3 D Modell.

     

    Regeln, auf welche Weise das Modell auf Licht reagiert, also ob die Oberfläche glatt, rauh oder etwa matt ist, werden im Shader Writing festgelegt. Im Texturing wird die Oberflächentextur festgelegt. Hier werden Haut, Haare, Fell, Kleidung etc. definiert. In der Animation wird ein 3-D Modell (Nurb) in Bewegung versetzt.

     

    Im Effects- Bereich werden besondere Medien wie Nebel, Wind, Wasser, Feuer etc. hinzugefügt. Lichteffekte und Wirkungsweisen wie Einfallswinkel, Schattenbildung etc. werden hinzugefügt. Im Compositing werden die erstellten Effekte dann mit Hintergründen oder Realaufnahmen kombiniert.

     

    Bildergänzungen

    Kirche

    Was es in Wirklichkeit nicht gibt, kann vom VFX- Design für den Film nachgebildet werden

    VFX, so die Kurzform für Visual Effects, spart den Produzenten häufig gigantischen Bau-Aufwand, indem nur bestimmte Bereiche des Motivs real gebaut, und der überwiegende Teil dann später im Rechner hinzugefügt wird. Man spricht dabei von "Set-Extentions"

     

    Das Verfahren ist aus der Frühzeit des Films bekannt, der deutsche Kameramann Eugen Schüftan hat seinerzeit mit Spiegeltricks die real gebauten Kulissen erweitert und damit Grundlagen für heutige VFX-Techniken vorweggenommen.

     

    Bereits Klassiker wie Ben Hur nutzten Matte-Verfahren, um für Totalen nicht das ganze Kolosseum in Rom nachbauen zu müssen. Man baute nur den unteren Teil und ergänzte dann die oberen Reihen optisch.

     

    Die damaligen eingespiegelten oder auf Glasplatten gemalten Bildergänzungen hatten vor allem den Nachteil, dass sie starr und unbeweglich waren. Die heutigen digitalen Nachfolger können die einmontierten Bildteile selbstverständlich in animierter Form bereitstellen und damit ein höheres Maß an Realismus erzielen.

     

    In Jacksons "King Kong" wurde etwa als Set der Times-Square des Jahres 1933 nur bis zur ersten Etage real nachgebaut und die übrigen Etagen wurden mit dem Computer generiert. (CG)

    Selbstverständlich kann man auch Bildfehler korrigieren, wenn etwa ein Komparse in einer ansonsten hervorragenden Einstellung kurz in die Kamera schaut, lässt der VFX- Operator eben in dem Moment eine andere Person vor dem Komparsen durchs Bild gehen.

     

    Auch die Wettersituation lässt sich gezielt steuern. Ein bedrohlicher, dunkler Wolkenhimmel lässt sich problemlos einem eigentlich nur sanft und freundlich bedecktem Motiv hinzufügen. Dafür können Realaufnahmen eingefügt, oder aber hochauflösende Fotos per Morphing-Programm animiert werden.

     

    Wasserspiele

    Zu den größten Herausforderungen gehört nach wie vor die Simulation von Rauch und Wasser. Bettet man Studioaufnahmen mit Schauspielern vor Green oder Blue Screen in CGI- Hintergründe ein, wird häufig reales Wasser verwendet.

     

    Schauspielern, die auf einem Schiffsnachbau im Studio agieren bekommen reales Wasser ins Gesicht gespritzt. Auch für das Einbetten von Wasserflächen in CGI-Welten werden häufig Realaufnahmen eindigitalisiert, verfremdet und in die künstlich entworfene Welt hineinmontiert. Diese Arbeit übernehmen Compositeure. Insbesondere Meeressituationen mit unterschiedlicher Wellenstruktur und Verwirbelungen sind extrem schwer zu simulieren.

     

    Die Verwendung von real gefilmten Elementen (Footage) erlaubt organischere, realistischere Ergebnisse. Für die Aufnahmen eines animierten, mehrere hundert Jahre alten Segelschiffes, verwendet man echte Bugwellen (Water-Plates), die von einem realen, grün gestrichenen Verdrängerschiff erzeugt werden. Damit sich das 3D Modell organisch in das Bild vom realen Meer einfügen lässt, versieht man den Kutter zusätzlich mit Trackingpunkten, um die Wasserbewegungen auch des Begleitschiffes, von dem aus gefilmt wird, in das 3-D Programm einberechnen zu können.

     

    Creatures

    Während in der filmischen Frühzeit Fabelwesen entweder von Menschen in entsprechenden Fellkostümen oder durch Puppen (geführt oder animiert) dargestellt wurden, arbeitet man heute vorzugsweise mit Animationsprogrammen. Ganz überflüssig sind die menschlichen Darsteller auch heute nicht, denn die Mimik und die Bewegungen der Fabelwesen werden, um einen realistischen Eindruck zu bekommen, per "Motion Capture" von Menschen übernommen.

     

    Während die grundsätzlichen Abläufe über Gitternetze (mit einfacher Nurbs-Geometrie oder im Polygon-Modeler, Bewegungs-Rig) programmiert werden, stellen anschließend vor allem die Oberflächen (Textures) eine große Herausforderung dar. Insbesondere Haare, aber auch Haut sind nur schwer realistisch aussehen zu lassen.

     

    Die Spezialisierung bei den Schöpfern animierter Wesen ist inzwischen sehr weit fortgeschritten. So gibt es eigene Haarspezialisten, die sich darum kümmern, Haare oder Fell möglichst natürlich aussehen zu lassen. Für eine Nahaufnahme können da leicht mehrere Zehntausend Haarbüschel erforderlich sein, der Wuchs und Verlauf möglichst naturgetreu verlaufen müssen.

    Sogenannte Deformer, wieder andere Spezialisten müssen sich dann später in einem weiteren Arbeitsgang darum kümmern, die Einflüssen von Wind, Bewegung und Dynamik auf die Haare und das Fell zu übertragen. In einem weiteren Arbeitsschritt müssen dann die Lichtverhältnisse auf die Haare übertragen werden. Wie wird das Licht an den Haaren gebrochen, wird es reflektiert oder leuchtet es auch hindurch? Wie reagiert es im Auflicht, wie bei Gegenlicht?

     

    Motion Capturing

    Damit animierte Fantasiewesen oder Menschen möglichst realistische Bewegungsabläufe haben, lässt man die Bewegungen von echten Menschen ausführen und zeichnet die Bewegungsdaten mit sogenannten Motion-Capturing (Mocap) Systemen auf. Hierfür werden am Körper und Gesicht des Menschen Markierungspunkte angebracht, welche später verwendet werden, um den künstlichen CGI- Wesen die gleichen Bewegungsabläufe zu verleihen.

     

    Für die Ganzkörperbewegungen (Full Body Performance) ziehen die Darsteller hautenge schwarze Kostüme an, die mit Marken versehen sind. Die Aufnahmen geschehen vor schwarzem Hintergrund, sodass die hellen Markierungspunkte leichter zu erfassen sind.

    Sogenannte Motion-Editoren analysieren die Abläufe mit Hilfe spezieller Software und übertragen diese in Form einer Keyframe Animation. Dafür werden häufig nur bestimmte Phasen der Bewegung als Einzelbilder eingelesen und als sogenannte Key-Poses verwendet, während daraus dann die Zwischenphasen (In Betweens) erstellt werden.

     

    Besonders schwierig ist es, Gesichtsmuskeln auf animierte Wesen zu übertragen. Die hohe Zahl der an unserer Mimik beteiligten Muskeln erfordert für das Motion-Capturing (Facial Mocap) besonders viele Bezugspunkte (über 100 Punkte) im Gesicht.

     

    Rechenarbeit

    Auch wenn in den Animationsstudios Hochleistungsrechner ihre Arbeit verrichten, dauert die Berechnung eines einzelnen Bildes mehrere Stunden. Schuld daran sind nicht etwa die geometrischen Konstruktionen, die sogenannten Nurbs, geometrische meist polygone Formen, die je nach organischer Beschaffenheit in mehreren Arbeitsgängen in immer kleiner geometrische Einheiten aufgeteilt sowie weich und rund gerechnet werden, sondern die Oberflächen. Gängige Programme für 3 D sind: Alias Maya, 3ds Max, Softimage XSI, Lightwave, Cinema 4D.

     

    Dabei spielt es eine enorme Rolle, in welcher Auflösung die künstlichen Welten erstellt werden. Bei komplizierten Totalen mit vielen Details, die für 35mm Kinofilm erstellt werden, sind Auflösungen beispielsweise von 2732x4096 Pixel  oder 2048X4096 Pixel für die Oberflächen oder Hintergründe durchaus sinnvoll. Die Szenen werden  in 2 oder 4k angelegt. Bei 1.85:1 oder gar 2.35:1 werden die Seitenverhältnisse entsprechend auf das jeweilige Format angepasst.

     

    Da die Office-Rechner speziell mit ihren Dual- oder gar Quad-Prozessoren und 64 bit Architektur immer erschwinglicher werden, kann der Heimanwender anspruchsvolle Vorhaben durchaus auf diesen Geräten ausführen. Hier hat eine ungeheure Demokratisierung der Produktionsmittel stattgefunden. Besonderer Engpass bleibt sicher die Datenmenge, die entsteht, wenn man für HD oder das Kino arbeiten möchte. Und natürlich die Zeit, denn realistische CGIs und 3D Animationen benötigen extrem viel Manpower.

    Tendenziell werden die Rechner Jahr für Jahr immer schneller und auch die Software wird effektiver. Damit werden künftig immer größere kreative Freiräume für die VFX-Artisten möglich.

     

     

  • Wunden

    Filmblut 500Der Klassiker an Filmsets bei nahezu jedem Horrorfilm,- Filmblut und wie man es selber anmischt...