DVD

  • 3D

    3D-Filme

    View Master

    View-Master hieß das 3D-Standbild-Vergnügen der 60er und 70er Jahre mit kultigen Bilderserien aus aller Welt.

    Es war schon immer der Wunsch des Menschen, Abbilder möglichst dreidimensional wirken zu lassen. Ob es geschnitzte oder gemeißelte Skulpturen waren, die realer als Gemälde wirkten, oder die kurz nach der Erfindung der Fotografie bereits in den 50er Jahren des 19. Jahrhunderts verbreiteten Stereoskopen, doppelte Daquerrographien, stets versuchte man, die Wirklichkeit möglichst greifbar abzubilden.

     

    Sehr früh schon wusste man um den leicht versetzten Sehwinkel von linkem und rechtem Auge, davon, dass unser Gehirn diese Informationen zur Bestimmung von Abständen benötigt. Jedes Auge betrachtet die Wirklichkeit aus einer leicht anderen Perspektive. Wer sich ein Auge zuhält, und Gegenstände vor sich im Raum greifen möchte, spürt sogleich, dass die Einschätzung von Distanzen in diesem zweidimensionalen Sehen schwieriger fällt.

     

    Farbige Filterbrillen führen den jeweils komplementären Bildauszug dem linken oder rechten Auge zu

    Die Versuche, auch das Kino dreidimensional abzubilden, gehen weit zurück. Bereits in den 50er Jahren des 20. Jahrhunderts gab es schwarzweiße 3D-Filme, die man mit Hilfe von farbigen Filtern in Brillen dreidimensional sehen konnte. Es war die Zeit, in der das Kino mehr und mehr Zuschauer an das Fernsehen verlor und man durch breitere Leinwände und eben 3D-Filme das Publikum wieder zurückerobern wollte.

    Farbige Filterbrillen führen den jeweils komplementären Bildauszug dem linken oder rechten Auge zu.

     

    Es ist kein Zufall, dass in Zeiten, wo die Kinobesucherzahlen schwinden, der Kampf gegen die DVD und BluRay wieder mit 3D-Know-how geführt werden soll. Allerdings hat sich der anfängliche Hype um das plastische Kinoerlebnis bereits wieder gelegt und man erwartet nicht mehr von jedem neuen Kinofilm, dass er aufwändig mit häufig recht sperriger Kameratechnik dreidimensional gedreht wird.

     

    Die Anfänge

    Doch zurück zu den Anfängen in den 50ern. Auf der Leinwand waren die Bilder zweier, im Augenabstand versetzt angeordneter Aufnahmen zu sehen, die jeweils Grün oder Orange gefärbt waren. Man spricht hier auch vom Anaglyph-Verfahren. Die Filterfolien, grün und rot in den Brillen ordneten die übereinandergelagerten Bilder im Film jeweils einem Auge zu und ermöglichten so räumliches Sehen. Nachteil ist, dass die Filme so nur in Schwarzweiß wiedergegeben werden können. Besonders eindrucksvoll ist es, wenn Objekte sich auf den Zuschauer zu bewegen, ansonsten ist das Sehvergnügen durchaus auch anstrengend.

     

    Eine weitere Alternative stellen Polarisationsbrillen dar, die jedem Auge eine getrennte Bildinformation anbieten. Das Bild für das linke Auge wird etwa senkrecht polarisiert, das für das rechte waagerecht. Viele 3D-Filme der 50er Jahre wurden im Polarisationsverfahren gezeigt und lieferten hervorragende 3D-Qualität. Die Polarisationsfilter lassen Licht jeweils nur in einer Wellenrichtung durch. Entsprechende Spezialbrillen ordnen dann die unterschiedlichen Teilbilder den Augen zu, dieses Verfahren macht auch Farbfilmprojektion möglich. Die Filmprojektoren im Kino bleiben unverändert, lediglich ein 3D-Objektivvorsatz und eine metallisierte Leinwand (Silberleinwand) sind erforderlich. Bedauerlicherweise wurden die selben Filme dann später in den 70er und 80er Jahren nur noch im Rot/Grün-Filterverfahren gezeigt, wodurch sich der Eindruck einstellt, dass die 3D-Technik nicht allzu weit entwickelt war. Es gab ein gewisses Revival in den 80ern mit "Jaws 3D" oder "Amityville Horror 3D" oder dreidimensionalen Sexstreifen wie "Blonde Emmanuelle".

     

    Aktuelle Wiedergabe-Verfahren:

     

    Anaglyphen-Stereo-ProjektionDie farbigen Filterbrillen sind die Vorläufer heutiger Shutterbrillen, die elektronisch präzise mit dem Projektor synchronisiert sind

     

    Die farbigen Filterbrillen sind die Vorläufer heutiger Shutterbrillen, die elektronisch präzise mit dem Projektor synchronisiert sind. Dieses frühe 3D-Verfahren setzt auf unterschiedliche Farbauszüge und bietet dem Zuschauer zwei überlagerte farbige Monochrombilder an (also eigentlich Schwarzweiß, nur statt Schwarz wird Grün oder Rot verwendet), welche beim Betrachter durch eine Brille mit Farbfiltern (Grün und Rot) auf das linke und rechte Auge verteilt und in ein Schwarzweißbild umgewandelt werden (das rote Brillenglas macht das rote Bild unsichtbar und wandelt das grüne zu einem Schwarzweißbild, das grüne Brillenglas löscht das grüne Bild aus und wandelt das rote in ein Schwarzweißbild).

     

    Aktive Stereo-Projektion

     

    Dieses Verfahren benötigt aufwendige synchronisierbare Brillen, welche im Zusammenspiel mit einer hohen Bildwiederholfrequenz (>100 Hz) jeweils einzelne Zeilen sichtbar oder unsichtbar machen kann. Man spricht in diesem Zusammenhang auch von Shutter-Brillen. Die aktuellen Brillen arbeiten mit Shuttern, die elektronisch abwechselnd jeweils das linke oder das rechte Auge freigeben oder verschließen. Der Filmprojektor liefert die doppelte Anzahl von Filmbildern, jeweils abwechselnd mal die für das linke, mal die für das rechte Auge vorgesehenen Aufnahmen. Bei diesem Verfahren werden die Filme in keiner Weise in ihrer Farbigkeit oder Abbildung beeinflusst, deshalb wird dieses Verfahren etwa in den IMAX-3D-Vorführungen verwendet. Auf Weltausstellungen oder in Museen werden ebenfalls gerne dreidimensionale Welten installiert.

     

    Forscher des Fraunhofer-Instituts (IMK) in St. Augustin haben eine gewölbte Projektionswand - den so genannten I-Cone - entwickelt. Vier Projektoren projizieren Bilder die Betrachter realisieren diese durch spezielle Shutter-Brillen, die abwechselnd Bilder mal dem linken, mal dem rechten Auge zuführen.

     

    Passive Stereo-Projektion

     

    Dieses Verfahren ähnelt der Anaglyphen Projektion, jedoch arbeiten die Filter in der Brille nicht mit Farben, sondern mit Polfiltern, welche gegeneinander verdreht, jeweils nur Bildinformationen mit einer Ausrichtung dem jeweiligen Auge zuführen. Gleichzeitig muss nur noch das Bild abwechselnd mit um 90 Grad versetzter Polarisierung projiziert werden. Vorteil: Man kann Filme farbig projizieren. Nachteil: Helligkeitsverlust.

     

    Autostereoskopische Darstellung/Projektion

     

    Hierbei handelt es sich um Rasterverfahren, mit denen in der früheren Sowjetunion experimentiert wurde: Leinwände, auf denen jeweils leicht angewinkelte Flächen in Reihe nebeneinander angeordnet waren und die dafür sorgten, dass die verschiedenen Bildinformationen jeweils getrennt den Augen zugeführt wurden. Ähnliches gibt es heute bei Flachbildschirmen, die trennen das Bild für den Betrachter ohne Zuhilfenahme irgendeiner Brille (Spatial View).

     

    Overlays

    Die handlichen Scheiben führten im View-Master Betrachter jeweils ein Dia dem linken und eines dem rechten Auge zu, mit beeindruckendem 3-D Effekt

    Die handlichen Scheiben führten im View-Master Betrachter jeweils ein Dia dem linken und eines dem rechten Auge zu, mit beeindruckendem 3D-Effekt.

     

    Eine Variante, welche aus jedem Flachbildschirm ein 3D-Display macht, sind sogenannte 3D-Overlays. Das ist eine Kunststoffoptik, die durch ein Linsenraster die Bildinformationen des Displays auf beide Augen verteilt. Dieses Verfahren verlangt eine genaue Positionierung vor dem Bildschirm und ist daher vor allem für einen Anwender geeignet (Single User). Solche Verfahren nutzen auch manchmal zur Optimierung des Effektes Eye-Tracking Systeme (z. B. Webcam des Displays), um das Bild auf die Position des Betrachters einzustellen. Wenn man dieses System für mehrere Zuschauer auslegt, werden entsprechend mehr unterschiedliche Raster angelegt, um aus unterschiedlichen Blickwinkeln den 3D-Effekt anzubieten.

     

    Mit in diese Art der Wiedergabe gehören auch neue Head-Mounted Displays, also kleine TFTs, die in Brillen eingebaut sind und damit jedem Auge ein getrenntes Bild zuführen können (Cinemizer von Zeiss). Noch ist die Auflösung bescheiden (640x480), doch das Ergebnis bereits durchaus ansprechend.

     

    3D ohne Brille

     

    Mitte April 2005 hat Toshiba hat einen Flachbildschirm vorgestellt, der 3D-Bilder darstellt, ohne dass man eine Spezialbrille aufsetzen muss. Mit Hilfe von Mikrolinsen und Software ist es möglich, in einem breiten Sichtfeld dreidimensionale Bilder betrachten zu können. Im Gegensatz zu bisherigen Systemen kann auch der Betrachtungsabstand verändert werden. Das neue System erzeugt Lichtsignale ähnlich denen eines realen Objektes. Wird gedreht, müssen die Objektive der beiden Aufnahmekameras genau in dem Abstand unserer Augen nebeneinander angeordnet werden.

     

    Wer mit Video oder Film in 3D dreht, muss die Kameras miteinander synchronisieren. Bei Video kann das z. B. über Blackburst oder LANC-Protokoll geschehen. Das Material kann im Fall von Video in eine Workstation eingelesen und digital korrigiert werden. Auf diese Weise können eventuelle Höhenunterschiede und ungewünschter Versatz korrigiert werden.

     

    Viele Standards, sichtbare Schwächen

     

    Noch gibt es diverse technische Ansätze, die häufig nicht miteinander kompatibel sind. Die Digitalisierung des Kinos kommt dem 3D-Film sehr zugute. Klassische Filmkopien, die nach und nach durch Schrammen, Staub und sonstige Abnutzung die Illusion von Dreidimensionalität reduzieren, sind da im Nachteil. Insbesondere die IMAX-Kinos (125 weltweit in 3D), die eine Vorreiterrolle im 3D-Geschäft haben, zeigen nach wie vor Filmkopien. Dafür spricht die dem digitalen Bild noch weit überlegene Bildqualität, dagegen sprechen aber eben der Verschleiß und die hohen Kosten für die Kopien. Jede IMAX-Kopie kostet etwa 30000 Euro - mit eine Erklärung, weshalb IMAX sich nur schwer hält.

     

    Die digitale Produktion, bei der auch leichter die abwechselnden Bildinformationen mit der Shutter-Brille synchronisiert werden können, bietet hier spürbare Vorteile. Die Filme werden vom Server im Kino abgespielt und werden mit 48 Bildern in der Sekunde, also doppelt soviel wie beim konventionellen Kinofilm, je 24 fürs linke und 24 fürs rechte Auge, abgespielt. Die Kopie muss gar nicht erst hergestellt werden, die Daten werden an das Kino überspielt. Die meisten Verfahren, die mit Polarisation arbeiten haben zudem den Nachteil (der aber gerne verschwiegen wird), dass sie die Helligkeit der Projektion durch die eingesetzten Polfilter mehr als halbieren, die Brillanz der Projektion leidet also spürbar.

     

    Digitales 3D-Kino

     

    Filmemacher wie George Lucas, James Cameron, Robert Zemeckis, Robert Rodriguez oder Randall Kleiser unterstützen die Entwicklung des digitalen 3D-Kinos und produzieren Filme für dieses Verfahren. Interessanterweise müssen dafür nicht zwingend Filme neu gedreht werden. Es gibt auch computergestützte Verfahren, 2D-Filme nachträglich dreidimensional werden zu lassen. Dafür rechnet der Computer zusätzlich zum normalen Filmbild, welches dem linken Auge zugeführt wird, einen Versatz aus, der dann dem rechten Auge zugeleitet wird.

     

    Fraglich ist, ob die neuen alten Verfahren dem Kino genügend Vorsprung geben werden. Wer sagt denn, dass nicht heimisches 3D-Vergnügen am Fernseher oder PC den Zuschauern genügen oder sie vom 3D-Kino auf Grund mancher Nebeneffekte (Kopfweh etc.) doch nicht so begeistert sind? Dann wird es Zeit für die Kinoindustrie, ernsthaft über Riech- und Tastkino nachzudenken...

     

  • Box Office

    Die Einspielergebnisse von Kinofilmen sind eine harte Währung und entscheiden über Wohl und Wehe von Verleihern, Produzenten, Regisseuren und vielen Anderen

  • DV: Video

    Digital Video

     

    Untersicht einer Mini-DV-Kassette
    Mini-DV-Kassette und normale DV-Kassette

     

    Jene unscheinbaren Kassetten, kaum größer als eine Streichholzschachtel, haben einmal, was Video angeht, den Amateur-, Semi-, ja sogar den Profibereich revolutioniert.

    DV heißt das System und war vor dem Siegeszug von HD für die ersten und auch späteren Schritte, bevor man auf Film dreht, ein ideales Medium.

     

    Auch im professionellen (TV-)Bereich wurde es mehr und mehr verwendet. Sogar auf 16 mm und 35 mm konnte man es umkopieren und ggf. ins Kino bringen (Faz) Filme wie "Das Weiße Rauschen" oder "Erleuchtung garantiert" fanden so ihren Weg in deutsche Kinosäle.

     

    So kompakte Kameras, die fast schon professionelle Qualität abliefern können, hat es zuvor noch nie gegeben. Vor allem aber bietet die digitale Aufzeichnung den Vorteil, dass im Idealfall keinerlei Qualitätsverluste durch Schnitt und Bearbeitung mehr auftreten, wie es bei den alten analogen Formaten wie Video 8, Hi 8, VHS oder S-VHS, aber auch bei den professionellen analogen Verfahren wie Beta SP oder beim M-Format der Fall ist.

     

    Geräte

    Einfache DV Kameras gab es bereits ab ca 300,- EURO. Für erste Schritte in dem Medium waren sie bereits bedingt geeignet, für individuelle Gestaltung aber haben sie zu viele Automatiken, die sich nicht abschalten lassen.

     

    Besser und Voraussetzung für eine hohe Güte ist, dass es sich um eine so genannte 3-Chip Kamera handelt, das bedeutet, dass für jeden Farbauszug (siehe Fernsehen) jeweils ein eigener CCD-Chip (das digitale „Filmmaterial“) zur Verfügung steht. Diese Kameras kosteten etwa 1000 bis 2000 Euro. Langsam wurden Sie von HDV- Kameras, also hochauflösenden, auf DV-Kassetten aufzeichnenden Kameras abgelöst. Hier beginnen die Preise bei 1200 Euro und gehen bis 10.000 Euro im Semiprofessionellen Bereich. Inzwischen arbeitet man weitgehend File-basiert, das Aufzeichnen auf Band stirbt immer mehr aus.

    Für Seminaristen: Im Online-Seminar werden Hersteller und Gerätetypen besprochen.

     

    Medien und Formate

     

    Mini-DV-Adapter
    Mini-DV-Adapter

     

    In der Regel arbeiten diese Kameras mit Mini-DV-Kassetten, die eine Aufzeichnungsdauer von 60 Minuten erlauben. Die „normalen“, größeren DV-Kassetten passen in diese Kameras nicht hinein, sie sind für Profi DVC PRO- oder DVCAM- Kameras und für einige Heimvideorekorder im DV-Format geeignet und haben eine längere Spieldauer. Weitere Video-Formate werden in der Knowledge Base (Bereich Video) behandelt.

     

    Es soll an dieser Stelle nicht verschwiegen werden, dass es auch auf Basis des analogen Video 8 Systems mit gleicher Kassettenmechanik auch das Digital 8 Verfahren gibt. Dieses ist technisch dem DV ebenbürtig, aber nur wenig verbreitet.

     

    Semiprofessionell

    Die relativ hohe Qualität von DV und später HDV hat den Herstellern ziemliches Kopfzerbrechen bereitet: Wie sollten Sie den deutlichen preislichen Unterschied zu den teuren Profikameras in Formaten wie DIGI-BETA, BETA SP, DVC PRO, DVCAM rechtfertigen? Nun, die Rezepturen waren die gleichen wie schon zu Zeiten von Super 8. Man baue möglichst viele Automatiken in die Kamera ein und gewähre dem Anwender möglichst keine oder nur umständliche manuelle Eingriffe in Belichtung, Filterung, Tonaussteuerung etc.

     

    Darüber hinaus gehören bessere Zugriffsmöglichkeiten auf den Timecode, mehr Tonspuren und mehr Schutz vor Drop-Outs durch größeren Spurabstand zu den Features der Profikameras.

    In die gleiche Richtung geht auch das Thema Anschlüsse. Man sperre etwa die Eingänge in die Kameras (auch um 10% Zoll auf „Videorecorder“ zu sparen), oder man verwende grundsätzlich keine professionellen Steckernormen, und eine weitere wichtige Differenzierung ist geschaffen.

    Theoretisch wäre es von den Herstellungskosten kaum ein Unterschied, diese manuellen Korrekturmöglichkeiten und Anschlussmöglichkeiten einzubauen. Aber wie gesagt, man braucht Argumente, warum die Profis so deutlich viel mehr bezahlen sollen und kann für den breiten Markt trotzdem leistungsfähige Geräte bereitstellen.

     

    Doch wenn man einige Basics berücksichtigt, kann man mit den semiprofessionellen DV-Kameras trotz dieser Unterschiede hervorragende Ergebnisse erzielen. Dazu gehören Entscheidungen, ob man im progressive Mode aufzeichnet, ob man interlaced oder non-interlaced einstellt etc. Auch ist es, wenn man Szenen ausleuchtet, wichtig, den Kontrastumfang an die Kennlinie der DV-Kamera anzugleichen. In der Regel liegt dieser bei 3:1 (Verhältnis von Führungslicht zu Grundlicht).

     

    Die Anfänge

    Wer sich einen Eindruck von den Anfängen der Videotechnik verschaffen möchte, sollte unsere Video-Geschichte lesen. Sie werden überrascht sein, wie viele Konzepte aus den Kindertagen der Videoaufnahme auch heute noch Anwendung finden.

    Die Entwicklung der auch heute üblichen Schrägspurverfahren wird im Teil 2 der Videogeschichte erläutert.

     

  • DVD

    Umsetzung auf DVD

     

    DVD

    Silberscheibe als Erfolgsmodel

     

    Auch wenn sie zu Beginn vornehmlich als Vertriebsmedium betrachtet wurde, ist die DVD (Digital Versatile Disc) trotz der BluRay ein wichtiger und in ihrer Verbreitung enorm gewachsener Baustein in den Medien. Nicht nur als Träger für Spielfilme, auch für Corporate-, Verkaufs-, Schulungs- oder Musikvideo wurde die DVD immer bedeutender. Welche Arbeitsschritte sind erforderlich, wenn eine Film-, oder Videoproduktion auf DVD umgesetzt werden soll?

     

    Pre-Mastering

    Kombination der verschiedenen Bausteine (Assets), aus denen eine DVD besteht. Da werden Menüs, Untertitel, verschiedene Tonfassungen (Fremdsprachen), Video (inkl. Making-of etc.) und ggf. andere multimediale Inhalte aufbereitet.

     

    Video

    Trotz der hohen Speicherkapazität können die Daten nicht unkomprimiert auf die DVD aufgezeichnet werden. Das Bildmaterial muss daher im MPEG-2-Format komprimiert werden. Video-Codierung kann softwaremäßig oder auch mit Hardwareunterstützung (Encoder-Karte) geschehen, was den Vorgang bis hin zu Echtzeit beschleunigen kann. Man sollte möglichst hochwertiges Ausgangsmaterial verwenden, z.B. Digi-Beta, aber auch für 24p gibt es inzwischen „Options“. Evtl. kann auch eine Nachbearbeitung (Filterung, Rauschminderung) des Video-Masters erforderlich sein.

    Der Video-Datenstrom einer DVD liegt in der Regel bei 3,5 bis 4,7 Mbit in der Sekunde. (Zum Vergleich: Eine Audio-CD liefert in der Sekunde ca. 1,4 Mbit.) Je nach Anforderung des Videomaterials kann die Datenrate aber auch auf bis zu 9,8 MBit/s erhöht werden.

     

    Untertitel

    Authoring Programme bieten zumeist auch einen Subtitle- Editor in welchem eine Vielzahl von Sprachfassungen erfasst werden können. Sind die Ein- und Ausblendzeiten für eine Version erst mal erfasst, ist der Aufwand weitere Sprachfassungen einzugeben nicht mehr sehr hoch.

    Audio

    Tonebene

    Das Audio-Encoding bereitet den Ausgangston, der in möglichst hochwertiger Qualität vorliegen sollte, für die DVD auf. Unterschiedliche Audioformate wie PCM, AC-3 (Dolby Digital 5.1) oder DTS stehen zur Auswahl. Je nach Audio-Decoding-Verfahren beträgt die Sample-Rate 48 oder (bei PCM) wahlweise sogar 96 kHz. Bis zu acht Audio-Streams können zu einem Video-Stream wiedergegeben werden.

     

    Varianten des Tonspuraufbaus

    Eine IT-Tonmischung (alle Töne ohne landesspezifische Elemente wie Dialoge) wird vorzugsweise im 5.1 oder 7.1 aufgezeichnet. Dazu wird jeweils eine Mono-Dialogspur, die in mehreren Sprachfassungen auf der DVD vorhanden ist, gemeinsam mit dem Center-Kanal der IT-Tonmischung abgespielt (Datenstrom des Multikanaltons: 384 KBit/s, der des Dialogs: 64 KBit/s).

     

    Eine IT-Tonfassung (5.1 oder 7.1) wird gemeinsam mit jeweils einer Stereo-Dialogspur abgespielt. Die landesspezifische Dialogspur wird dabei mit dem linken und rechten IT-Mixkanal gemeinsam abgespielt. (Im Vergleich zur oberen Mono-Dialogspur hat die Stereo-Dialogspur einen Datenstrom von 128 KBit/s.)

    Drei komplette Landes-Fassungen, bei denen Sprache und IT gemeinsam sind, werden auf der DVD als 5.1 oder 7.1 abgelegt und wahlweise abgespielt. (Alle drei Fassungen haben jeweils einen Datenstrom von 384 KBit/s.)

     

    Authoring

    Neben recht differenzierten Authoring-Programmen wie DVD-Creator, DVD Studio Pro oder Encore DVD, gibt es auch unkomplizierte Lösungen, bei denen der Funktionsumfang auf die wichtigsten Standards reduziert ist (z. B. Auto DVD und DVD Fusion).

    Während des Authoring-Vorgangs werden z.B. Menüs und Kapitel gestaltet oder Schleifen programmiert, die einzelne Clips wiederholt abspielen. Kapitelanwahl, Untermenüs, Statistiken, diverse Anzeigen von Spieldauer, Länge, unterschiedliche Versionen (Director‘s Cut/Kindersicherung/verschiedene Kameraperspektiven) können hier programmiert werden. Die ansprechende Oberflächengestaltung und einfache Bedienerführung sind wichtige Qualitätskriterien in diesem Bereich.

     

    Besonders die Einhaltung der Normen entscheidet darüber, ob das Authoring funktioniert oder die User zur Verzweiflung treibt. So müssen selbst erstellte Menüseiten genau das Pixelformat des jeweils sichtbaren TV-Bildes haben und auch die Menübuttons nach bestimmten Regeln und mit definierten Ebenen erstellt sein. Klare Beschriftungen der jeweiligen Grafiken erleichtern die Übersicht im Authoring-Programm.

     

    Authoring-Programme erlauben es, Menüs mit einzelnen Videotracks zu verknüpfen. Dabei können bis zu 100 Parameter eingestellt werden. Wegen der hohen Komplexität werden aber meistens nur 10% der Möglichkeiten, die in einer DVD stecken, tatsächlich genutzt. In diesem Arbeitsgang werden auch die ungeliebten Regionalcodes sowie Kopierschutzverfahren in die DVD integriert.

     

    Vervielfältigung

    Zum Prüfen und für Kleinauflagen ist ein DVD-R-Brenner erforderlich, für das endgültige Mastering ein DLT-Laufwerk. Die Serien-DVDs werden dann in einem Presswerk hergestellt.

     

    Haltbarkeit

    Auch wenn die Industrie das gar nicht gerne hört- die Haltbarbeit von beschreibbaren DVDs ist extrem schlecht. Unter speziellen Bedingungen, Dunkelheit und konstanter Temperatur, halten sie etwa 5 Jahre! Nach dem aktuellen Stand der Kenntnis sind DVD-RAM deutlich länger haltbar, weil sie auch Fehlertabellen besitzen und ähnlich wie Festplatten funktionieren. Wer also Daten langfristig sichern muss, sollte unbedingt auf die wiederbeschreibbaren DVDs zurückgreifen!

     

    Übersicht Formate

    DVD5: einseitig bespielt, eine Schicht 4,7 GByte

    DVD9: einseitig bespielt, zwei Schichten 8,5 GByte, auch Double-Layer DVD genannt.

    DVD10: zweiseitig bespielt, je eine Schicht 9,4 GByte

    DVD18: zweiseitig bespielt, je zwei Schichten 17 GByte

    Blue Ray DVD: Mit einem Layer 27 GByte, zwei Layern 54 GByte

    HD-DVD: 15 GByte, im Twin-Format-klassische DVD und HD auf einer Scheibe: 30 GByte- Das Format war in mancher Hinsicht besser als die BluRay hat aber im Anbieterkampf verloren und wurde eingestellt.

     

    Technische Normen

    Bildwiederholraten: 29,97 Bilder/s oder 25 Bilder/s

    Fernsehnormen: 525/60, 625/50 sowie HD Formate bei Blue Ray und HD DVD

    Höhen-/Seitenverhältnis: 4:3 und 16:9

    Bildauflösungen (bei MPEG-2): 525/60: 720 x 480, 704 x 480, 352 x 480, 352 x 240

    625/50: 720 x 576, 704 x 576, 352 x 576, 352 x 288

    Link zum Thema: www.dvddemystified.com

     

  • DVD Studio Pro UT

    Verständigungsformen

    Untertitel

    Untertitel erlauben es, DVDs etwa für Festival-Einreichungen oder den internationalen Vertrieb mehrsprachig auszustatten

    Spätestens wenn man seinen fertigen Film international vertreiben oder zu Sichtungen von internationalen Filmfestivals schicken möchte, kommt man um die Übersetzung und Untertitelung einer DVD nicht herum.

     

    Diese kann man theoretisch schon im Schnittprogramm erstellen, etwa durch Texttafeln in FinalCut Pro, allerdings sind diese dann in der späteren DVD nicht abschaltbar und auch nur in einer Sprache vorhanden. Deshalb empfiehlt es sich, die Untertitel in einem DVD Authororing Programm anzulegen.

    Untertitel, die man für eine DVD in DVD Studio Pro erstellen möchte, können auf verschiedenen Wegen erzeugt werden.

     

    Man kann den im Programm enthaltenen Editor benutzen und sich von Dialogstelle zu Dialogstelle vorarbeiten. Dabei kann man allerdings weder Rechtschreibprüfung noch irgendein Übersetzungstool benutzen.

     

    Man kann Grafiken als Einzeldateien importieren, beispielsweise Schrifttafeln. Das ist noch weniger flexibel, an den Grafiken kann man im Autoring Programm nichts ändern.

    • Man kann Textdateien importieren. Achtung- Erst die Video und Audio importieren und in die Spuren ziehen, dann die Bildeinstellungen vornehmen (Bildseitenverhältnis = Aspect Ratio) danach erst die Textdatei in das Projekt importieren.

     

     

    Menü für den Import

    Wenn man in die Spur unterhalb der Tonspuren geht kann man mit ctrl+ rechte Maustaste das Menü aufrufen, welches den Import der Untertitel-Datei ermöglicht

    Direkt unterhalb von Video und Audio-Spur beginnen die Untertitel-Spuren in DVD Studio Pro, klickt man links neben die Spur, kann man eine Sprachbeschriftung auswählen EN oder DE etc. Das hilft, wenn man viele verschiedene Untertitelsprachen erstellt. Klickt man in die Spur, wird ein gelber Balken angezeigt, die künftige Untertitel-Spur.

     

    Überall dort, wo das User-Interface, also die schön designte Oberfläche eines Progamms nicht mehr ausreicht und sich der Anwender plötzlich mit den Niederungen des Programmcodes beschäftigen muss drohen Frust und viele Stunden verschwendeter Zeit.

     

    Wer seinen Film in DVD Studio Pro untertiteln möchte und dies nicht von Hand mühevoll in der Untertitelspur, sollte dies mit einem Text-Editor tun. Diese Texteditoren gehören zur Grundausstattung jedes Betriebssystems und wenn man beginnt darin die Untertiteltexte einzugeben, hat man, da es sich um nackten Text handelt, fast das Gefühl, ein wenig Programmierarbeit zu leisten.

     

    Fehlerquellen

    Textdatei für Untertitel mit Syntaxfehlern, hier Orange gekennzeichnet

    Textdatei für Untertitel mit Syntaxfehlern, hier Orange gekennzeichnet

    Ja und leider lauern auf dem Weg zur fertigen Untertitelung jede Menge Fehlerquellen, die es gilt, sicher zu umschiffen.

     

    Im Falle von DVD Studio Pro gibt es bestimmte Vorgaben, die man einhalten muss, damit die resultierende Text-Datei überhaupt importiert werden kann. Damit nämlich das Programm genau jenen Import verweigert, genügen kleinste Ungenauigkeiten, die man mit bloßem Auge bei mehrerer Hundert Textzeilen gar nicht bemerkt.

     

    So eine Steuerdatei sieht, wenn man sie im Editor betrachtet nämlich aus wie eine gigantische Textwüste. Sich hier zu recht zu finden, ist mühsam.

     

    Header

    Leerzeichen verhindern Import

    Die Leerzeilen und das fehlende Leerzeichen vor dem Komma verhindern den Import in DVD StudioPro

    Am Anfang, dem so genannten Header, werden formale Dinge festgelegt, die jeweils mit eine $ (Dollarzeichen) eingeleitet werden. Schriftart, Schriftgröße, Fett, Kursiv oder Schmal sowie die Zentrierung sind hier festgelegt.

    $FontName = Helvetica 
    $FontSize = 24 
    $Bold = True 
    $HorzAlign = Center

     

    Leerzeichen.

    Wenn irgendwo ein Leerzeichen (Space-Bar) steht, wo es nicht zwei Wörter trennt oder zur Syntax der Untertitel-Datei (siehe Unten) gehört, blockiert der Import.

    Hinter keiner Zeile darf sich ein unnötiges Leerzeichen befinden! Sonst verweigert sich später DVD Studio Pro, die Datei zu importieren.

     

    Die Kommata

    Wo aber welche stehen müssen, ist vor und nach dem Komma zwischen den Zeitangaben. Also:

    Timecode 
    BeginnUntertitel/Leerzeichen/Komma/Leerzeichen/Timecode Ende Untertitel (Die Schrägstriche weglassen, dienen hier im Artikel nur der Trennung)

    00:00:30:00 , 00:00:32:00 , What a "gourmet cuisine"
    00:00:32:50 , 00:00:34:50 , Vindalou Currey Don't forget the Zingara sauce. 
    00:00:36:00 , 00:00:39:00 , Spaghetti 
    00:00:40:00 , 00:00:42:00 , no come on 
    00:00:44:00 , 00:00:46:00 , Salami 
    00:00:49:00 , 00:00:53:00 , This salami is made out of 114 grams of meat

    Vorsicht: Bei manchen Online Tutorials lassen die Browser einfach Leerzeichen verschwinden,- dann wird eine falsche Syntax angezeigt, dies ist auch mein manchen der Seiten, die wir als Weblinks hier nennen, der Fall!

     

    Leerzeilen

    Nächster Stolperstein. Die Zeiten und Texte müssen unmittelbar nach dem Header folgen. Also nicht auf die Idee kommen, hier wären ein paar Leerzeilen hübsch. Sofort nach der Ausrichtung $HorzAlign = Center folgen Zeiten und Sätze.

    Will sagen- Die Zeiten und Textzeilen müssen unmittelbar unter dem Header beginnen!

    $FontName = Helvetica 
    $FontSize = 24 
    $Bold = True 
    $HorzAlign = Center
    00:00:30:00 , 00:00:32:00 , What a "gourmet cuisine"
    00:00:32:50 , 00:00:34:50 , Vindalou Currey Don't forget the Zingara sauce. 
    00:00:36:00 , 00:00:39:00 , Spaghetti

    usw...

     

    Die Timecodes

    Untertitelung

    Wenn die Schreibweise im Textdokument stimmt, tauchen die Untertitel in der DVD auf. Dann muss nur noch das Timing überprüft und angepasst werden und der Einreichung für Festivals steht nichts mehr im Wege

    In den Timecode-Angaben wird jeweils Beginn und Ende der Untertitel-Zeile definiert,- Wenn man hier Fehler macht, etwa dass die Zeit für den Beginn der neuen Zeile vor dem Ende der vorherigen Untertitel Zeile liegt, streikt der Import.

     

    Editieren

    Hat man in einem der vorher genannten Bereich Fehler, muss man das Textdokument entsprechend korrigieren.

    Entweder man sucht hier mühsam Zeile für Zeile nach Fehlern, oder aber man verwendet ein Hilfsprogramm, welches solche Fehler entdeckt. Dazu muss man nicht einmal Programmierer sein, es gibt Freeware, oder auch die Möglichkeit in Excel derartige Formeln zu unterlegen, die beispielsweise unlogische Zeitangaben markieren.

     

    Wenn man einen Syntax Fehler bemerkt hat, kann es sein, dass man diesen in jeder Zeile gemacht hat, man muss ihn dann in allen Zeilen nacheinander ausbessern. Das kann man händisch tun, durch stupides Wiederholen der gleichen Tastenkombi, man kann aber auch versuchen mit "Suchen/Ersetzen" eine nerven schonende Lösung zu nutzen. Das hängt ein wenig vom verwendeten Editor ab.

    Wenn dann alle Fehler beseitigt sind, tauchen die Untertitel endlich im DVD Studio Pro auf. Gratulation!

     

  • HD-Codecs

    HD Codecs 500

  • HDTV

    HD Kamera

    HD-Kamera

     

    Auch, wenn die Abkürzung TV es erwarten lässt: Zumindest hierzulande wird High-Definition, das Synonym für hochauflösendes, besseres Fernsehen, zumindest in der nächsten Zeit gerade im Fernsehen noch in der Minderheit zu sehen sein.

     

    HD. Was man genau darunter versteht, darüber diskutierten diverse Kommissionen fieberhaft. Fest steht, dass es mit 1080 Zeilen, also etwa doppelt so vielen wie das bisherige PAL oder SECAM, arbeitet. Auch das Höhen-Seitenverhältnis des HD-Bildes ist gegenüber SD, Standard-Definition (=bisheriges Fernsehformat 4:3), verändert, es beträgt 16:9.

     

    Die erste echte HDTV-Empfangsmöglichkeit in Europa bot der belgische Sender Euro 1080 über Satellit (Astra) und sendete in 1080i, also mit Halbbildern. Seit Mai 2006 sendete auch von Deutschland aus ein reiner HD-Fernsehsender über Satellit: ANIXE HD, ein privater Free-TV-Anbieter, der über Astra zu empfangen ist und vornehmlich Spielfilme in HD ausstrahlte. Ab Ende des Jahrzehnts haben dann immer mehr TV Sender in Deutschland begonnen, parallel zu SD auch HD in Kabelnetze oder auf Transpondern anzubieten.

     

    Länder wie Japan, die USA, Südkorea, Brasilien, Mexico, Australien oder China hatten, was die Verbreitung von HDTV angeht, die Nase vorn. Dort gibt es zahlreiche Programme, die in HD gesendet werden. In Japan gibt es schon viele Jahre HDTV-Sendungen, vor allem im Auftrag der NHK, und immerhin über acht Millionen HDTV-Geräte. In den USA ist das Standard-Fernsehen NTSC sichtbar schlechter als unser hiesiges PAL, also das Zuschauerinteresse an besseren Bildern viel höher. Bereits jetzt gibt es in den USA 40 HDTV-Kanäle.

     

    Normen

     

    PAL

    720p

    1080i

    Art des Bildaufbaus: interlaced progressive interlaced
    Anzahl Bildpunkte: 414720 Pixel 921000 Pixel 2073600 Pixel
    Horizontale Auflösung: 576 Zeilen 720 Zeilen 1080 Zeilen
    Vertikale Auflösung: 720 Linien 1280 Linien 1920 Linien

    Um zu erläutern, worin die qualitativen Unterschiede der neuen TV-Systeme bestehen, betrachten wir zunächst unser bisheriges Fernsehen. Wir haben es bei PAL mit 576 sichtbaren Zeilen (Bildhöhe) und ca. 720 sichtbaren Linien (Bildbreite) zu tun. Ob es sich wieder wie bisher um ein Halbzeilen-Verfahren handeln soll, das wäre dann in HD 1080 Zeilen interlaced (1080/50i), oder aber um Vollbilder, das wäre dann 720 Zeilen progressiv (720/50p), ist noch nicht entschieden. Die Sender und Empfänger sind so ausgelegt, dass man beide Formate wahlweise ausstrahlen bzw. empfangen kann.

     

    Eigentlich wäre ein Vollbild-Verfahren, also 720p, für das menschliche Auge besser, andererseits bietet 1080i deutlich höhere Auflösung. Durch den Trick, jeweils nur ein halbes Bild zu übertragen, spart man bei 1080i Bandbreite. Tests haben aber ergeben, dass 720p subjektiv als genauso detailgenau empfunden wird wie 1080i, bei dem man letztlich ja immer nur 540 Zeilen (pro Halbbild) gleichzeitig sieht. Um die Normendiskussion noch komplizierter zu machen, arbeiten zum Beispiel die meisten Flachbildschirme nach dem Computer-Standard (XGA) und 768 Zeilen. Projektoren wiederum arbeiten in der neuesten Generation wahlweise in 720x1280 oder in 1080x1920, das werden auch die Werte der HDTV-Fernsehgeräte sein.

     

    Produktion

    Auch, wenn die Produkte noch nicht in HD beim Zuschauer ankommen, so haben fast alle TV-Sender hierzulande bereits Produktionen in HD zur Pflicht gemacht. Gemeint sind damit nicht auf Film gedrehte, denn der bot diese Auflösung ab Super 16 aufwärts schon immer, sondern mit digitalen Videokameras aufgezeichnete Projekte. Hier sind DVCPRO HD und HDCAM zu nennen.

     

    Wer jedoch meinen sollte, dass zu Beginn besonders aufwändige, hochwertige Themen in HD gedreht wurden, der täuscht sich: Es waren vermehrt Sitcoms oder Reality-Formate, die mit der neuen Technik aufgenommen werden. Die olympischen Spiele in Athen boten teilweise Bilder in HD an, um den Weltmarkt bedienen zu können. Die Fußball WM 2006 wurde komplett in HDTV produziert. Ob aber die Zuschauer hierzulande diese Qualität auch im Wohnzimmer betrachten konnten, ist fraglich. Dafür hätten Millionen Zuschauer ihre noch funktionierenden Fernseher wegschmeißen und sich teure neue Geräte kaufen müssen, von denen niemand wußte, ob sie einer damals noch festzulegenden Norm entsprechen würden.

     

    Aus der Sicht von Produzenten, die ihre Produkte auch international anbieten wollen, führt nichts an HDTV vorbei. Sie mussten auf HD produzieren, um international auch in Zukunft ihre Produkte verkaufen zu können. Keine Fernsehanstalt kauft mehr neue Produktionen, die in Standard Definition hergestellt wurden. Hier wieder scheinen 24 Bilder/Sek (also 24p)oder innerhalb Europas 25 Bilder/Sek für den internationalen Programmaustausch am geeignetsten zu sein. Von 24 Bildern kann man relativ problemlos auf den US-Standard von 30 TV-Bildern in der Sekunde konvertieren.

     

    Distribution

    Lange Zeit war es ein Spiel zwischen Fernsheveranstaltern und Industrie. Solange es nur wenige Fernsehgeräte am Markt gab, die HDTV abbilden konnten, weigern sich die TV-Sender weitgehend, darüber nachzudenken, HD an die Zuschauer weiterzuleiten. Zudem hatte sich die Industrie lange Zeit nicht geeinigt, in welcher Weise denn die Signale an die Zuschauer weitergeleitet werden sollen. Die Verbreitung von Fernsehgeräten für HD war auch abhängig davon, für welche Norm sich nun die europäischen Länder entscheiden werden. Ungeklärt war auch, ob es, wie in den USA, ein radikaler Wandel zu HDTV würde oder ob, wie es sich viele TV-Veranstalter wünschten, ein Übergang mit Zwischenschritt wird, über ein nochmals verbessertes PAL.

     

    In Zusammenhang mit einem solch gravierenden Schritt an Umstellung gab es besonders in Europa einige Empfindlichkeiten. Schon einmal, Ende der 80er Jahre, hatte Europa versucht, mit D2Mac hochauflösendes Fernsehen in die Wohnzimmer zu bringen und ist grandios gescheitert. Milliarden wurden investiert, bis man erkannte, dass dieses Verfahren nicht am Markt durchsetzbar war. Das lag vor allem an der analogen Technik, die enorme Bandbreite für die Übertragung brauchte, und den fehlenden Flachbildschirmen. Entsprechende Fernseher wären schwer, mit relativ kleiner Diagonale und extrem teuer gewesen.

     

    Senderperspektive

    HD Kamera

    HD-Kamera

    Für die Programmveranstalter ist HD inzwischen etabliert. Sie mussten in neue, teurere Geräte investieren, ohne, dass sie dafür vom Zuschauer mehr Geld erhalten würden. Deshalb haben sie anfangs eher zögerlich in HD investiert. Viele Sender haben einfach die normalen Erneuerungszyklen ihres Equipments abgewartet, um dann beim Neukauf von Kameras, Bildmischern etc. in eine HD-Generation zu investieren.

     

    Aufnahmemöglichkeit

    Für den Heimgebrauch existiert neben dem Computer momentan nur ein einziger Standard, um HDTV aufzuzeichnen: der Harddisk-Rekorder. Hier wurde durch erneute Programmrestriktionen auf Seiten der privaten Anbieter ein Verfahren durchgesetzt, welches es verhindert, Werbeblöcke zu überspulen oder zu schneiden. Hier setzen deshalb viele Anwender weiterhin auf Standard Definition, weil sie so wenigstens in der Lage sind, die Filme von lästiger Werbung zu befreien und Filme archivieren zu können..

     

    Alternative Computer

    Auch, wenn es die Fernsehindustrie gar nicht so gerne hört: Praktisch jeder aktuelle Computerbildschirm kann längst HD darstellen und das in einer Brillanz, die manchen Fernseher alt aussehen lässt. So könnte es über digitale Satelliten-Empfänger-Karten oder auch über HD-DVDs noch vor den Fernsehsendern zu einer weiten Verbreitung von HD-Inhalten auch bei uns kommen. Bereits das Bild von einer Standard-DVD ist besser als das normale Fernsehbild. Eine BluRay vergrößert den Qualitätsabstand noch weiter. So existiert bereits der MS-Media-Player Standard WMV-HD (Windows Media High Definition Video), mit dem eine Auflösung von 720p oder 1080p auf dem Computer (so der Prozessor leistungsfähig und der Arbeitspeicher groß genug ist) abspielbar ist. Quicktime von Apple ist ebenfalls in der Lage, mit HD umzugehen. Ein dritter Codec stammt vom Joint Video Team (JVT), basiert auf MPEG4 und nennt sich H264. Stand-Alone-DVD-Player beherrschen diesen Standard nicht zwingend, erste Geräte kamen Ende 2004 auf den Markt.

     

    Woher auch die HD-Signale stammen, in der näheren Zukunft wird sich das Fernsehprogramm in Richtung HD verschieben.

     

  • HDTV Rekorder

    VideobandWas früher die Videorekorder waren, sind heute Festplattenrekorder. Was ist zu bedenken, wenn man Filme in hoher Qualität aufnehmen möchte?

  • Kabelfernsehen

    Breites Band

    Breitband_Netze

    Im Moment sieht es so aus, als wenn Lichtleiter die Zukunft des IP- gestützten Fernsehens sein werden

    Noch sind die Bandbreiten etwas zu dünn, um Video in DVD Qualität über das Internet zu schicken, doch beinahe alle   Netzbetreiber arbeit

    Eine zweite Alternative, Video über Kupferkabel zu senden, bedeutet, dass die Inhalte stark datenkomprimiert werden, eine Variante, die mit den stetig optimierten Algorithmen ebenfalls weiterentwickelt wird.

     

    Die dritte Alternative wäre Internet per Satellit, wobei die Auswahl und Anforderung von Inhalten klassisch über ein Modem erfolgen muss. 

     

    Wünsche der Zuschauer 

    Diese Entwicklung kommt den geänderten Sehgewohnheiten der Zuschauer entgegen. Viele möchten sich nicht mehr reglementierten Programmschemen unterwerfen, sondern selbst bestimmen, wann sie was sehen möchten.

     

    Das Freizeitverhalten vor allem der jüngeren und mittleren Generation hat sich durch die vielfältigen Angebote so stark verändert, dass der klassische Abend vor dem Fernseher nicht mehr die Regel ist. Das bekommen die Fernsehveranstalter in Form von sinkenden Einschaltquoten mehr und mehr zu spüren.

    Zeitversetztes Sehen oder auch Filme auf Abruf werden die Fernsehwirklichkeit der nahen Zukunft bestimmen. 

     

    Videothek aus dem Kabel

    Für Video on Demand gibt es bereits diverse Testreihen, an denen mehrer 100.000 User beteiligt sind. Fastweb in Italien, die Kingston Company in England oder die Telekom Austria etwa in Kärnten bieten ihren Kunden bereits IP-Netze der nächsten Generation an. 

     

    FastWeb verfügt in Italien über ein Netz, welches schnelles Internet und TV über eine einzige Verbindung ermöglicht. Es bietet diverse, sogenannte Mehrwertdienste, wie Fernsehen über das Breitbandnetz an. Wie in vielen anderen Netzen spielen Pay-TV-Fußballkanäle eine wichtige Rolle. Die Kunden können unter 120 Fernsehprogrammen in Rom, Neapel, Turin, Mailand und Genua wählen. FastWeb ist der weltweit erste Netzbetreiber, der Fernsehen über ADSL-Leitung anbietet. Damit steht das Unternehmen in direkter Konkurrenz zu Kabelfernsehen oder Satellitenübertragung. Das System scheint sich zu bewähren, die Kundenzahlen erhöhen sich von Jahr zu Jahr um über 200 %.

     

    Die Kingston-Company gehört ebenfalls zu den europäischen Pionieren des IP-Fernsehens. Für  £50 Anmeldegebühr und  £6 monatlich kann der Kunde ein Grundpaket mit den ITV und BBC Kanälen beziehen. Für £15 im Monat gibt es bis zu 60 Kanäle. Nach eigenen Angaben der Firma ist die monatliche Kundennachfrage momentan höher, als die Zahl der Anschlüsse, die zur Verfügung gestellt werden können.

     

    Die Telekom Austria wirbt für ihr Breitband-Fernsehen ganz offen damit, genau die immer schwerer wiegenden Nachteile des herkömmlichen Fernsehens zu umgehen. Da ist von Multimedia Erlebnis die Rede, davon, dass man den täglichen Kampf um die TV-Fernbedienung und lähmende Werbepause vergessen könne. Die Telekom bietet sogar Serverplatz zur Aufzeichnung von Inhalten an, damit die Kunden ihr Fernsehprogramm selbst gestalten können.

     

    Interaktivität

    Insbesondere Multimediaanwendungen wie Interaktives Fernsehen oder Online-Games profitieren von den erweiterten Bandbreiten und machen die Netzbetreiber indirekt zu Programmveranstaltern. Noch rätselt die Mehrzahl der Programmentwickler, wie denn die Killerapplikation im interaktiven Fernsehen aussehen könnte. Die meisten Entwicklungen gehen doch eher in Richtung Shop-Systeme. 

     

    Internet und klassische Programmdistribution wachsen mehr und mehr zusammen, die Reaktionen auf Programminhalte via Chat oder Mail werden direkter, der Zuschauer beteiligt sich verstärkt an der Gestaltung. 

     

    In den USA sollen bis 2007 bis zu 18 Millionen Haushalte an IP- basiertes Breitband-Fernsehen angeschlossen sein, das Projekt heißt „Lightspeed“ und ist mit milliardenschweren Investitionen verbunden. 

     

  • Videosignal

    Analoge Bildübertragung

    Graubalken

    Testbild Graubalken

    Das Video- oder Fernsehsignal transportiert die Informationen der Helligkeits- und Farbimpulse in elektronischer Form. Bei vielen Fernsehgeräten, Monitoren und den meisten Videogeräten geschieht dies in analoger Form. Dabei werden bei der analogen Bildübertragung die hellsten Bildpunkte mit der höchsten elektrischen Spannung (ca. 0,7 Volt) und die dunkelsten entsprechend mit der niedrigsten, also 0 Volt, codiert. Das bedeutet konkret, dass für die Darstellung von Schwarz über diverse Graustufen bis hin zu Weiß genau 700 mV zur Verfügung stehen.

     

    Die Definition über Spannungswerte stammt noch aus den Zeiten der analogen Videosignale und Röhrenfernseher, grundsätzlich sind aber die Prinzipien dahinter auch heute noch gültig. Auch in der digitalen Welt sind Grau- und Farbbalken verbreitet, um Geräte einzumessen, den richtigen Gamma und Kontrastwert einzustellen etc.

     

    Graubalken

    Spannungskurve

    Spannungskurve des Graubalken

    Der für Messzwecke sehr hilfreiche Graubalken, der in verschiedenen Varianten Verwendung findet, hilft uns, dieses Prinzip zu erläutern. Eine einzelne Zeile unseres Fernsehbildes sieht auf einem Oszillograf (Messgerät für schnell variierende Spannungen) dargestellt wie eine Treppe aus. Allerdings gibt es außer den reinen Bildinformationen auch noch Signale, die der Synchronisation des Bildes dienen. So ist der unterste Impuls, der auf dem Oszillograf zweimal knapp unterhalb der mittleren 0-Volt-Linie auftaucht, der so genannte Austastimpuls (H). Danach folgt ein so genannter Burst, das Farbreferenzsignal.

     

    Diese Austast- und Synchronimpulse haben einen negativen Spannungswert, der liegt also unterhalb der 0 Volt bei -300 mV im sogenannten Superschwarz. Dann saust der Elektronenstrahl nach oben (oberste orange Linie) und beginnt, unsere Treppe darzustellen: Die Breite der Stufen repräsentiert die Breite des jeweiligen Balkens, die Höhe, auf der sich die Stufe befindet, repräsentiert ihre Helligkeit. Die oberste Stufe steht für das Weiß des linken Balkens unseres Fernsehbildes, die unterste Stufe für das Schwarz. Ja, und dann ist schon eine Zeile vorüber. Es folgt wieder der Austastimpuls, dann der Burst, und die nächste Zeile wird geschrieben. Und wie wir wissen, besitzt unser PAL- Fernsehbild 625 Zeilen. So viele Zeilen müssen geschrieben werden, um ein Bild darzustellen. Und da wir pro Sekunde 25 Bilder (bzw. 50 Halbbilder) zu sehen bekommen, ist eine ganze Menge los in so einem Videosignal.

     

    Farbbalken

    Farbbalken
    Farbbalken

    Auf unserem Fernsehschirm bilden wir jetzt einen Farbbalken ab. Dieser sollte übrigens auf keinem Masterband (Video) fehlen.

     

    Wie sind nun die Farbinformationen codiert? Da zuerst das Schwarzweiß-Fernsehen entwickelt und eingeführt war, musste man, als Jahrzehnte später die Entwicklung des Farbfernsehens anstand, auf die vielen Besitzer von S/W-Geräten Rücksicht nehmen. Man musste ein Verfahren finden, welches sowohl den Besitzern von S/W-Geräten als auch den Besitzern neuer Farbgeräte gleichzeitig das Fernsehen ermöglichen sollte. Deshalb überlagerte man das bestehende schwarzweiße Fernsehsignal mit einem Farbsignal (4,43 MHz). Es wird quasi auf das Schwarzweißsignal, welches aus unterschiedlichen Spannungswerten besteht, aufaddiert. Die Farbinformation wird in Form von Schwingungen hinzugefügt, über die Treppenstufen des Schwarzweißsignals lagert man also Schwingungen, welche mit ihrer Frequenz den Farbton definieren und mit ihrer Amplitude (also dem Pegelwert in mV) die Sättigung der Farbe festlegen.

     

    In unserem PAL-Fernsehsystem darf das Farbsignal nicht höher als 133 % des Videosignals betragen, also nicht höher als 931 mV liegen (wir erinnern uns: Das Weiß hat 700 mV). Im Negativ-Bereich darf das Farbsignal maximal bei -231 mV liegen.

     

    Spannungskurve des Farbbalken

    Spannungskurve des Farbbalken

    Auf unserem Oszillograf sind die Farben als schmale Balken erkennbar. Weiß und Schwarz sind genauso codiert, wie im Schwarzbild oben abgebildet. Die Länge der Balken gibt die Sättigung der jeweiligen Farbe wieder. Das bedeutet: Wären die Farben unseres Farbbalkens auf dem Fernsehschirm weniger intensiv, weniger gesättigt, so wären die entsprechenden Balken auf dem Oszillograf kürzer. Die angegebenen Werte markieren den erlaubten Rahmen innerhalb des PAL-FBAS-Signals, auch Composite genannt, weil hier die Farb- und Helligkeitsinformationen nicht getrennt, sondern zusammen aufgezeichnet oder übertragen werden. Man sollte also bei seinem Messgerät den höchsten Ausschlag bei 931 mV und den niedrigsten bei -231 mV festlegen.

     

    PAL

    Da die Farbsignale mit hoher Frequenz transportiert werden, sind sie sehr anfällig gegen Störungen. Damit eine sichere Farbwiedergabe möglich ist, wird jede zweite Zeile phasenverkehrt übertragen. Daher rührt auch der Name PAL (Phase-Alternate-Line). Dieses System verhindert, dass Farbstiche durch Phasenfehler entstehen können. Bei Empfang über Fernsehantenne kann so etwas schon durch die nächste Hausmauer, die Antenne des Nachbarn oder einen anderen TV-Sender verursacht werden. Hätte eine Zeile einen Farbstich (z. B. Rotstich) in Folge eines Phasenfehlers, so hätte die nächste Zeile den entgegengesetzten Farbstich (Grünstich). Gemeinsam betrachtet, neutralisieren sich dann die Farbstiche.

     

    Das amerikanische Fernsehsystem NTSC verfügt übrigens nicht über ein derartiges Korrekturverfahren. Daher können die Farben dort ganz schön schwanken. Diese Eigenheit hat dem System auch die eigenwillige Übersetzung zu „Never The Same Color“ eingebracht.

     

    Digitale Werte

    Bei der Digitalisierung wird übrigens der Spannungsbereich bis 700 mV durch digitale Werte zwischen 16 und 235 repräsentiert. Die digitalen Werte von 0 bis 15 entsprechen den Negativwerten in der analogen Welt unterhalb der 0 Volt, dem Superschwarz-Bereich, auch Footroom genannt. Werte, die über der 235 liegen, sind Weißwerte, die außerhalb des Normpegels liegen, vielleicht noch nicht klippen, aber bereits keine Differenzierung mehr zulassen. Camcorder, aber auch Codecs kennen zur Vermeidung des digitalen Klippens eine sogenannte Knee-Funktion, eine Art sanften Begrenzer bei zu hellen Bildanteilen.

     

Banner Virtual Reality Buch Schmal 2000