Martin Rost
Publikationen

Video in 3D: Aufnehmen, bearbeiten, exportieren, ansehen


http://www.maroki.de/pub/technology/3D-Videos_Anfertigen_v1.html
Version: 1.0, 2011-08014
Kontakt: martinDLT.rost@marokiDLT.de (entferne/delete DLT)


Gliederung

2010 brachte den Durchbruch für Film in 3D

Dass Filmanzusehen in 3D Spaß macht, weiß man seit mehr als 100 Jahren. Aber dass 3D zu einer massenhaft nachgefragten, somit "normalen" Eigenschaft von Bildschirmen und TV-Geräten zählt, kann man wohl erst seit 2008 / 2009 behaupten. Es gibt weitere Hinweise darauf, dass 3D im Massenkonsum angekommen ist: Die 3D-Kinoproduktion "Avatar - Aufbruch nach Pandora" von 2009 brachte das bislang höchste Einspielergebnis in US-Dollar. Für Amateur-3D-Videofilmer warfen 2010 Panasonic die SDT750 und Fujifilm die Finepix W1 und kurz darauf die W3 als bezahlbare all-inclusive-3D-Videofilmkameras auf den Markt. Davor musste man als Amateur reichlich basteln, um mit 2 parallel montierten Kameras 3D hinzubekommen. Neben der Verfügbarkeit von Kameras war ebenso wichtig, dass Magix mit "Video deluxe V17" (nachfolgend kurz "Video17" genannt) seit Spätsommer 2010 ein bezahlbares und gut bedienbares Videoschnittprogramm mit den wichtigsten 3D-Optionen bereitstellte. 2010 kam auch der erste deutsche NoBudget-3D-Amateurfilm mit dem leider albernen Titel "Der Schatten der Gerechtigkeit" heraus. Auf youtube findet man inzwischen viele 3D-Videos. Nach Eingabe des Suchbegriffs "3D anaglyph" stößt man beispielsweise schnell auf das 3D-Video mit einem Hubschrauber-Modell. Vorausgesetzt, man hat eine rot/cyan-Brille aufgesetzt, steht im Verlauf des Videos der Hubschrauber klar und deutlich im Raum, und zwar zwischen dem Monitor und dem Betrachter, mit geradezu lasziv rotierenden Blättern. Das ist natürlich Video-3D-Djunk, mit billigen, um nicht zu sagen: ordinären Effekten. Au ja wie schön. Wenn man dagegen keine Effekte sondern eine kurze Story in 3D zum Vorführen braucht, um die vielleicht gewünschten neuen Investitionen in 3D-Videotechnik zu rechtfertigen, dann kann es ratsam sein, auf youtube den 3D-Trailer zu "Pangea" suchen zu lassen. Und als letztes Argument, das dafür spricht, dass 3D nicht nur ein kurzer Hype sein wird: Man kann sich zu einem 3D-Spezialisten ausbilden lassen. So bietet die "Berliner Technische Kunsthochschule" verschiedene Ausbildungsgänge für 3D-Produktionen an. Und wenn das noch immer kein Argument für 3D ist... Und doch, skeptische Stimmen zum letztlich doch ausbleibendem Massenerfolg von 3D finden sich langsam wieder, wie zuletzt auf slashcam.

Das physikalisch zu lösende Problem beim 3D-Bilderansehen besteht ja darin, dass in einem beiden Augen präsentierten Gesamtbild zwei unterschiedliche Bildinformationen untergebracht werden müssen: ein Bild einer links montierten Kamera für das linke Auge sowie ein etwas verändertes, aber Hirn-synchron anzulieferndes, Bild einer rechts montierten Kamera für das rechte Auge. Die physikalisch für mich immer schon plausibelste Umsetzung dieser Anforderung, zwei unterschiedliche Bilder in einem Bild zu präsentieren gelingt dadurch, dass man einem Auge ein Bild zeigt, dessen Licht senkrecht polarisiert ist und dem anderen Augen das andere Bild zeigt, dessen Licht waagerecht polarisiert ist und man dementsprechend eine Brille mit Polarisationsfiltern für waagerecht und senkrecht schwingendes Licht aufsetzt. Der Preis dieser 3D-Lösung besteht darin, dass die Lichtstärke des Bildes insgesamt halbiert wird. Diese Lösung haben die 3D-Kinos gewählt, allein weil die Polarisationsfolien der Brillen fast nichts kosten. Dieses Verfahren wird "Cinema" oder auch "Real-3D" bezeichnet.

Die zweite weit verbreitete und technisch nahe verwandte Lösung für 3D-Bildschirme besteht darin, dass die Zeilen des Monitors das Bild für das linke Auge senkrecht polarisiert und die nächste Zeile darunter das rechte Bild waagerecht polarisiert enthält ("Zeilensprung-Verfahren"). Neben der Helligkeit halbiert sich damit die Auflösung des Gesamtbildes. Aber weil merkwürdigerweise 3D-Bilder als schärfer wahrgenommen werden, als sie objektiv sind, sind sich alle Experten einig, dass diese Halbierung der Auflösung nicht zu bemerkten ist.

Die dritte Lösung für 3D-Darstellung bei Beamern und Bildschirmen besteht darin, dass diese doppelt so schnell die Bilder ausgeben als normal und diese Bilder dann abwechselnd mal dem linken und mal dem rechten Auge zeigen, wobei der Betrachter eine Shutterbrille nutzt, die für die Synchronizität zwischen Bildschirm/Leinwand-Einblenden und dem Auge-Einblenden sorgt ("Shutterbrillen-Verfahren"). Dieses verfahren ist das bislang im Heim-Bereich das am häufigsten verbreitete. Die Shutterbrillen, die bislang ganz überwiegend mit den 3D-TV-Geräten verkauft werden, finde ich unnötig kompliziert, ökologisch bedrückend schlecht, das ganze Aufklapp- und Verschliess-Prinzip technisch doof, und nicht zuletzt sind die einfach viel zu teuer, insbesondere dann wenn man mit mehreren Zuschauern zusammen das selbstgedrehte Video ansehen möchte. Wenn man dieses Prinzip der Shutterbrillen konsequent zuende verfolgte, macht es eigentlich noch mehr Sinn, die Bilder gleich in der Brille abwechselnd anzuzeigen. Auch solche Lösungen für mobiles 3D gibt es bereits.

Und eine vierte Technik, die ganz besonders viel versprechend ist, weil sie ganz ohne den Brillen-Tragenerv auskommt, muss noch genannt werden. Dass brillenloses 3D funktionieren kann, zeigen die W1 und W3-Kameras auf ihren Monitoren wie auch erste Spielekonsole ja bereits. Nur wie das funktioniert habe ich noch nicht richtige verstanden. Vermutlich werden in typischen Betrachtungspositionen zum Monitor hin eben unterschiedliche Bilder gezeigt. Das unbestritten allerkomfortabelste Verfahren, um ohne Brille und beliebigen Sichtwickel heraus 3D-Filme ansehen zu können findet man hier: Das allerkomfortabelste 3D-Filmanguck-Verfahren dieser Welt

Neben dieser Form der abwechselnden Ausgabe des linken und des rechten Bildes gibt es auch noch "3D für Arme", was auf jedem Fernseher oder Monitor funktioniert. Diese Lösung sieht bekanntlich so aus, dass man 3D mit Hilfe einer Rot/Cyan-Farbbrille betrachtet. Video17 verfügt sowohl über die Option, 3D im Format "Side-By-Side" für 3D-Geräte als auch "anaglyph" für 2D-Geräte exportieren zu können. (Ein ganz tolles anaglyphes 3D-Bild von 1906 findet sich in der Wikipedia unter dem Stichwort "Anaglyphenbild". Dem Artikel lässt sich entnehmen, dass dieses Verfahren zur Kanaltrennung von Bildern schon 1853 von einem Leipziger entwickelt wurde.)

Video in 3D aufnehmen

Seit 2011 werden brauchbare 3D-Videokameras angeboten. Die wohl Bekannteste, weil die erste ihrer Art, war die Panasonic SDT750, die man typischerweise um die 750 Euro bekommt. Diese Kamera basiert auf der hochgelobten Panasonic SD707, die als konventionelle 2D-Kamera um ein spezielles 3D-Objektiv ergänzt eben zur 750 wurde. Die 750 bietet in 3D allerdings nur die halbe Auflösung ("halbes Bild") in der Senkrechten. Die gut doppelt so teueren 3D-Modelle von JVC und Sony bieten dagegen echte 2xFullHD-Auflösung sowie darüberhinaus die aus meiner Sicht wichtigere Option, auch Zoomen zu können. Einen direkten Vergleich der Kameras konnte ich nicht vornehmen, hierfür muss man sich auf die Kommentare und Bewertungen etwa bei slashcam.com verlassen. Die nachfolgenden Ausführungen zum Aufnehmen in 3D beruhen zum einen auf Erfahrungen mit der SDT750. Zum anderen habe ich für 3D-Aufnahmen aber auch zwei baugleiche Kameras genommen, die ich parallel zueinander montiert hatte. Konkret handelte es sich hierbei um die Zi8 von Kodak, die man für um die 75 Euro pro Stück bekommt. Die Kameras müssen deshalb baugleich sein, weil die Bildausschnitte, die Farbeigenschaften und die Synchronisation der Paralel-Aufnahmen natürlich übereinstimmen müssen. 3D mit Kamerapaaren sieht zwar überflüssig kompliziert aus, kann aber u.U., wenn man noch ein qualitativ gutes externes Aufnahmemikrofon wie das Zoom 1 hinzunimmmt, die mit Abstand günstigste Variante sein, um bspw. statische Aufnahmesituationen wie Theateraufführungen in 3D und 2xFullHD-Qualität zu bekommen. Den Abgeich von Bildern und Tönen nimmt man im Schnittprogramm vor. Für erste Experimente hatte ich die identisch konfigurierten Kameras zwischen zwei Brettchen und zwei Schraubzwingen so eng wie möglich nebeneinander fixiert und dieses Kamerapaar auf den Tisch gestellt und leidlich synchron auf beide Aufnahmeknöpfe gedrückt. Danach habe ich die beiden Dateien der Kameras auf die Festplatte kopiert und in zwei Videospuren in Video17 geladen und über die Wellendarstellung der beiden Audiospuren auf Einzelbild genau synchronisiert. Auch wenn man in der best möglichen 1-Frame-Auflösung der Audiowellendarstellung die Peaks der beiden Audioaufnahmen nicht genau übereinander gelegt bekommt, ist das Ergebnis trotzdem brauchbar. Will man sofort das Ergebnis sehen, dann muss man eine der Spuren anklicken, klickt die Option Videoeffekte/... Stereo..., und im Vorschaumonitor die Anaglyph-Ausgabe an. Und tatsächlich: Der 3D-Effekt stellt sich sofort beeindruckend klar ein.

Anhand zweier Projekte sammelte ich Erfahrungen mit ernsthaften Aufnahmen und Bearbeitung von 3D-Material. Das erste Projekt war die 3D-Aufnahme einer Aufführung eines Jugendzirkus auf der Bühne des Schauspielhauses Kiel, teilweise aus der Hand und überwiegend vom Stativ aufgenommen, ohne Zooms und mit nur wenigen Schwenks. An diesem Projekt lernte ich die wesentlichen Aspekte der Bearbeitung des 3D-Materials. Das Setup des zweiten 3D-Projekts war inhaltlich ebenfalls schlicht, aber technisch anspruchsvoller. Aufgenommen habe ich ein Musical, das auf einer Schulbühne augeführt wurde, aus insgesamt vier Kamerapositionen. Aufgebaut hatte ich:

  • Zwei Kamera-Paare (2xZi8 und 2xSDC707), die jeweils in FullHD-Auflösung links und rechts von der Bühne aufgestellt waren und die Bühne jeweils fast voll erfassten. Die Aufnahmen wurden pro Kamerapaar synchron per Fernbedienung ausgelöst.
  • eine 3D-Kamera (SDT750), die zentral das Geschehen auf der Bühne aufnahm sowie
  • eine 2D-Kamera (SDC707), die ich als Action-Kamera für die Hand nahm. Ich wollte mit Großaufnahmen die Gesichter der Schauspieler einfangen und flexibel zwischen verschiedenen szenischen Schwerpunkten wechseln können. Ich hatte mir überlegt, dass bei einer Großeinstellung eines Gesichts eine 3D-Tiefenstaffelung unnötig ist, also eine 2D-Aufnahme hinreicht.
Gemäß dieses Setups an Kameras galt es auszuprobieren, wie das Videobearbeitungsprogramm mit diesen verschiedenen Bildformaten klarkommt. Die Anforderungen an das Schnitprogramm sind wirklich hoch, sowohl was das Schaufeln an Datenmassen als auch die Unterschiede in den Formaten angeht:
  • Zwei Halbbilder aus der SDT750 im FullHD/25BilderSec/H.264/AVCHD-Format: also ein Bild für links, ein Bild für rechts bei halbierter FullHD-Auflösung in einer Videospur,
  • zwei Zi8-Kameras im FullHD/30BilderSec/mpeg4/MOV-Format, also ein FullHD-Bild für links in einer Videospur, ein FullHD-Bild für rechts in einer weiteren Videospur dadrunter,
  • zwei SD707-Kameras im FullHD/25BilderSec/H.264/AVCHD-Format, also ein FullHD-Bild für links in einer Videospur, ein FullHD-Bild für rechts in einer weiteren Videospur dadrunter,
  • ein konventionelles 2D-Bild aus einer SD707 im FullHD/25BilderSec/H.264/AVCHD-Format, in einer Videospur.

Die Datenmenge der Aufnahmen bei den Panasonic-Kameras habe ich dabei auf die 2-niedrigste Stufe gestellt. Das Bild ist nach wie vor ausgezeichnet, aber die Datenmenge geringer. Klar ist dass bei einem solchen Setup Kompromisse zu machen sind, um die Performance beim Zugriff auf die Festplatte und beim Berechnen der Bilder beim Schnitt und der Anzeige des Videos nicht gänzlich in die Knie zu zwingen.

Um es gleich vorweg zu nehmen: Mit Video17 lassen sich diese unterschiedlichen Aufnahmeformate gemeinsam bearbeiten. Weder die unterschiedlichen Videobild-Auflösungen noch die Anzahl der Framerates (Bilder pro Sekunde) oder die unterschiedlichen 3D-Formate führten zu Problemen. Video17 erkannte alles automatisch, der Benutzer bekommt von diesem "Synchronisierstress" dankenswerterweise nichts mit. Man muss Video17 aber mitteilen, wie es die Bilder eines Takes unter der 3D-Perspektive verarbeiten soll. Grundsätzlich werden zwei "3D-Formattypen" unterschieden: 2 Halbbilder, ein linkes und ein rechtes, in einem einzigen FullHD-Bild auf einer Schnittspur integriert ("SideBySide (linkes Bild links) halbe Breite" entsprechend der Ausgabe der SDT750) sowie sozusagen konventionelle Stereoskopie durch zwei 2D-Bilder von zwei aufeinander abgestimmten Kameras, jeweil in FullHD auf zwei unterschiedlichen Schnittspuren ("Stereo3D-Paar (linkes Bild zuerst)", links ist dann die obere Videospur). In Video17 findet man diese Option für den angewählten Take unter "Effekte/Video-Objekteffekte/Stereo3D/Eigenschaften" und dann einer Auswahlliste. Die Synchronisation von Videospuren geschieht optisch anhand der Visualisierung des Wellenverlaufs des Tonsignals.

Konfiguration, wie welche Bearbeitungsspur von Video17 in 3D zu interpretieren ist

Die Synchronisation der einzelnen Bilder, insbesondere der Kamerapaare bzw. sämtlicher Kameras zueinander, geschieht, wie schon mehrfach kurz erwähnt, anhand des Audiosignals im Videoschnittprogramm. Dazu gleich mehr.

Um an 3D-Aufnahmen zu gelangen, kann man mit einer 3D-Kamera natürlich sofort loslegen. Bei der 750 muss der 3D-Vorsatz auf die Kamera montiert und der Vorsatz kurz auf Horizontale, Vertikale und Längsachse justiert werden. Die Dateien mit den Aufnahmen sind dann per USB-Kabel oder von der SD-Karte auf die Festplatte des PCs zu kopieren und ins Videobearbeitungsprogramm zu importieren.


Der Monitor von Video17 kann verschiedene 3D-Formate anzeigen

Zum Sichten von 3D-Rohmaterial kann man gut den Stereoscopic-Player nutzen. Den lädt man sich wie üblich aus dem Internet, in der kostenlosen Variante spielt er dann 5min einer Datei ab. Diesen Player muss man sich auf jeden Fall besorgen, weil man mit diesem guten Stück Software auch die zunächst etwas kompliziert erscheinende Ausgabe-Seite von 3D-Filmen kapiert. Um erste 3D-Ergebnisse auf einem beliebigen PC-Monitor betrachten zu können, braucht man die schon erwähnte Rot/Cyan-Brille. Neben den bekannten Pappbrillenexemplaren bekommt man für ein zwei Euro auf Ebay angenehmer zu tragende Kunststoff-Gestelle oder auch gleich nen Haufen Pappbrillen fürs Publikum. Wer unsicher ist, ob für ihn 3D wirklich lohnt, sollte sich umgehend eine solche Farb-Brille kaufen und auf Youtube nach 3D-Videos stöbern. Das eingangs erwähnte 3D-Hubschraubermodell funktionierte auf einem HD-Ready-Beamer nicht sonderlich gut. Das lag vermutlich daran, dass der Beamer die unterschiedlichen Anaglyph-Farben nicht präzise und intensiv genug darstellte. Daraus lässt sich ableiten: 3D auf Beamern braucht viel Licht und beste Kontraste. Da ist eine Beamer-Eigenschaft, die in den Diskussionsforen zu 3D immer wieder betont wird.

Montage eines Kamerapaars

Bei der Montage von Kamera-Paaren muss man auf mindestens die folgenden drei Aspekte achten:

  • Die Objektive des installierten Kamerapaares sollten wenn möglich nicht weiter als maximal 8cm auseinander liegen. Es heisst, dass der durchschnittliche Augenabstand beim Menschen 6.5cm beträgt. Gute Stereoeffekte erreicht man aber auch mit einem geringeren Abstand. So beträgt die stereoskopische Basis der SDT750 4.5cm. Die Entwickler des 3D-Objektivs für die SDT750 haben vermutlich daran gedacht, dass eine 3D-Kamera primär für Sozialaufnahmen im Nahbereich genutzt wird.
  • Wenn man die Kameras über einen längeren Zeitraum durchlaufend einsetzen will, etwa bei Aufnahmen von Veranstaltungen, kann es sein, dass eine seitliche Stromversorgung der Kameras einem hinreichend dichten Anschmiegen der Geräte Grenzen setzt. Genau das ist der Fall bei der Zi8, die ihren Strom durch einen geradezu obzön langen, seitlich herausstehenden Stromstecker geliefert bekommt und deren Akkus im Dauerbetrieb leider nur 50 Minuten durchhalten, leistungsfähigere Akkus gibt es offenbar nicht. (Um dieses Problem zu lösen habe ich mir einen flachstmöglichen Stromstecker zusammengelötet. Den Stecker fand ich bei Voelkner im Sortimenent, Innen liegt Plus an. Die andere Seite des Kabels ist als USB-Stecker ausgeführt, da liegt bei Draufsicht auf den Stecker links Masse und rechts Plus.)
  • Und der dritte Aspekt betrifft das Nicht-Ausklappkönnen des Kontroll-Monitors bei einer der beiden Kameras. Das benutzte Kameramodell muss sich demnach auch ohne ein Ausklappen des Monitors bzw. ohne seitliche Bedienung nutzen lassen. Dass das bei der SD707 möglich ist, entdeckte ich eher zufällig: Die Kamera startet nicht nur durch das Monitorausklappen, sondern auch durch Raussziehen des Suchers, den ich vorher nie benutzt hatte. Wenn es an diesem Punkt der Paarbildung partout kneift, kann man überlegen, ob sich die zweite Kamera über Kopf montieren lässt. Aus den ersten Erfahrungsberichten von 3D-Projekten wird von solchen Lösungen berichtet. Ich kann mir einen hinreichend präzisen Bildabgleich derart allerdings nicht gut vorstellen.

Mit einer möglicherweise nötig werdenden Kopfmontage ist auch schon das nächste zu lösende Problem bei einer Kamera-Paar-Lösung angesprochen, nämlich die Suche nach einer Plattform zur Montage des Kamera-Paares. In meinem Falle war dieses Problem einfach zu lösen: Die Zi8-Kameras, die als relativ breite aber schmale Barren-Handies geformt sind, lassen sich gut in eine breite Aluschiene aus dem Baumarkt hineinstellen und durch einen dort einzufräsenden 6.5mm breiten Schlitz am Boden der Schiene mit 1/4-Zoll-Schrauben fixieren.


Aluschiene vom Baumarkt, mit einem 6.5mm breiten Schlitz.


2 x Zi8, passgenau in der Aluschiene, fixiert mit 1/4-Zoll-Schrauben.

Die konventionell geformten Consumer-Kameras wie die SD707 habe ich dagegen auf eine halbierte Blechplatte eines alten, ausrangierten PC-Gehäuse-Deckels montiert, in das ich ebenfalls einen 6.5mm breiten Schlitz fräsen ließ, mit zusätzlich ein paar gut gesetzten 6.5mm-Löchern zur Montage der Platte auf einem 3-Bein-Stativ.

Die Kameras müssen nicht übermenschlich penibel parallel ausgerichtet werden. Auch an das synchrone Auslösen der Kameras sind zunächst keine übermenschlichen Präzisionsanforderungen gestellt, man synchronisiert die Videospuren später im Schnittprogramm. Zur Ausrichtung der SD707 kann man eine Schiene verwenden, die man leicht von vorn auf die Außenringe der beiden Objektive drückt und dann die beiden Schrauben noch einmal fester anzieht. Und die Ausrichtung der Zi8 kann man präzisieren, wenn man einen Stoffschreifen in die Schiene einlegt und dadurch den Andruck der Geräte in der Schiene erhöht. Wenn zudem eine Fernbedienung zur Verfügung steht, dann sollte diese auch zum synchronen Start der Geräte verwendet werden. Beste Ergebnisse erreicht man, wenn man bei der Zi8 die 60 Bilder pro Sekunde, und bei der SD707 die 50 Bilder pro Sekunde nutzt.


PC-Gehäuse, Deckel mit einem 6.5mm breitem und 120mm langem Schlitz


Video in 3D bearbeiten

Videoschnitt macht grundsätzlich nur Spaß mit einem einigermaßen leistungsfähigen PC. Ich bin etwas unsicher, ob ein 3Ghz-Prozessor, Quad-Core, 4GB-RAM, viel Plattenplatz und Windows7, so wie es mir zur Verfügung steht, tatsächlich noch immer als hinreihend leistungsfähig für FullHD und 3D gilt. Ganz wesentlich für den Spaß ist auch das Schnittprogramm selber. Natürlich war die Performanz von Video17, trotz der eben genannten Hardware, bei den oben genannten Projekten nicht mehr so, dass die Bearbeitung eingermaßen flott von der Hand ging und den gewohnten Spaß wie einer 2D-Bearbeitung bereitete. Aber ich denke auch, dass man bei 6 Video-Spuren und 4 Audiospuren, 2 habe ich nach einer erfolgten Synchronisierung und anschließender Gruppierung von Videospuren gelöscht, in FullHD und in verschiedenen Aufnahme-Formaten kein flüssiges Bearbeitenkönnen erwarten darf. Da werden schließlich gigantische Datenmassen und aufwändige Rechenoperartionen ausgeführt. Immerhin, und das ist schon viel, lief das Programm stabil.

Im Prinzip kann man für das Sichten und den Schnitt von 3D-Bildern wie aus der 750er auch jedes 2D-Schnittprogramm nutzen, wenn es mit dem Videodateiformat klarkommt. Dass es sich um ein Stereobild in einer Videospur handelt oder dass es sich um ein Stereobild über zwei Videospuren verteilt handelt, ist zunächst einmal allein für den Schnitt ohne große Bedeutung. Allerdings bietet ein 3D-fähiges Schnittprogramm wie Video17 natürlich mehr Komfort beim Schneiden. Aber wenn man verschiedene 3D-Formate in einem Projekt mischt und man das Video am Ende auch präsentabel exportieren können will, kommt man ohne 3D-Unterstützung nicht wirklich gut aus.

Wenn man verschiedene Aufnahmeformate in einem Projekt gemeinsam schneiden muss, geht man wie folgt vor:

Zunächst synchronisiert man sämtliche Videospuren untereinander anhand des Audiosignals. Zwar bietet Video17 mit Multicam eine Automatik, abr ich mach das lieber per Hand, indem ich die Wellenformdarstellung des Audiosignals anfertigen lasse, die maximale Bildauflösung mit 1 Frame pro Kästchen wähle und dann charakteristische Wellenverläufe übereinander lege. Danach kann man sich das Material ansehen und entsprechend schneiden. Die Handhabung dieses Schneidens unterscheidet sich in keiner Weise von einem 2D-Schnitt.

Nun kann man jeder Videospur mitteilen, um welches Format es sich handelt, also ob es sich um 2D-, 3D-Side-by-Side-Halbbild (SDT750) oder eben 3D-Side-By-Side-Bild handelt. Beim Export des fertig geschnittenen Videos zum Schluss definiert man dann unmittelbar vor dem Rendern in das Zielformat, welches 3D-Format man haben will: Anaglyph mit Rot/Cyan, oder mit Side-By-Side-Bildern oder 2D. Für 2D wird schlicht allein das linke Bild ausgegeben. Ein besonders zu lösendes Problem besteht darin, dass für eine anaglyphe Ausgabe eines 2D-Bildes dazu führt, dass die Farben verfälscht werden. Auch deshalb bietet Video17 die Möglichkeit, künstliches 3D in das Bild einzufügen. Generell kann man ganz gut damit leben, wenn man Bilder, die nur in 2D zur Verfügung stehen, in ein 3D-Video einstreut, indem man die Option der 3D-Simulation benutzt.

Das Ergebnis einer anagylphen 3D-Videodatei kann man sich mit jedem Videoplayer, also typischerweise mit dem VLC, anzeigen lassen. Für die Ausgabe einer side-by-side-3D-Videodatei eignet sich der Stereoplayer, wobei der Stereoplayer auch in der Lage ist, eine side-by-side-3D-Videodatei anaglyph auszugeben.

3D-Video exportieren

Man kann in 3D aufgenommene Bilder mit Video17 auch als normales 2D-Video exportieren lassen. Insofern besteht beim Aufnehmen mit einer 3D-Kamera also kein besonderes Risiko, das man hinterher mit dem Material möglicherweise doch nichts anfangen kann. Man exportiert wie gesagt für diesen Fall einfach das linke Bild eines Stereobildpaares. Und auch in diesem Falle kommt Video17 mit einem Mix aus verschiedenen 3D-FullHD-Bildern, 3D-FullHD-Halbbildern und 2D-Bildern in unterschiedlichen Auflösungen und Framerates klar. Eine typische Ausgabe eines fertig geschnittenen Videoprojekts sieht, seitdem ich das alles ausprobieren konnte und ein Video auch an Interessierte ohne 3D-Fernseher weitergegeben wird, bei mir wie folgt aus:

  • Eine konventionelle 2D-Fassung, für das brillenlose Ansehenkönnen (wobei viele TV-Geräte in der Lage sind, 3D-Videos in 2D auszugeben) ,
  • eine anaglyphe 3D-Fassung, für die Farbbrille,
  • eine Side-By-Side-3D-Fassung.
Klar ist: 3D-Ausgabe in Side-By-Side, also jeweils ein Bild jeweils für links und eines etwas versetzt für rechts, ist logisch betrachtet ein Format, mit dem zukünftig jeder wie auch immer festgelegte 3D-Standard klarkommen wird. Anaglyph wird wohl an Bedeutung verlieren, und jeder 3D-Bildschirm wird in der Lage sein, nur eines der beiden Bilder anzuzeigen, weshalb bei Platzmangel auf einer DVD oder Bluray es eigentich ausreichte, ein 3D-Video in "side-by-side"-Format abzulegen.


Export eines 3D-Videos, Ausgabeformat: mp4, sinnvoll etwa für einen Upload auf youtube/3D


Export eines 3D-Videos, Stereo-3D


Export eines 3D-Videos, FullHD, halbes Bild für links, halbes Bild für rechts

Die anaglyphe Ausgabequalität der 3D-Videos in Magix war nicht ganz zufriedenstellend, nachdem der Vergleich zeigte, dass die anaglyphe Bilderausgabe des Stereoscopic-Players besser ausfiel. Es stellten sich im Magix-Ergebnis zu starke Ghostbilder ein. Und zwar deshalb, weil der rote und der blaue Bildanteil teilweise zu weit auseinander lagen. Das wird als Paralaxefehler bezeichnet. Hier bietet der SSP eine Paralaxekorrektur. Die Experimente zeigten, dass kleinere rote oder cyane Farbfelder zu besseren Ergebnissen führten. Nach dieser Entdeckung hatte sich mir messerscharf die Frage gestellt, ob das gute Video17 nicht ebenfalls etwas zur Parallaxenkorrektur bot. Und das bietet es im Bereich der Videoeffekte-3D-Bearbeitung tatsächlich. Fortan waren die erzielbaren Anaglyph-Ergebnisse besser. Und es ist auch ein zweiter Aspekt zu beachten, um zu guten, geisterbildarmen Ergebnissen zu kommen: Die Farbeinstellungen des Monitors müssen eventuell nachjustiert werden.

Zur Rechenleistung beim Export von 3D noch ein Wort: Wenn eine Produktion aus einem Mischmasch verschiedener Aufnahmeformate, so wie es oben geschildert der Fall war, plus Bildausschnitt-, Farb- und Parallaxekorrekturen bei insgesamt 6 eingesetzten Kameras plus einer weiteren, einzurechnenden zusätzlichen Audiospur besteht, dann kan die Renderzeit auf einem PC wie oben ausgewiesen schon Mal bis zum 40fachen der Laufzeit des fertigen Videos betragen.

3D-Videos in 3D ansehen

Drei Ausgabeformate von 3D-Videos sind wesentlich: Die Ausgabe auf einem 3D-fähigen TV-Gerät, 3D-Ausgabe per Beamer und ein 3D-Video im 3D-Format auf Youtube. Diese drei Möglichkeiten werden nachfolgend durchgesprochen.

Ausgabe auf einem 3D-fähigen TV-Gerät

Wie eingangs erwähnt habe ich mich beim TV-Gerät für die Polarisationvariante entschieden, konkret einen 42-Zoll-LED-TV von LG (LG 42LW570S). Zusammen mit den 4 vorhandenen Kino-3D-Brillen sowie der dem Gerät beigelegten Brille und dem als weitere Dreingabe beigelegten "Brillen-Partyset" verfügte ich von Beginn an über 10 Brillen. Bei einem Shutter-3D-TV-Gerät wären allein für 10 Brillen zwischen 600 und 1000 Euro hinzublättern.


Eingangskanal (LG)

Eine Videodatei von einer Stunde Länge, die im mp4-Format/FullHD/side-by-side vorliegt, passt normalerweise auf einen 2GB-USB-Stick. Mein TV-Gerät erkennt einen solchen USB-Stick kurz nach dem Reinstecken automatisch und zeigt den Inhalt des Sticks an, sofern er die Formate kennt. Das Format des Dateiinhalts wird offenbar an den Dateiendungen erkannt, dazu zählen "mpeg2", "mp4", "mp3", "jpg". Wenn man die Dateiendung ".mvs" der 3D-Videodateien der 750-Panasonic-Kamera auf ".mp4" umbenennt, kann man sich die Originaldateien der Kamera sofort ansehen,


TV-Fernbedienung mit 3D-Knopf (LG 42LW570S)

Der LG 42LW570S hat auf der Fernbedienung einen 3D-Knopf. Wenn man den drückt, erscheint eine Auswahl zur Darstellung von 3D: als 2D, 3D side-by-side oder übereinander. (Die anderen beiden ausgegrauten Optionen wären für 3D-Geräte mit Shuttermodellen relevant, die in diesem Falle ja genau keine Rolle spielen.)


3D-Anzeige-Optionen (LG 42LW570S)

3D-Ausgabe auf einem Beamer

Hier würde ich gern aus Erfahrung sprechen, doch über die verfüge ich leider noch nicht. Auch in diesem Falle gibt es wieder zwei Ausgabetechniken zu unterscheiden, Shutter und Polarisation. Bei der Shutterlösung bekommt der 3D-fähige Beamer von der Grafikkarte des PC die beiden Einzelbilder sowie die Bilderwechsel-Informationen angeliefert, entsprechend werden die Bilder auf der Leinwand angezeigt, entsprechend öffnen und schließen die Shutter in den Shutterbrillen. Bei der Polarisationslösung benutzt man im Prinzip zwei normale Beamer, in dessen Lichtgang man zwei Polarisationsfilter stellt, einmal eines, um vom Bild senkrechten und einmal für die vertikalen Licht. Diese beiden Beamer müssen von einer Grafikkarte mit zwei Ausgängen angesteuert werden, wobei der Steroscopic-Player die Steuerung der Ausgabe der Einzelbilder überimmt. Wichtig wird in diesem Falle jedoch die Leindwand, die muss geeignet sein, die unterschiedlich polarisierten Bildanteile in ihrer Unterschiedlichkeit erhaltend zu reflektieren. Und das können normale Leinwände genau nicht, sondern bislang nur Silberleinwände, die in begeisterungswürdigen Ausmaßen das Zehnfache einer normalen Leinwand kosten können.

3D-Video auf youtube uploaden

Eine ganz spannende Option kann es sein, selbstgedrehte 3D-Videos auf youtube hochzuladen. Youtube bietet hier erfreulich viel Komfort: Man lädt ein FullHD/side-by-side/mp4-Video hoch, und der Betrachter kann dann bei der Ausgabe festlegen, wie er das Video betrachten möchte, möglicherweise in geringerer Auflösung als die hochgeladenen FullHD/1080p und nicht side-by-side sondern anaglyph.


Flexibler Umgang mit 3D auf youtube

Um ein Video auf youtube uploaden zu können, muss man bei google einen Account anlegen. Danach hat man seinen eigenen Bereich auf youtube, in dem man seine Videos organisieren kann und z.B. festlegt, in welchem Maße man sein Video veröffentlichen möchte (klar ist natürlich, dass youtube selber alles mitbekommt, insofern gibt es bei youtube keinerlei "Privtbereich", der vor fremder Einsichtnahme geschützt ist). Noch eine Anmerkung zu youtube aus Datenschutzsicht: Youtube gehört zu google. Und google bemüht sich ganz ähnlich wie facebook, uns Menschen weltweit so vollständig wie möglich auszuspionieren. Das sehe ich als hochgradig kritisch an. Deshalb möchte ich ermahnen, wirklich nur solche Videos auf youtube einzustellen, deren Inhalte die Privatsphäre der im Video Abgebildeten und die des Videofilmers selbst so gering wie möglich beeinträchtigen.

Hinweis

Für eine Durchsicht der ersten Version (V0.3) dieses Erfahrungsberichts danke ich den Teilnehmern des Stereoforums. Viele von deren fachkundigen Bemerkungen sind hier eingeflossen. Stereoforum: Diskussionforum zu 3D