Digital Production, 3/02 Authors: Linus Ewers, Daniel Mann Das Floß Ein Bericht über den Stand der Produktion Der Film Das Floß erzählt die Geschichte zweier Schiffbrüchiger, die auf hoher See dem Tod durch Verdursten und Verhungern ins Auge blicken. Ein Hai, der um das notdürftig zusammen gezimmerte Floß kreist, verschärft die Lage. Floß, Puppen, Möwe, Hai, Wasser und Himmel: Was ist real? Was wurde am Rechner generiert? Die Vorproduktion ist bereits abgeschlossen und seit April dreht Jan Thüring zusammen mit Produktionsstudent Daniel Mann, Kameramann Wolfgang Wambach und Animator Oliver Schreier seinen neun Minuten langen Diplomfilm am Animationsinstitut der Filmakademie Baden-Württemberg. Nach seinem internationalen Festivalerfolg Endstation: Paradies, einem klassischem Puppentrickfilm, geht Jan Thüring nun einen Schritt weiter. Um den Stop-Motion-Film komplett auf dem Meer spielen zu lassen, nutzt er 3D- und digitale Compositing-Techniken. Das Floß, die Puppen und eine Möwe existieren real am Set. Das Wasser und der Himmel werden in Lightwave generiert. 35mm oder Digital? Ursprünglich sollte Das Floß auf 35mm gedreht werden. Nach einigen Recherchen im Bereich der digitalen Fotografie stellte sich jedoch heraus, dass professionelle Digitalkameras eine geeignete Alternative sein könnten. Hauptvorteile liegen dabei vor allem im Work-Flow, da kein Scanning erforderlich ist und sich die digitalen Daten schon am Set bearbeiten und beurteilen lassen. Auch fallen die hohen 35mm-Materialkosten weg. Ein Vergleichstest war daher gefragt. Dafür stellte Dieter Baumann von Digital-Photo-Systeme Ludwigsburg mehrere High-End-Kameras sowie einen Apple-G4-Hostrechner zur Verfügung. Die vergleichenden 35mm-Tests wurden bei Das Werk in München in 2K gescannt. Betreut und beraten wurden die Filmemacher beim Scanning und Recording von Christoph Schmitz, Geschäftsführer der Werk-Dependance in Ludwigsburg. Schon während des digitalen Gradings ragte die Kodak DCS760 auf Grund ihres immensen Kontrastes, der hohen Auflösung und Detailtreue heraus, obwohl die 35mm-Aufnahmen in Vistavision vorlagen. Vor der endgültigen Entscheidung stand jedoch die Ausbelichtung der 35mm- und DCS-Bilder. Sahen die Bilder der digitalen Kamera am Monitor etwas zu clean aus, so wurde das Produktionsteam nach der 2k-Cinemascope-Ausbelichtung am Arri Laser bei Das Werk positiv überrascht. Der gute Eindruck der Kodak-DCS760-Kamera setzte sich schließlich auf der Leinwand fort. Die Detailtreue der Bilder war ausgezeichnet und die Tiefenunschärfen waren 35mm-Film aufgrund des großen Chips ebenbürtig. Das Korn der DCS-Ausbelichtung war weitaus feiner als in der 35mm-Variante. Mit der Sicherheit, einen echten Filmlook generieren zu können, viel die Entscheidung endgültig auf die DCS760. Die Herausforderung (
) Das Team konnte Michael Wolf, Geschäftsführer des Ludwigsburger Animationshauses Gadget, als Technical Director für das Projekt gewinnen. Das perfekte Zusammenspiel zwischen real gedrehten Animationsszenen und den 3D-Elementen stellte das Team, ergänzt durch die Animationsstudenten Elmar Weinhold, Sven Dreesbach, Thilo Ewers und Holger Schönberger vor eine große Herausforderung. Nach diversen Überlegungen entschied sich das Team, eine Anbindung der Motion-Control an Lightwave zu realisieren. Von dieser Anbindung versprach man sich drei Vorteile: Erstens sollte aufwändiges 3D-Tracking wegfallen, zweitens sollte die Bewegung des Floßes ein Maximum an Realismus erreichen und drittens sollte die Schnittstelle zwischen Floß und Wasser einfacher und genauer zu realisieren sein. Ein weiteres Ziel der technischen Realisation der Moco-Anbindung war eine Fixierung des Modellfloßes am Set, um die Puppen exakt animieren zu können. Die Anbindung Michael Wolf baute die Moco in Lightwave nach. Benedikt Herré, zuständig für das Floßmodell, generierte parallel zum Bau des Floßes ein 3D-Modell. Dann wurde eine weitere Kamera in Lightwave erstellt, die so genannte virtuelle Kamera. Sie sieht, was nachher auf der Kinoleinwand zu sehen sein soll. Die 3D-Version des Floßes wurde auf das 3D-Wasser gesetzt und so mit der Wassersimulation verbunden, dass es sich realistisch auf den Wellen bewegte. Die virtuelle Kamera wurde von Kameramann Wolfgang Wambach am Set animiert. Lightwave berechnete aus der Bewegung der Kamera und der Bewegung des Floßes auf dem 3D-Wasser die Positionsdaten automatisch aus Lightwave an die Steuersoftware der Motion-Control. Auf Grund eines Defektes im Hostrechner der Motion-Control konnten die Daten jedoch nicht direkt per Nullmodemkabel an die Steuersoftware von Kupercontrol übertragen werden. Das Visual Effects Team nahm daraufhin Kontakt zu Jörg Wagner von 9-Data auf, der seit einiger Zeit Shotty produziert. Shotty ist eine modifizierte Zehnertastatur, über die Fernsehredakteure ihre Sichtmatzen steuern und Loglisten generieren können. Zu diesem Zweck wird das Gerät an einen PC angeschlossen und über einen integrierten RS-422/-232 Port mit einer MAZ verbunden. On-The-Fly werden In- und Outpunkte über die F-Tasten gesetzt. Shotty tippt die Timecodes dann in eine spezielle Word-Dateivorlage. Per Makro kann daraus eine Logliste für die meisten aktuellen NLE-Systeme exportiert werden. Kurzerhand programmiert Jörg Wagner einen Prototypen um. Von da an sendete das Lightwave Plu-In die Steuerdaten an Shotty und der tippte sie als Shortcuts in die Kupercontrol-Software. Keying Ein letztes Problem gab es noch vor Drehbeginn zu lösen. Wie werden das Modell sowie die Puppen freigestellt, um sie in die 3D-Hintergründe einzusetzen? Jan Thüring wollte eine starke Tiefenwirkung durch Unschärfen erzielen. Eine Schwierigkeit für jeden Keyer. Die Lösung: White-Screen. Ein Verfahren aus der Fotografie, bei dem das Fill vor Schwarz aufgezeichnet wird. Anschließend wird nur der Hintergrund beleuchtet und das Motiv unbeleuchtet aufgezeichnet. Um dieses Verfahren so schnell wie möglich realisieren zu können, entschied sich Kameramann Wambach für den Einsatz von Blitzlicht. Die Firma Bron Imaging GmbH stellte freundlicherweise ihr Teststudio zur Verfügung. Die Qualität des Lichtes war erstaunlich. Selbst bei mehrstündigen Intervallen waren zwischen den Takes einer kleinen Animationssequenz keine Helligkeitsschwankungen in der Beleuchtung festzustellen. Die Postproduktion Die Postproduktion soll parallel zum Dreh (Mitte April bis Ende Juni) erfolgen. Die Raw-Daten der DCS760 werden mittels eines von Michael Wolf geschriebenen Import-Plug-Ins in voller 12Bit und 3K-Auflösung in Digital Fusion geladen. Dort verarbeiten die Compositors die Whitescreen-Layer und die 3D Hintergründe. Der fertige Film wird in 2K-Cinemascope 10Bit Log auf dem Arri Laser auf Film recorded. (
)
|