Die HBO-Max-Serie Our Flag Means Death sticht auf den ersten Blick durch das Piraten-Setting und seine skurrilen Charaktere heraus. Ein Blick hinter die Kulissen offenbart jedoch, dass insbesondere die virtuelle Produktion zum Teil bisher nicht oder kaum verwendete Techniken nutzt.
Große Schiffe, kleine Inseln und das weite, weite Meer: Die queere Piratenserie Our Flag Means Death nimmt uns mit in die Karibik um 1700 herum – dem Goldenen Zeitalter
der Piraterie. Dort finden zwei spezielle Persönlichkeiten zusammen, die unterschiedlicher kaum sein könnten: der priviligierte Möchtegern-Pirat Stede Bonnet und Kultfigur Blackbeard. Schnell kommen die beiden sich in vielerlei Hinsicht näher.
Ein Großteil der gezeigten Szenen spielt sich auf dem Wasser ab. Insbesondere das Schiff des Protagonisten Stede Bonnet, die Revenge, wird oft zum Schauplatz des Geschehens. Aber wir sehen auch andere Wasserfahrzeuge, wie ein englisches und ein französisches Kriegsschiff. So weit so gewöhnlich für eine TV-Serie über Seeräuber.
In Wahrheit jedoch wurde keine einzige der Schiffsszenen auch tatsächlich auf dem Wasser gedreht – und genau genommen nicht einmal auf mehreren Schiffen.
Wie wurde denn nun gedreht?
Sämtliche Dreharbeiten mit dem Meer als Kulisse wurden vor einem etwa 9 Meter mal 50 Meter großen LED-Bildschirm gedreht. Diese sind gebogen angeordnet und umrunden das Schiffsmodell zum Teil.
Letzteres ist übrigens immer ein und dasselbe Modell und nicht wie es scheint, verschiedene. Es handelt sich um einen modularen Schiffsrumpf, der je nach Kontext einfach nur mit einem anderen Teil zusammengesteckt und optisch verändert wurde.
Rund um das Schiffsmodell wurden gebogene LED-Bildschirme und Lichtelemente installiert, um den Kamerawinkel nicht einzuschränken. (Bildquelle: postperspective.com)
Wie kommt das Filmmaterial auf die Screens?
Verantwortlich für die virtuelle Produktion hinter Our Flag Means Death ist der Kameramann Sam Nicholson, der mit seiner Filmcrew von Stargate Studios auch schon an anderen namhaften Serien wie The Mandalorian mitwirkte.
In einem Podcast-Interview mit befores & afters und bei Auftritten in amplify.nabshow.com und RedShark News stand er Rede und Antwort zur Produktion von Our Flag Means Death.
Dieser legte zunächst fest, wie groß die Bildschirme sein müssten, um ein Piratenschiff in Originalgroße fassen zu können. Außerdem entschied er, die Screens um das Modell herum zu formen. So waren die Kameraleute dazu in der Lage, aus nahezu jeder Perspektive zu filmen.
Als nächstes reiste Nicholson mit seiner Crew nach Puerto Rico. Dort begannen sie von einem Boot aus mit der Aufnahme von Meereslandschaften mithilfe von mehreren Kameras für 360-Grad-Aufnahmen und in sehr hoher Auflösung.
Schnell stellte die Filmcrew aber fest, dass 360 Grad aufgrund des Setdesigns zu stark limitieren. Einzelne Aufnahmegeräte wurden also wieder entfernt und auf 270 Grad umgesattelt, um die einzelnen Bildabschnitte hinterher besser zusammenflicken zu können.
Wuseliger Alltag: Ein Großteil der Produktion fand auf einem modularen Schiff mit echten Aufnahmen von Meereslandschaften statt. Am Computer wurde jedoch stellenweise mit Visual-Effects nachgebessert. (Bildquelle: postperspective.com)
Auf diese Art nahmen sie 400 Terabyte Filmmaterial auf dem Ozean auf. Die Bedingungen, so Nicholson, seien dabei schrecklich gewesen, weil zuvor noch nicht bekannt war, welche Art von Filmmaterial für welche Episode überhaupt benötigt werden würde. Also versuchte er, ein möglichst breit gestreutes Repertoire an Aufnahmen anzubieten. Darunter verschiedene Tageszeiten, Wetterbedingungen und Meeresabschnitte.
Dennoch brauchte das Team eine grobe Vorstellung vom Set für die benötigten Aufnahmen. Dafür wurden CGI-Modelle erstellt, auf Originalgröße skaliert und mit den Filmaufnahmen kombiniert, um die Größenverhältnisse besser einschätzen zu können.
Was ist CGI? CGI ist die Abkürzung für Computer Generated Imagery
, übersetzt: Computer generiertes Bild. Damit gemeint sind vor allem traditionelle, visuelle Effekte.
Am Ende musste noch die Hardware entworfen werden, um einen 20K-Bildschirm zu bespielen, die Beleuchtung entsprechend zu steuern und mehrere Instanzen von DaVinci Resolve zu synchronisieren, in denen die Einzelaufnahmen zusammengenäht
wurden.
Warum echte Seelandschaften?
Mit seiner Herangehensweise, vor Ort echte Ozeane zu filmen, sticht Nicholsons Produktion heraus. Inzwischen gilt es als üblich, gerade derartige Settings durch Simulationen zu generieren. Nicholson jedoch hat sich dagegen entschieden, aus gutem Grund:
Die Simulationen sind meistens in 4K. Nicholsons Team wollte aber einen horizontalen 20K-Bildschirm und fünf-Minuten-Takes. Hintergrund: Es ist Comedy. Im Gegensatz zum Drama finden wir in komödiantischen Produktionen viel mehr Dynamik zwischen Personen. Es reichen keine kurzen Momente, in denen jemand alleine am Küchentisch sitzt. Der Humor entsteht oft über Dialoge. Dies macht Szenen meistens automatisch länger.
Nicholson fügt hinzu, dass er den Executive Producers, allen voran Taika Waititi, der auch als Haupt-Act vor der Kamera stand, keine 30-Sekunden-Clips vorschreiben wollte: Wir wollten 270 Grad, 20K, volle Auflösung, keinen fixen Blickwinkel, die Kameras können überall hingucken. Wie erstellst du also eine 20K-Aufnahme mit einer Länge von 5 Minuten?
, so Nicholson.
Ein echtes Schiffsmodell anstatt Visual Effects und Greenscreen: Ein solches Set ist unglaublich immersiv für alle Beteiligten. (Bildquelle: postperspective.com)
Er meint weiter: Wir hatten sechs Wochen Zeit bis zum Hauptdreh. Wir brauchten Aufnahmen für morgens, mittags, nachts, die magische Stunde, tagsüber und wir wollten, dass es echt aussieht. Mit CGI kann man viel machen, aber du müsstest mit 20K rendern. Manche Aufnahmen haben wir trotzdem modifiziert. Aber selbst wenn man mit 20K Pixeln arbeitet, wissen wir, dass die Aufnahmen, die wir gemacht haben, 60K sind, also fünf Kameras mal 12K-Auflösung. Wir kamen also mit Aufnahmen zurück, die das Potenzial einer 60K-Welt haben.
Laut des Kameramanns wurden letztendlich gerade einmal 20 Prozent des gedrehten Materials auch tatsächlich verwendet.
Kurz: Es ist schneller und effektiver. Für die zweite Staffel wurde mehr CGI verwendet, weil bereits einige Aufnahmen existierten, und weil das Drehteam mehr Zeit hatte. Es war eine Kombination aus Texture Mapping und echten Aufnahmen.
Die Filmemacher nutzten ein optisches Verfolgungssystem mit 30 Kameras, die oben in den Dachsparren installiert wurden. Durch sie konnte am Set alles und jeder frei verfolgt werden.
Was das Drehen auf dem Wasser so knifflig macht
Der Nachteil einen Ozean zu filmen, liegt in der Bewegung des Bootes auf dem Wasser. Alle Riggs, an denen Kameras befestigt sind, müssen also stabilisiert werden – und zwar richtig. Denn auf dem großen Bildschirm würde man jede falsche Pixelbewegung sofort sehen. Also müssen die Kameras felsenfest auf einer beweglichen Plattform installiert werden, die sich mit dem Wasser bewegt.
Diese Herausforderung hätte man laut Nicholson mit CGI umgehen können, aber dafür fehlte die Zeit. Die Crew fragte sich, ob man vielleicht vom Ufer aus drehen könnte, oder von einem Lastkahn oder einem Segelboot aus.
Die Kameras mussten auf dem durch den Wellengang gebeutelten Boot stabilisiert werden, um Pixelverschiebungen in den Aufnahmen zu vermeiden. Glücklicherweise ist keines der teuren Geräte ins Wasser geplumpst. (Bildquelle: postperspective.com)
Schnell realisierten sie, dass man am Horizont eine vertikale Verschiebung sieht, nicht aber eine horizontale. Beim Dreh auf dem Wasser war demnach vorrangig, für eine vertikale Stabilisierung zu sorgen. Ansonsten kann es passieren, dass der Horizont gekrümmt aussieht oder an der falschen Stelle steht. Im Anschluss wurden digitale Verbesserungen und Anpassungen vorgenommen.
Mithilfe der Unreal Engine wurden die Aufnahmen mit einer Sinuswelle auf und ab gefahren, so dass das Boot am Ende so doll schaukeln konnte, wie es wollte, ohne dass man das gesehen hätte.
Dabei bedenken musste das Drehteam auch immer, dass die großen LED-Bildschirme gekrümmt sind, weshalb der Horizont genau auf der Höhe des Screens ebenfalls gekrümmt sein musste. Am Set wurden während der Dreharbeiten permanent Anpassungen in Echtzeit vorgenommen.
Die LED-Screens fassten rund neun mal 50 Meter. Mit dem richtigen Filmmaterial darauf fühlt man sich tatsächlich wie mitten auf dem Meer. (Bildquelle: postperspective.com)
Die Teams mussten auf Color-Timing-Probleme reagieren, Schwarzwerte angleichen und schauen, wie alles zusammen mit Effekten auf dem Schiffsmodell aussieht. Zum Beispiel in Bezug auf Nebel oder Licht.
Diese Produktionsentscheidung bietet eine Reihe von Vorteilen:
- Die Crew fühlt sich wohler und immersiver im Geschehen, was wichtig ist, weil die Takes bei Comedy oft sehr lang sind.
- Viel Wasser bedeutet, dass viel Rendering betrieben werden muss.
- Die Kameraleute müssen ebenfalls weniger auf Grenzen achten.
- 14 Wochen auf der Sound Stage: so lange will niemand einfach nur vor einem Greenscreen stehen.
- Es bringt die Echtzeit in das Filmemachen zurück, was am ehesten mit dem Hören von Schallplatten anstelle von digitaler Musik zu vergleichen ist.
Die Illusion gelang so gut, dass die HBO-Führungskräfte auf dem Schiffsmodell seekrank wurden, so Nicholson. Alle Beteiligten fanden es einfach cool, auf der Revenge zu sein, auch in den Pausen. Es war für manche wie ein Kurzurlaub.
Nicholson hebt hervor, dass es eben kein James-Cameron-Film sei, in dem alle in ihren Motion-Capture-Anzügen herumrennen und sich ausmalen, wie toll es hinterher aussehen würde. Beim Dreh von Our Flag Means Death sah das Setting schon beim Drehen echt aus und fühlte sich echt an.
Laut Nicholson ist virtuelle Produktion ein Werkzeug, kein Allheilmittel und auch kein Ersatz für visuelle Effekte. Aber wenn bereits vor einem lebenden Hintergrund performt wird, nimmt das auch den Druck von der Visual-Effect-Crew, denn diese kann sich darauf konzentrieren, wofür Visual Effects wirklich sinnvoll sind, anstatt einfach bloß einen Hintergrund hinter die Darstellenden zu legen.
Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.