LED-Vorhang und Klemmbaustein-Schiff: Für die queere Piratenserie Our Flag Means Death wurde die Filmcrew richtig kreativ

Eigentlich ist der Vorhang ja ein Hinterhang und das Schiff lässt sich modular zusammenstecken und nicht klemmen.

Our Flag Means Death wurde auf einem modularen Schiff und vor großen LED-Bildschirmen gedreht. (Bildquelle: postperspective.com) Our Flag Means Death wurde auf einem modularen Schiff und vor großen LED-Bildschirmen gedreht. (Bildquelle: postperspective.com)

Die HBO-Max-Serie Our Flag Means Death sticht auf den ersten Blick durch das Piraten-Setting und seine skurrilen Charaktere heraus. Ein Blick hinter die Kulissen offenbart jedoch, dass insbesondere die virtuelle Produktion zum Teil bisher nicht oder kaum verwendete Techniken nutzt.

Große Schiffe, kleine Inseln und das weite, weite Meer: Die queere Piratenserie Our Flag Means Death nimmt uns mit in die Karibik um 1700 herum – dem Goldenen Zeitalter der Piraterie. Dort finden zwei spezielle Persönlichkeiten zusammen, die unterschiedlicher kaum sein könnten: der priviligierte Möchtegern-Pirat Stede Bonnet und Kultfigur Blackbeard. Schnell kommen die beiden sich in vielerlei Hinsicht näher.

Ein Großteil der gezeigten Szenen spielt sich auf dem Wasser ab. Insbesondere das Schiff des Protagonisten Stede Bonnet, die Revenge, wird oft zum Schauplatz des Geschehens. Aber wir sehen auch andere Wasserfahrzeuge, wie ein englisches und ein französisches Kriegsschiff. So weit so gewöhnlich für eine TV-Serie über Seeräuber.

Schiffsmodul Mitte Dieses Modul wurde für sämtliche Schiffe in Our Flag Means Death verwendet. (Bildquelle: postperspective.com)

Schiffmodul Rückseite Lediglich kosmetische Variationen wie hier der Schriftzug "Revenge" wurden je nach Schiff angepasst. (Bildquelle: postperspective.com)

In Wahrheit jedoch wurde keine einzige der Schiffsszenen auch tatsächlich auf dem Wasser gedreht – und genau genommen nicht einmal auf mehreren Schiffen.

Wie wurde denn nun gedreht?

Sämtliche Dreharbeiten mit dem Meer als Kulisse wurden vor einem etwa 9 Meter mal 50 Meter großen LED-Bildschirm gedreht. Diese sind gebogen angeordnet und umrunden das Schiffsmodell zum Teil.

Letzteres ist übrigens immer ein und dasselbe Modell und nicht wie es scheint, verschiedene. Es handelt sich um einen modularen Schiffsrumpf, der je nach Kontext einfach nur mit einem anderen Teil zusammengesteckt und optisch verändert wurde.

Wie kommt das Filmmaterial auf die Screens?

Verantwortlich für die virtuelle Produktion hinter Our Flag Means Death ist der Kameramann Sam Nicholson, der mit seiner Filmcrew von Stargate Studios auch schon an anderen namhaften Serien wie The Mandalorian mitwirkte.

In einem Podcast-Interview mit befores & afters und bei Auftritten in amplify.nabshow.com und RedShark News stand er Rede und Antwort zur Produktion von Our Flag Means Death.

Dieser legte zunächst fest, wie groß die Bildschirme sein müssten, um ein Piratenschiff in Originalgroße fassen zu können. Außerdem entschied er, die Screens um das Modell herum zu formen. So waren die Kameraleute dazu in der Lage, aus nahezu jeder Perspektive zu filmen.

Sam Nicholson von Stargate Studios, hier quasi mit seinem eigenen Werk im Hintergrund, war maßgeblich an der Produktion der Serie beteiligt. (Bildquelle: postperspective.com) Sam Nicholson von Stargate Studios, hier quasi mit seinem eigenen Werk im Hintergrund, war maßgeblich an der Produktion der Serie beteiligt. (Bildquelle: postperspective.com)

Als nächstes reiste Nicholson mit seiner Crew nach Puerto Rico. Dort begannen sie von einem Boot aus mit der Aufnahme von Meereslandschaften mithilfe von mehreren Kameras für 360-Grad-Aufnahmen und in sehr hoher Auflösung.

Schnell stellte die Filmcrew aber fest, dass 360 Grad aufgrund des Setdesigns zu stark limitieren. Einzelne Aufnahmegeräte wurden also wieder entfernt und auf 270 Grad umgesattelt, um die einzelnen Bildabschnitte hinterher besser zusammenflicken zu können.

Auf diese Art nahmen sie 400 Terabyte Filmmaterial auf dem Ozean auf. Die Bedingungen, so Nicholson, seien dabei schrecklich gewesen, weil zuvor noch nicht bekannt war, welche Art von Filmmaterial für welche Episode überhaupt benötigt werden würde. Also versuchte er, ein möglichst breit gestreutes Repertoire an Aufnahmen anzubieten. Darunter verschiedene Tageszeiten, Wetterbedingungen und Meeresabschnitte.

Dennoch brauchte das Team eine grobe Vorstellung vom Set für die benötigten Aufnahmen. Dafür wurden CGI-Modelle erstellt, auf Originalgröße skaliert und mit den Filmaufnahmen kombiniert, um die Größenverhältnisse besser einschätzen zu können.

Set Vorab wurden Computergrafiken des Sets erstellt, um eine ungefähre Vorstellung zu bekommen, wie das Ganze aussehen wird. (Bildquelle: postperspective.com)

Ansicht von oben Bereits hier ist gut zu erkennen, wie sehr mittendrin die Personen vor der Kamera sein würden. (Bildquelle: postperspective.com)

Was ist CGI? CGI ist die Abkürzung für Computer Generated Imagery, übersetzt: Computer generiertes Bild. Damit gemeint sind vor allem traditionelle, visuelle Effekte.

Am Ende musste noch die Hardware entworfen werden, um einen 20K-Bildschirm zu bespielen, die Beleuchtung entsprechend zu steuern und mehrere Instanzen von DaVinci Resolve zu synchronisieren, in denen die Einzelaufnahmen zusammengenäht wurden.

Warum echte Seelandschaften?

Mit seiner Herangehensweise, vor Ort echte Ozeane zu filmen, sticht Nicholsons Produktion heraus. Inzwischen gilt es als üblich, gerade derartige Settings durch Simulationen zu generieren. Nicholson jedoch hat sich dagegen entschieden, aus gutem Grund:

Bei einem solch großen Screen, können die Kameraleute sich ziemlich gut austoben, da sie auch spontan dazu in der Lage sind, den Fokus zu verändern. Außerdem lässt es sich mit so einem atemberaubenden Setting natürlich auch gut aushalten. (Bildquelle: postperspective.com) Bei einem solch großen Screen, können die Kameraleute sich ziemlich gut austoben, da sie auch spontan dazu in der Lage sind, den Fokus zu verändern. Außerdem lässt es sich mit so einem atemberaubenden Setting natürlich auch gut aushalten. (Bildquelle: postperspective.com)

Die Simulationen sind meistens in 4K. Nicholsons Team wollte aber einen horizontalen 20K-Bildschirm und fünf-Minuten-Takes. Hintergrund: Es ist Comedy. Im Gegensatz zum Drama finden wir in komödiantischen Produktionen viel mehr Dynamik zwischen Personen. Es reichen keine kurzen Momente, in denen jemand alleine am Küchentisch sitzt. Der Humor entsteht oft über Dialoge. Dies macht Szenen meistens automatisch länger.

Nicholson fügt hinzu, dass er den Executive Producers, allen voran Taika Waititi, der auch als Haupt-Act vor der Kamera stand, keine 30-Sekunden-Clips vorschreiben wollte: Wir wollten 270 Grad, 20K, volle Auflösung, keinen fixen Blickwinkel, die Kameras können überall hingucken. Wie erstellst du also eine 20K-Aufnahme mit einer Länge von 5 Minuten?, so Nicholson.

Er meint weiter: Wir hatten sechs Wochen Zeit bis zum Hauptdreh. Wir brauchten Aufnahmen für morgens, mittags, nachts, die magische Stunde, tagsüber und wir wollten, dass es echt aussieht. Mit CGI kann man viel machen, aber du müsstest mit 20K rendern. Manche Aufnahmen haben wir trotzdem modifiziert. Aber selbst wenn man mit 20K Pixeln arbeitet, wissen wir, dass die Aufnahmen, die wir gemacht haben, 60K sind, also fünf Kameras mal 12K-Auflösung. Wir kamen also mit Aufnahmen zurück, die das Potenzial einer 60K-Welt haben.

Laut des Kameramanns wurden letztendlich gerade einmal 20 Prozent des gedrehten Materials auch tatsächlich verwendet.

Für die Serie wurden Aufnahmen von jedem denkbaren Wetter und Tageszeitpunkt angefertigt. Platz für Romantik gibt es bei solch einem Sonnenuntergang allemal. (Bildquelle: postperspective.com) Für die Serie wurden Aufnahmen von jedem denkbaren Wetter und Tageszeitpunkt angefertigt. Platz für Romantik gibt es bei solch einem Sonnenuntergang allemal. (Bildquelle: postperspective.com)

Kurz: Es ist schneller und effektiver. Für die zweite Staffel wurde mehr CGI verwendet, weil bereits einige Aufnahmen existierten, und weil das Drehteam mehr Zeit hatte. Es war eine Kombination aus Texture Mapping und echten Aufnahmen.

Die Filmemacher nutzten ein optisches Verfolgungssystem mit 30 Kameras, die oben in den Dachsparren installiert wurden. Durch sie konnte am Set alles und jeder frei verfolgt werden.

Was das Drehen auf dem Wasser so knifflig macht

Der Nachteil einen Ozean zu filmen, liegt in der Bewegung des Bootes auf dem Wasser. Alle Riggs, an denen Kameras befestigt sind, müssen also stabilisiert werden – und zwar richtig. Denn auf dem großen Bildschirm würde man jede falsche Pixelbewegung sofort sehen. Also müssen die Kameras felsenfest auf einer beweglichen Plattform installiert werden, die sich mit dem Wasser bewegt.

Diese Herausforderung hätte man laut Nicholson mit CGI umgehen können, aber dafür fehlte die Zeit. Die Crew fragte sich, ob man vielleicht vom Ufer aus drehen könnte, oder von einem Lastkahn oder einem Segelboot aus.

Schnell realisierten sie, dass man am Horizont eine vertikale Verschiebung sieht, nicht aber eine horizontale. Beim Dreh auf dem Wasser war demnach vorrangig, für eine vertikale Stabilisierung zu sorgen. Ansonsten kann es passieren, dass der Horizont gekrümmt aussieht oder an der falschen Stelle steht. Im Anschluss wurden digitale Verbesserungen und Anpassungen vorgenommen.

Mithilfe der Unreal Engine wurden die Aufnahmen mit einer Sinuswelle auf und ab gefahren, so dass das Boot am Ende so doll schaukeln konnte, wie es wollte, ohne dass man das gesehen hätte.

Dabei bedenken musste das Drehteam auch immer, dass die großen LED-Bildschirme gekrümmt sind, weshalb der Horizont genau auf der Höhe des Screens ebenfalls gekrümmt sein musste. Am Set wurden während der Dreharbeiten permanent Anpassungen in Echtzeit vorgenommen.

Die Teams mussten auf Color-Timing-Probleme reagieren, Schwarzwerte angleichen und schauen, wie alles zusammen mit Effekten auf dem Schiffsmodell aussieht. Zum Beispiel in Bezug auf Nebel oder Licht.

Diese Produktionsentscheidung bietet eine Reihe von Vorteilen:

  • Die Crew fühlt sich wohler und immersiver im Geschehen, was wichtig ist, weil die Takes bei Comedy oft sehr lang sind.
  • Viel Wasser bedeutet, dass viel Rendering betrieben werden muss.
  • Die Kameraleute müssen ebenfalls weniger auf Grenzen achten.
  • 14 Wochen auf der Sound Stage: so lange will niemand einfach nur vor einem Greenscreen stehen.
  • Es bringt die Echtzeit in das Filmemachen zurück, was am ehesten mit dem Hören von Schallplatten anstelle von digitaler Musik zu vergleichen ist.

Fertiges Set Ein Plätzchen zum Urlaub machen, oder? Das fertige Set sieht extrem echt aus, insbesondere für diejenigen, die vor Ort sind. (Bildquelle: postperspective.com)

Setarbeiten Da die Takes in diesem Genre recht lange dauern, kommt es dem Filmteam entgegen, wenn sie nicht nur vor dem Green-Screen performen müssen. (Bildquelle: postperspective.com)

Die Illusion gelang so gut, dass die HBO-Führungskräfte auf dem Schiffsmodell seekrank wurden, so Nicholson. Alle Beteiligten fanden es einfach cool, auf der Revenge zu sein, auch in den Pausen. Es war für manche wie ein Kurzurlaub.

Nicholson hebt hervor, dass es eben kein James-Cameron-Film sei, in dem alle in ihren Motion-Capture-Anzügen herumrennen und sich ausmalen, wie toll es hinterher aussehen würde. Beim Dreh von Our Flag Means Death sah das Setting schon beim Drehen echt aus und fühlte sich echt an.

Laut Nicholson ist virtuelle Produktion ein Werkzeug, kein Allheilmittel und auch kein Ersatz für visuelle Effekte. Aber wenn bereits vor einem lebenden Hintergrund performt wird, nimmt das auch den Druck von der Visual-Effect-Crew, denn diese kann sich darauf konzentrieren, wofür Visual Effects wirklich sinnvoll sind, anstatt einfach bloß einen Hintergrund hinter die Darstellenden zu legen.

zu den Kommentaren (0)

Kommentare(0)
Kommentar-Regeln von GameStar
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.

Nur angemeldete Benutzer können kommentieren und bewerten.