Blog

Tak mi się skojarzyło... #1 - Ballada o Busterze Scruggsie

Ostatnie kilka dni spędziłem na oglądaniu i słuchania kolorysty Petera Doyle'a. Był to dobrze wykorzystany czas, ponieważ jest to postać inspirująca, z delikatnie pretensjonalnym, ale ciekawym spojrzeniem na film. Gdy rozmowa schodziła na temat korekcji, niczym refren powracał wątek dynamiki i progresywnych zmian koloru w trakcie trwania sceny. Czasem korekcje te są niewielkie i mają pozostać niezauważalne, lecz czasem wprowadzone zmiany są trudne do przeoczenia...

i tak mi się skojarzyło...

Drugiego ze scenariuszy możemy doświadczyć oglądając ostatni z segmentów filmu "The Ballad of Buster Scruggs" (2018) w reżyserii braci Coen i ze zdjęciami Bruno Delbonnela. Scena, z której kadry umieszczam poniżej, rozgrywa się w dyliżansie i montowana jest wyłącznie z ujęć portretowych - ani razu nie odbijamy się na detal, nie oglądamy pejzażu zza okna. Pierwszy rząd stopklatek od drugiego dzieli 10 minut.

Zachodzące w scenie zmiany są wyczuwalne, ale nie zauważalne. Pomimo różnicy w charakterze obrazu, jaki dzieli początek od końca sceny, wszystko wydarza się na tyle płynnie, że nie rozprasza naszej uwagi - nadal jesteśmy z bohaterami, w ich świecie, śledzimy przebieg tej kameralnej sceny.

Ethan, Joel, Bruno i Peter to całkiem zgrany i zdolny kwartet, a “Balladę…” można obejrzeć na Netflixie.

Szymon KraszewskiComment
Podcast LifeAfterRender

Ciekawy podcast o postprodukcji, w dodatku po polsku? Brzmi to zbyt dobrze, by mogło być prawdą - a jednak!

Jestem bardzo wdzięczny, że mogłem porozmawiać z Ievgenem i Piotrem, trzymam też mocno kciuki za rozwój audycji! Zachęcam do spędzenia czasu ze mną, Waszym ulubionym kolorystą, ale również do sprawdzenia odcinków z wybornym mówcą i uroczym rozmówcą Łukaszem Omastą.

Część 1.

 

Część 2.

Szymon KraszewskiComment
Alexa35 i Arri Look Library

Moja robocza hipoteza brzmi następująco: w związku z faktem, że stare, sprawdzone LUTy nie działają[1], a nowych jeszcze nie ma, wiele Operatorek i Operatorów filmując obecnie Alexą35 korzysta z Biblioteki Looków Arri.

Pierwsze projekty, podczas których korzystano z tej kamery, były obarczone dodatkowym stresem, zarówno dla pionu kamerowego na planie jak i dla postprodukcji (np. zmuszeni byliśmy w trybie pilnym robić update Resolve'a do wersji 18). Kiedy opadł kurz, a my złapaliśmy kilka głębszych oddechów, na spokojnie mogliśmy przyjrzeć się nowym plikom i uaktualnionemu oprogramowaniu oraz poczytać dokumentację.

Jeśli jeszcze nie mieliście okazji masować ujęć z Alexy35 lub pojawiły się w Was wątpliwości jak poprawnie używać LOOKów-LUTów z Biblioteki Arri, to poniżej prosta grafika, która wyjaśnia poprawną kolejność działań.

Dorzucam, na na gorąco, 2 przemyślenia.

  • Dzięki zastosowaniu nowej krzywej zarejestrowany obraz może pomieścić więcej informacji w światłach, ale przez to jest on również gęstszy, cięższy i ciemniejszy. Powoduje to, że podczas pracy z wyłączonym zarządzaniem barwą na poziomu projektu narzędzia w Resolvie reagują inaczej niż się spodziewamy (większość sygnału mieści się w zakresie działania pierścieni Lift/Shadows). Zaleta nowego LogC4? Prawdopodobnie Alexa35 świetnie nadaje się do przeeksponowywania, tak jak kolorowy negatyw fotograficzny.

  • Cyfrowe ziarno z samych plików (lub będące efektem *forsowania negatywu* - patrzy punkt powyżej) jest bardzo przyjemne i na tyle wyraźne, że nie bardzo czuje się potrzebę dodawanie czegoś ponad to, co jest już w obrazie.

Alexa35 to zdecydowanie najciekawsze premiera sprzętowa od czasów pierwszej Sony Venice i idealna inspiracja do poszerzenia wiedzy oraz odświeżenia repertuaru trików.

[1] stare LUTy (czyli te, z których korzystaliśmy dotychczas pracując z Alexą, Alexą Mini, Mini LF itd.) nie działają z Alexą35, ponieważ nowa kamera zapisuje obraz w innej przestrzeni barwnej (Arri Wide Gamut 4) oraz przy użyciu innej krzywej log (Arri LogC4).

Szymon KraszewskiComment
ACES 101, czyli najkrótsza droga do celu


Istnieje wiele, głównie angielskojęzycznych materiałów opisujących czym jest ACES. Większość z nich jest bardzo obszerna, dość skomplikowana i opracowana przy użyciu technicznego języka. Są to bez wątpienia wartościowe pozycje, ale mogą okazać się swą formą zbyt przytłaczające dla tych, którzy stawiają swoje pierwsze kroki z color managementem. Szkoda, ponieważ aby bezboleśnie korzystać z Academy Color Encoding System nie trzeba wcale wiele - na początek wystarczy zrozumieć zaledwie kilka terminów.

W tym artykule postaram się w prosty sposób wyjaśnić czym jest ACES oraz podpowiedzieć jak najszybciej zacząć z niego korzystać.

 

ACES to tworzony przez niezależnych specjalistów system zarządzania kolorem, u którego fundamentów leżą dbałość o jakość i prostota użytkowania. Dzięki zastosowanym rozwiązaniom projekty postprodukowane w ACES będą łatwo adaptowalne do nadchodzących technologii, a wykraczająca daleko poza dzisiejsze standardy specyfikacja obejmie także przyszłe urządzenie rejestrujące i monitorujące. Implementacja ACES jest darmowa i niezależna od zewnętrznych urządzeń, co pozwala na bezproblemową wymianę plików między różnymi programami i środowiskami.

Niezależnie od tego czy działamy z materiałem z jednej czy bardzo wielu różnych kamer, pracując w ACES wprowadzamy nasze media do jednej, bardzo obszernej przestrzeni barwnej. Dzięki temu wykonywane przez nas operacje będą miały podobny efekt dla wszystkich klipów w projekcie, niezależnie od ich pochodzenia.

Postprodukując w ACES nie jesteśmy też przywiązani do konkretnego urządzenia wyświetlającego - w każdym momencie możemy przesiąść się z ekranu komputerowego na monitor referencyjny czy projektor kinowy, a efekt naszej pracy pozostanie wiernie oddany w nowych warunkach.

 

Aby móc pracować w ACES potrzebujemy ustawić zaledwie 3 rzeczy.

  • - wybrać ACES jako color management naszego projektu;

  • - nadać naszym źródłom prawidłowe IDT, czyli otagować nasze klipy, aby ACES wiedziało, z jakiej kamery pochodzą i jak je prawidłowo wykorzystywać;

  • - wybrać odpowiednie ODT, czyli wskazać rodzaj wyświetlacza na jakim będziemy pracować i monitorować progres prac.


W DaVinci Resolve (wersja 17.4.6) wygląda to następująco:

W ustawieniach projektu, w sekcji Color Management wybieramy -

  • Color Science: ACEScct;

  • ACES version: ACES 1.3 (a przy kolejnych uaktualnieniach wybieramy wersję najnowszą);

  • ACES Output Transform: zgodnie z naszym wyświetlaczem, sRGB, rec709 itd. (to jest nasze ODT)

  • Włączamy opcję Use color space aware grading tools.

W zakładce Media zaznaczamy nasze pliki, klikamy PPM i nawigujemy -

  • ACES Input Transform > wybieramy z listy naszą kamerę

Jeśli nasze pliki są RAWami, to Resolve sam rozpozna i prawidłowo otaguje nasze źródła. Jeśli do projektu ACES dodajemy np. plik JPG ściągnięty z sieci to tagujemy go jako sRGB.

Po skończonej pracy, chcąc zrobić eksport, procedujemy dokładnie tak, jak by przy jakimkolwiek innym projekcie - należy jedynie pamiętać, że plik który powstanie będzie w przestrzeni barwnej i gammie zgodnej wybranym przez nas ODT (ACES Output Transform).

 

That’s all Folks! Choć to zaledwie kilka podstawowych informacji, sam czubek góry lodowej, to nie potrzeba więcej, aby móc spokojnie pracować w ACES.

Zachęcam Was do eksperymentowania z tym środowiskiem, sprawdzania jak działają narzędzia, czy podoba nam się transformacja/look ACES, a po pierwszym przetarciu rekomenduję powrót do lektur, które dadzą lepsze zrozumienie tego color managementu i odpowiedzą na pytania taki jak np. czym różni się ACES2065-1 od ACEScg, czym jest ACES RRT itp.

Bardzo dobrym punktem wyjścia do zgłębiania tematu ACES jest broszura przygotowana przez Akademię - dostępna tutaj.

Poniżej zamieszczam kilka odpowiedzi na potencjalnie mogące pojawić się pytania jednocześnie starając się przemycić kilka dodatkowych informacji.

Czym ACES różni się od RCM - Resolve Color Managementu?

Główna różnica tkwi w dostępności. RCM jest ściśle związany z produktem firmy Blackmagic i korzystać z niego można tylko w DaVinci Resolve. ACES jest ogólnodostępnym standardem zaimplementowanym lub możliwym do prostego wykorzystania w dziesiątkach aplikacji do korekcji barwnej, online’u, compositingu, 3D itp.

Kiedy w Resolve wybieram opcję Bypass Color Grades (skrót Shift+D) mój obraz nie wyświetla się logu.

Pracując w projektach z color managementem nie mamy dostępu do materiału w logu - pracujemy z materiałem wyświetlany w poprawnym kontraście i kolorze. Dla plików zapisanych logarytmicznie istnieje jednak możliwość podejrzenia loga. W zakładce Color klikamy PPM na miniaturce klipu i wybieramy opcję Bypass Color Management.

W DaVinci Resolve na liście IDT nie ma takiego, który jest zgodny z moimi plikami źródłowymi.

Możemy doinstalowywać dodatkowe IDT. Zarówno same pliki jak i instrukcje łatwo znaleźć w sieci.

Czy można korzystać z ACES tylko częściowo? Czy można łączyć ten color management z innymi sposobami pracy?

W tekście przedstawiłem najprostszy i najbezpieczniejszy sposób pracy, czyli wykorzystanie ACES na poziomie projektu. Istnieje możliwość pracy w DaVinci Resolve zarządzajac barwą na poziomie node’ów przy wykorzystaniu OFXów ACES Transform i Color Space Transform - przy takim podejściu możemy sami decydować na którym etapie i w jakim zakresie chcemy korzystać z ACES. Należy zaznaczyć, że przy takim workflow cała odpowiedzialność, m.in. za poprawność przekształceń, spoczywa na użytkowniku. Chcących eksplorować ten wątek odsyłam do hasła „node-based ACES” w Google.

Czym jest opcja ‘Apply ACES reference gamut compression’ w ustawieniach projektu i czy warto ją włączyć?

ACES, delikatnie mówiąc, przeciętnie radzi sobie z elementami w kadrze, które są zarazem bardzo jasne i bardzo nasycone. Aby wyeliminować ten problem wprowadzono to narzędzie. Można z niego skorzystać na poziomie projektu lub aktywować je tylko dla problematycznych klipów - w zakładce Color klikamy wówczas PPM na miniaturce ujęcia i wybieramy ACES Gamut Compress > ACES reference gamut compress.

Jak można wyrenderować komuś plik zakodowany w ACES?

Wystarczy przed eksportem wyłączyć w projekcie ODT (ACES Output Transform ustawić na opcję No Output Transform), a z listy parametrów do eksportu wybrać plik EXR z kompresją RGB Half (PIZ Compression). Po renderze warto dodać adnotację, np. w nazwie folderu, że eksport ten jest zrobiony w AP0/ACES2065-1.

Wszystkie pliki w moim projekcie pochodzą z jednej kamery, czy mogę jakoś ułatwić sobie życie?

Jeśli wszystkie, lub większość plików, pochodzi z jednego źródła (np. wszystkie klipy zostały zarejestrowane Arri Alexą) możemy nasze IDT ustawić na poziomie projektu, w sekcji Color Management wskazując Alexę jako ACES Input Transform. Jeśli w trakcie prac doszłyby nam ujęcia z innego źródła, wtedy po imporcie należy je zlokalizować i zmienić ich IDT zgodnie z ich pochodzeniam korzystając z metody opisanej w treści artykułu.

Szymon KraszewskiComment
Większa zażyłość, czyli kolejne randki z ACES

W zeszłym tygodniu skończyłem swój pierwszy komercyjny projekt, który kolorowałem w pełnym ACES (ustawionym na poziomie projektu). Były to trzy 15-sekundowe filmy nakręcone jedną z kamery Blackmagic.

Przystępując do działania miałem lekkie obawy czy ten workflow sprawdzi się w przypadku wymagających dużej precyzji działania spotów modowych. Szczęśliwie pracowałem tego dnia sam i wiedziałem, że w razie kłopotów mogą w miarę szybko wycofać się ze swojej decyzji i powrócić do lepiej mi znanego sposobu pracy (brak color managementu, większość korekcji odbywa się na materiale pozostającym w logu), a ewentualna strata czasu będzie do odrobienia. Szybko okazało się, że mój niepokój był bezpodstawny i cała sesja przebiegła bez problemów.

Spostrzeżenia

Narzędzia działają inaczej, ale różnice nie są na tyle duże, żeby wybijać z rytmu. Kluczowanie, przy wyborze barwy pipetą, daje rezultaty wymagające znacznego zawężenia selekcji. W tym aspekcie Resolve Color Management jest zdecydowanie bardziej precyzyjny, jednak dla osoby pracującej na co dzień „w logu” konieczność ręcznego poprawiania klucza jest normą, zatem nie traktuję tego jako wady. Bazowe przekształcenia obrazu do Rec709 w ACES jest moim zdaniem najatrakcyjniejsze ze wszystkich ogólnodostępnych transformacji. Bez wątpienia jest to najbardziej kontrastowa konwersja, odnoszę wrażenie, że również najmocniej zawęża paletę barwną, lecz mimo to stanowi dobry punkt wyjścia do kreowania każdego looku. Kontynuujące ten temat warto też wspomnieć, że dużą zaletą korekcji w projekcie z pełnym zarządzaniem barwą (nie tylko w ACES) jest uproszczenie pracy. Dzięki temu, że na starcie dysponujemy poprawnym kontrastem i nasyceniem nasza struktura node’ów może być mniej rozbudowana i możemy skuteczniej zarządzać które zmiany powinny zachodzić na poziomie grup i timeline’u.

Co dalej?

W związku z tym, że Operatorzy kręcąc reklamy coraz częściej korzystają na planie i w postprodukcji ze swoich LUTów, trudno wyobrazić mi sobie porzucenie workflow bazującego na pracy „w logu” i twarde przejście na ACES - generowałoby to więcej kłopotów niż korzyści. Bez wątpienia jednak postaram się korzystać z systemu Akademii w a\ projektach z dużą ilością efektów specjalnych, b\ dłuższych formach narracyjnych i c\ filmach, które masterujemy w więcej niż jednej przestrzeni barwnej.

Zapewne w ramach przełamania rutyny i oswajania się z tym sposobem pracy, to tu, to tam ACES pojawi się w moich ustawieniach projektu.

Szymon KraszewskiComment
Film look nie istnieje...

Kontrowersyjna teza, podchwytliwy tytuł, a w środku szczere przemyślenia o tym czy film look istnieje, jeśli tak to jakie są jego składowe i czy warto emulować światłoczułą taśmę w domenie cyfrowej. To wideo było punktem wyjścia do naszej rozmowy, która odbyła się 16.12.2021 podczas webinarium, które zorganizowali Frank, CeTA, BENQ i Calibrite. Pod esejem pytania uczestników spotkania, na które to nie zdążyłem odpowiedzieć na wizji.

Czy korzystacie z Dehancera?

Czy korzystanie z takich wtyczek jak FilmConvert/Dehancer to lepsze wyjście na dłuższą metę?

Ja nie korzystam, ale mniej więcej wiem jakie możliwości mają oba te produkty i myślę, że to potencjalnie bardzo dobre narzędzia. Na co dzień staram się, aby wszystkie projekty były szyte na miarę, ale mogę spokojnie wyobrazić sobie scenariusz, gdzie potrzebna jest pewna automatyzacja zaawansowanego procesu i takie gotowe pluginy mogą okazać się zbawieniem.

Czy jako kolorysta dodajesz light leaks, lens flares itp.? Czy jest to bardziej po stronie ludzi od VFX?

Ze względu na workflow studia w którym pracuję takimi zabiegami jak dodawanie flar zajmuje się dział Online. Chodzi o to, aby postprodukcyjny efekt emulujący zjawisko optyczne jednakowo wpływał na wszystkie warstwy obrazu: te zarejestrowane na planie i te dodane później.

Grain - czy korzystasz z niego w reklamach TV i filmach na social media?

Jeśli tylko taka jest wola Twórców to bardzo chętnie i w dużych ilościach.

Chciałbym zadać pytanie które bardzo mnie nurtuje już od dłuższego czasu. Chodzi mi tutaj o portale typu Netflix i HBO. Chciałbym dowiedzieć się na jakim etapie Twoim zdaniem produkcji Netflix równa wszystkie swoje projekty. Wiadomo większość rzeczy jest kręconych różnymi kamerami (Alexa, Venice itp.) i tak samo z obiektywami. Poszukuje odpowiedzi, na jakim etapie zrównują swoje produkcje do ich charakterystycznego looku.

Osobiście nie czuję, aby produkcje Netflixa i HBO miały charakterystyczny look. Jeśli jednak miałbym zaryzykować jakąś teorię to zastanowiłbym się czy nie jest to kwestia sprzętowa. Ostatnio popularne stały się kamery o dużych sensorach (większych niż Super35mm), takie jak Sony Venice czy Arri Alexa LF. Ze względu na problem z pokryciem tak dużej matrycy bardzo zmniejszyła się ilość dostępnych obiektywów, zatem może częściej w różnych produkcjach pojawiają się podobne pary zestawów szkieł oraz kamer i to wpływa na wrażenie, że część filmów i seriali wygląda podobnie?

Najprościej używać vintage szkieł z lat 60-80 typu SMC Takumar, czy świetnych swoją drogą Rosyjskich koppi Carla Zeissa Jenna.

Stare szkło + nowa kamera = dobry balans!

Jaka nazywa się polecany program do kompresji materiału przed uploaded do Interneru? W kwestii kompresji plików do internetów zmorą bywa banding. Czy Handbrake również sobie z tym radzi lepiej niż standardowy export z poziomu Resolve/Premiere?

Od prawie dekady pracuję w podobny sposób - po zakończeniu prac renderuję master wysokiej jakości, z którego następnie eksportuję mniejsze pliki, warianty, wersje. HandBreak jest moim wyborem, kiedy muszę przygotować plik w kompresji H.264 zamknięty w kontenerze mp4. Juan Melara opublikował ostatnio na ten temat bardzo dobry artykuł.

Co daje oprócz ziarna naświetlanie na taśmę kopi cyfrowej?

Wszystkie inne cechy tej konkretnej taśmy, która zostanie naświetlona, czyli jej kontrast, odwzorowanie barw itp.

Czy Twój ulubiony grain to 16mm 500T?

Tak, zdecydowanie - bardzo dobry strzał!

Jakich YouTube'erów należy unikać?

Tych, którzy twierdzą, że z każdego nagrania da się zrobić "Jokera".

Byłoby super, jakbyście wrzucili garść linków do polecanych stron.

Wydaje mi się, że taka lista działa tylko wtedy, kiedy tworzy się ją samemu, przez dłuższy czas, dodając nowe pozycje i usuwając te, które nie przetrwały próby czasu. Ostatnio duże wrażenie zrobił na mnie kanał Cullena Kelly'ego i tam z ręką na sercu mogę wszystkich pokierować.

Najbardziej "filmowa" kamera?

Steve Yedlin powiedziałby, że ta, która jest w stanie zarejestrować najwięcej danych i ma najmniejsze technologiczne ograniczenia - dzięki takiemu sprzętowi będziemy w stanie wykreować każdy możliwy look. Trudno się z tym nie zgodzić, ale przy założeniu, że mamy pełną kontrolę nad procesem i wiedzę na tyle bogatą, że dobrze jesteśmy w stanie ten proces zaplanować. Inną perspektywę może dać spojrzenie na to na jakich kamerach kręcono filmy, które otrzymały w ostatnich latach najwięcej nagród i nominacji. Wydaje mi się, że wtedy odpowiedź brzmiałaby, że będzie to któryś z wariantów Arri Alexy.

Prośba o przypomnienie nazwiska drugiego wymienionego obok Juana Melary kolorysty.

Stefan Ringelschwandtner, a jego strona.

Color management i color space a pliki emisyjne – mam na myśli przede wszystkim ogólne podejście do pracy na plikach dostarczanych do różnych mediów – kina, TV (w tym 4K i HDR). Jak wygląda praktyka i workflow na polskim rynku – tak komercyjnym, jaki i fabularnym?

Sytuacja jest bardzo prosta, kiedy dostarczamy tylko pliki SDRowe, ponieważ nie jest wtedy w ogóle konieczne zarządzanie barwą i z jednego mastera można przygotować i plik do stacji TV i na YouTube. Kiedy w grę wchodzi HDR sytuacja się komplikuje i color management staje się niezbędny, natomiast nie zawsze musi on być realizowany systemowo i ustawiany na poziomie całego projektu.

Monitory referencyjne – czym tak naprawdę dysponuje polski rynek postpro, oczywiście w kontekście pokrycia przestrzeni barwnych?

Wszystkim tym, na co jest zapotrzebowanie i co określają specyfikacje: Rec.709 dla SDR (telewizja, YouTube) i P3 dla HDR i dla kin. Rec.2020 to na razie jeszcze melodia przyszłości.

Kiedy klient powie: co tak nieostro?

Należy wówczas zmniejszyć postprodukcyjny efekt rozostrzenia, ale nieznacznie!

Poproszę o wyświetlenie ostatniej planszy z tytułami użytych filmów.

"Boogie Nights" (1997), reportaż "Color Grading the film 'O Brother, Where Art Thou?'" (YouTube), "Człowiek w ogniu" (2004), "Diuna" (2021), "Długie pożegnanie" (1973), "Gra" (1997), "Kodachrome" (2017) (Netflix), "Lawrence z Arabii" (1962), "Looper" (2012), "Na noże" (2019), dokument "Snake Oil Salesman" (YouTube), serial "Stranger Things" (Netflix), serial "Sukcesja" (HBO), "The Lighthouse" (2019).

Cyjan czy magenta?

Cyjan i magenta, nawet w jednym kadrze!

Czy filmlook zmienia się na przestrzeni lat? Czy za 100lat będziemy dalej naśladować wady taśmy?

Jako zwierzęta nostalgiczne pewnie za 100 coś z przeszłości będziemy emulować, ale może wtedy będzie to szum współczesnych sensorów?

W czasach analogowych kolorystykę tworzyło się już na etapie naświetlania materiału na planie, a następnie odpowiednią obróbką chemiczną. Co dziś z tego zostało?

Moim zdaniem zostało wszystko z tą niewielką różnicą, że dawną obróbkę chemiczną zastąpiła obróbka cyfrowa.

Szymon KraszewskiComment
Pierwsze randki z ACES

W ramach przełamywania rutyny i wychodzenia poza utarte ścieżki podjąłem pierwsze, jeszcze dosyć nieśmiałe próby nawiązania relacji z ACES. Nie wiem jeszcze, czy to finał „Casablanci”, ale coś może z tego będzie.

Poniżej moje wnioski i spostrzeżenia.

Pierwsze odczucie - narzędzia zachowują się inaczej niż dotychczas, czyli pracując w projektach bez zarządzania barwą. Dla osób, które choć trochę eksperymentowały z ACES nie jest to żadnym zaskoczeniem i trzeba się po prostu przyzwyczaić. Wydaje mi się jednak, że w v17 LGG, Temperature, Tint i inne podstawowe funkcje działają bardziej przewidywalnie niż w v16. W najbliższym czasie sprawdzę czy zmiana przestrzeni barwnej node’ów na ACES - w przypadku pracy z ACES nie z poziomu ustawień projektu - spowoduje, że narzędzia będą działały skuteczniej.

Próbowałem wspomagać się DCTLami, które stworzył Paul Dore i choć ustawianie parametrów z poziomu GUI za pomocą suwaków nie jest rozwiązaniem optymalnym, to na pewno będę jeszcze eksperymentował z tymi wtyczkami.

Przy ujęciach zarejestrowanych na zewnątrz, przy świetle słonecznym, tworzenie looku było bardzo satysfakcjonujące i szybko udało mi się zbudować przyjemny dla oka, głęboki kontrast. Może przesadzam, ale odniosłem wrażenie, że stworzenie kontrastu o takim charakterze w projekcie bez ACES byłoby trudne.

Sytuacja wyglądała zgoła inaczej w drugim filmie, gdzie świat był w pełni wykreowany, drugi plan oświetlony szprosami kolorowego światła, a bohaterów z cienia wydobywało minimalnie zbyt mocne, ostre światło w którym skóra reprodukowało się blado i była pozbawiona szczegółów.

Pierwszy z problemów - nasycenie wysokich świateł - jest od zawsze piętą achillesową ACES. Na szczęście narzędzie opublikowane przez Jeda Smitha pozwoliło całkowicie usunąć pojawiające się właściwie we wszystkich kadrach artefakty.

Większą zagwozdkę sprawił mi temat skóry. Ostatecznie udało się wypracować skin tone, który podobał się zarówno mnie jak i Klientowi, ale proces dochodzenia do tego miejsca nie był oczywisty. Nie umiem odpowiedzieć, czy trudność wynikała ze sposobu, w jaki materiał został zaświecony i nagrany czy z mojego braku wprawy w działaniu wewnątrz ACES. Dodatkowym czynnikiem utrudniającym ocenę jest fakt, że korzystałem tu z ACES zbudowanego na node’ach (OFX ACES Transform) i część korekt dokonywałem przed, a część po IDT.

Efekty pierwszych przetarć zachęcają do kolejnych eksperymentów. Dla osoby, która od lat zaczyna korekcję „od LOGa”, każdy color-management wydaje się być na początku zniewalający, ale trudno odwracać wzrok od niewątpliwych zalet, jakie daje zarządzanie barwą, a w szczególności konkretnie ACES.

P.S.

Oba materiały - plener i wnętrze - zarejestrowane były kamerą RED dekodowaną zgodnie z parametrami rekomendowanymi dla IPP2 (w jednym przypadku nie korzystałem z RAWów).

Szymon KraszewskiComment
Workflow na miarę

Cechą dobrego workflow jest jego ustandaryzowanie, dzięki któremu większość projektów może zostać przeprowadzona szybko i skutecznie, a zaangażowane w nie osoby wiedzę dokładnie jak będą wyglądały kolejne etapy pracy. Zdarzają się jednak projekty, w których dla dobra filmu porzucamy utarte szlaki i szukamy bardziej pasujących do danej sytuacji rozwiązań.

Przy niedawno zakończonej reklamie, którą realizowaliśmy w LUNAPARKU, przystępując do pracy wiedzieliśmy, że w odróżnieniu od typowego projektu:

- prace online’owe będą musiały zostać skończone przed wejściem na kolor (gdzie na co dzień online rusza po gradingu), oraz

- zajmujący się onlinem Łukasz chciał pracować w ACES, a jak w ACES kolorować tej reklamy nie chciałem.

Odwrócenie etapów w workflow (offline-online-grading zamiast offline-grading-online), odpowiednio wcześnie ustalone, nie nastręcza żadnych problemów. Pewną zagwozdką było pogodzenie ACES z korekcją w środowisku bez zarządzania barwą, ale szybko znaleźliśmy na to rozwiązanie - system hybrydowy.

Jak to wyglądało w praktyce?

VFX pull - Arri LogC -> ACES

Na podstawie montażu została w Resolvie zrobiony conforming do oryginalnych mediów kamerowych, w efekcie czego powstał timeline ze wszystkimi wykorzystanymi w spocie klipami (czyli tzw. sekwencja transferowa). Następnie na każde z ujęć nałożyliśmy OFX ACES Transform z następującymi parametrami:

OFX ACES Transform: ACES Version: ACES 1.1, Input Transform: Alexa, Exposure Index: 800, Output Transform: ACEScct

W kolejny kroku wszystkie ujęcie zostały wyeksportowane do sekwencji EXR w źródłowej rozdzielczości.

Na tak przygotowanych plikach zostały wykonane przez Łukasza, w ACES, wszystkie liczne prace online’owe - zaledwie kilka z kilkudziesięciu ujęć nie poddanych zostało żadnej ingerencji.

Grading - ACES -> Arri LogC

Po online’ie nowe źródła, nadal jeszcze w ACES, trafiły do Resolve’a, gdzie każdy z klipów otrzymał (jako pierwsze poprawki w łańcuchu zmian) 3 node’y.

Node 1. *tłumaczył* ACES w wariancie wykorzystywanym do prac przy CGI/VFX na wersję stosowaną podczas korekcji barwnej.

OFX ACES Transform: ACES Version: ACES 1.1, Input Transform: ACEScg, Output Transform: ACEScct

Drugi node przenosił pliki z ACES z powrotem do oryginalnej przestrzeni barwnej i gammy.

OFX Color Space Transform: Input Color Space: ACES (AP1), Input Gamma: ACEScct, Output Color Space: ARRI Alexa, Output Gamma: ARRI LogC, Tone Mapping Method: Luminance Mapping, Gamut Mapping Method: Saturation Mapping

Node trzeci adresował minimalną zmianę w gammie i temperaturze, która powstała podczas przekształceń LogC -> ACES -> LogC.

Dzięki takiemu workflow Łukasz mógł robić compositing w wygodnym dla niego ACES, a ja kolorowałem film nie musząc walczyć z inaczej działającymi w ACES narzędziami i RRT.

Rozwiązanie, które ostatecznie wdrożyliśmy, było dwukrotnie testowane. Za pierwszym razem sprawdzaliśmy samo przejście do ACES i z powrotem. Za drugim razem, już na docelowym materiale, wykonaliśmy test polegający na wyeksportowaniu jednego ujęcia do ACES, w którym to następnie Łukasz wymienił niebo, wymazał jedne oraz dodał inne obiekty i wyrenderował wyretuszowany klip na kolor. Po nałożeniu 3 opisanych wyżej node’ów, pomijając wymienione w kadrze elementy, klip przed eksportem i po powrocie na kolor wyglądał tak samo i co równie ważne prawidłowo zachowywał się przy gradingu.

Czym więcej zbieram doświadczeń i czym więcej dowiaduję się o ACES tym bardziej doceniam ten system i jego wszechstronność. Może już niedługo zdecyduję się przeprowadzić w tym środowisku cały projekt, od początku do końca. Osoby korzystające na co dzień z color managementu zachęcam do sprawdzania zalet zarządzania barwą na poziomie node’ów (Color Space Transfrom i ACES Transform) w porównaniu do ustawień na poziomie projektu.

Kamera moich marzeń

W roku 2012 zauroczył mnie Ikonoskop A-Cam dII - cyfrowa wersja kamery 16 mm. Ten oryginalnie wyglądający sprzęt oferował jak na tamte czasy wyjątkowy pod względem jakości zapis (12-bitowy RAW, sekwencja klatek CinemaDNG w rozdzielczości HD) i rozpoznawalny, organiczny, przyjemny dla oka look. W środku podłużnej obudowy znajdował się sensor CCD - większość kamer posiadała i nadal posiada matryce CMOS - o rozmiarze 10.6 na 6mm, porównywalny wielkością do klatki taśmy 16mm. Obraz mogliśmy obserwować w lupie wyposażonej w monitor LCD o rozdzielczości 640×480 pikseli. Kamerę wyposażono w global shutter, czułość bazowa wynosiła 200 ISO, a zakres dynamiczny określono na 10-11 przysłon.

Dziś ta specyfikacja nie brzmi szczególnie imponująco (może poza wewnętrznym zapisem do 12-bitowych RAWów), ale kamera ta pojawiła się w zupełnie innej rzeczywistości.

Na początku drugiej dekady XXI wieku rynek sprzętu filmującego był znacznie mniejszy i węższy niż obecnie. Wśród rozwiązań budżetowych - choć i tak nie tanich - królował Canon 5D mark II dający płytką głębią ostrości w zamian za wysoką kompresję plików (a co za tym idzie - niewielką elastyczność w postprodukcji). Na drugim końcu spektrum dominowały nieosiągalne dla śmiertelników kamery Arri i RED. Środek pola pozostawał natomiast właściwie pusty. W tym krajobrazie pojawił się Ikonoskop oferujący naturalny, niskokontrastowy, przyjemnie miękki obraz prosto z kamery (dający olbrzymią elastyczność w postprodukcji) za stosunkowo przystępną cenę 6-7 tysięcy euro. Odnosiło się wówczas wrażenie, że jest to projekt od i dla pasjonatów, osób tęskniących za estetyką taśmy filmowej i próbujących zrekonstruować analogowy charakter w domenie cyfrowej. Cieszyła myśl, że tak udany, a zarazem nieszablonowy produkt może powstać niezależnie od wielkich firm w Niemczech, USA czy Japonii. Dla części filmowców mogła to być kamera idealna…

Wiele osób zachwalało, kibicowało, jednak mało kto zdecydował się na zakup. Ostatecznie, mimo sporego szumu projekt niestety upadł, a ja nigdy nie miałem swojego wymarzonego Ikonoskopu. Szczęśliwie kilka śmiałkiń i kilku śmiałków zrealizowało swoje projekty filmowe przy użyciu tej kamery i możemy dziś cieszyć nimi oko. Smacznego!

Szymon KraszewskiComment
Motion blur a green screen

Motion blur, czyli rozmazywanie się szybko poruszających się w kadrze obiektów, jest jedną z cech zapisu obrazu, którą kulturowo łączymy z filmem i która jest jedną ze składowych wrażenia “filmowości”. Efekt ten, uzyskany przez stosunkowo długie naświetlanie każdej klatki, jest prawie zawsze pożądany, lecz nie wtedy, kiedy pracujemy z green i blue screenami.

creative-cow-motion-blur.png

Rozmazywanie się obiektów powoduje, że zacierają się ich kształty i krawędzie, przez co trudno jest je odseparować od tła i tym samym precyzyjnie wykluczować. W niektórych sytuacjach (zamaszyste ruchy, niewielka różnica w kolorze i jasności między obiektem a tłem) precyzyjne, technicznie poprawne kluczowanie jest niemożliwe.

Rozwiązaniem tego problemu jest skrócenie czasu ekspozycji każdej z klatek poprzez zwiększenie prędkości migawki (zmniejszenie kąt jej otwarcia). Filmowy motion blur dodamy w postprodukcji, po kluczowaniu!

[stopklatka - Creative Cow]

Szymon KraszewskiComment
Nie montujemy na materiałach w logu


Drodzy Twórcy, z całego serca apeluję do Was - nie zgadzajcie się, aby Wasze filmy, teledyski i reklamy montowane były na materiałach „w logu”. 

Wykorzystując funkcję logarytmiczną („log”) maksymalizujemy ilość informacji, jakie jesteśmy w stanie zapisać w formacie wideo. Obraz, który w tym procesie powstaje, daje dużą elastyczność podczas postprodukcji, ale nie przedstawia wprost zarejestrowanej sceny (wypłowiały obraz, brak kontrastu i nasycenia - stąd popularna nazwa „szmata”) i nie jest przeznaczony do wykorzystania bez wcześniejszego przetworzenia

Mój apel nie jest wołaniem o bezsensowną higienę postprodukcyjną lub przestrzeganie zasad dla samego przestrzegania zasad. W finalne koszt tego zaniedbania ponosicie Wy.

Co tracicie montując swoje filmy „w logu”?

  • Nie możecie w pełni ocenić ani ekspozycji, ani ostrości ujęć.

  • Wykreowany na planie świat, dosłownie i w przenośni, blednie i traci moc.

  • Trudno jest wychwycić niedoróbki w kostiumie i scenografii. 

  • Brak nasycenia powoduje, że możecie zmontować ze sobą kadry tak różne pod względem temperatury, nasycenia i odcieni, że nie będzie się dało wyrównać ich podczas sesji koloru.

  • Przyzwyczajacie siebie (i Klientów) do nieprawidłowego wyglądu Waszego filmu.

Ostatni z powyższych punktów ma najpoważniejsze konsekwencje. Podczas pracy nad materiałem, oglądając po wielokroć film, przyzwyczajacie się do tego, jak on wygląda. Kiedy następnie, np. podczas korekcji, nareszcie doprowadzicie Wasz materiał do prawidłowego kontrastu i nasycenia (czyli odtworzycie to, co widzieliście gołym okiem i na monitorach na planie) możecie doświadczyć wewnętrznej niezgody na zmianę, która zaszła. W efekcie będziecie chcieli (skracając i upraszczając) wszystko rozjaśniać, schodzi z kontrastu i nasycenia (chcąc podświadomie zbliżyć się do „loga”) co bardzo, bardzo rzadko służy obrazowi.

Wszyscy lubimy piosenki, które dobrze znamy - dlatego właśnie w topowych produkcjach wypracowany przez Twórców, bliski docelowemu „look” filmu wprowadzany jest już do plików trafiających na montaż. Dzięki temu przez kolejne tygodnie i miesiące wszyscy oglądający robocze układki będą przyzwyczajali się do tego charakteru obrazu.

Nie zgadzajcie się na brak profesjonalizmu i utrudnianie Wam pracy - głośno protestujcie, kiedy wchodząc na montaż zobaczycie swoje materiały w nieprawidłowym kontraście i nasyceniu.

[stopklatka -> RED]

Tak to widzę

Od dwóch lat kolekcjonuję stopklatki z reklam i teledysków. Wśród zapisanych kadrów znajdują się zarówno takie, które robią na mnie wrażenie pod względem wizualnym (operatorsko-kolorystycznym), ale są też ujęcia, które trafiły do folderu ponieważ w ciekawy lub po prostu skuteczny sposób obrazują jak rozwiązać któryś ze stale pojawiających się w pracy kolorysty problemów (o tym później). Trzymam te pliki pod ręką, galerię stale uzupełniam i przeglądam, aby się zainspirować.

Postanowiłem podzielić się kilkoma z z tych kadrów i opisać jak jako kolorysta je oglądam, co w nich widzę i jak zauważone rzeczy nazywam. Będzie to w minimalny sposób zredagowany spontaniczny strumień myśli.

Przed rozpoczęciem właściwej sesji koloru Twórcy filmu wysyłają często referencje - są to fotografie wybrane specjalnie na kolor lub inne zdjęcia, które pomagały w komunikacji artystycznej wizji w całym procesie produkcji. Staram się wtedy rozpoznać rodzaj kontrastu, wagi, określić czy grade jest czysty, co stara się imitować, próbuję znaleźć - nawet abstrakcyjny - ale wspólny mianownik tych obrazów, nazwać nastrój, wywnioskować co Autorom może się w nich podobać. Choć poniższe stopklatki nie tworzą żadnej całości, tym niemniej proces pozostaje właściwie niezmieniony.

^ reklama KFC - “The Fight Against Tight”, kolor: Jax Harney

Wysoka gęstości; ciężki obraz; nisko osadzone, ale czyste czernie. Błyszczący highlight, mocny kontrast barwny. Wysoka saturacja, ale selektywna - kadr teoretycznie zalany cyjanem, ale jednak wyczyszczony, odzyskane barwy się dopełniające. Stylizacja, ale wiarygodna, przyjemna dla oka - mocna, choć nie narzucająca się. Obraz zyskuje balans dzięki ciepłej ścianie w drugim planie - przeciwwaga do tak dużej ilości chłodów.


^ teledysk Lous and the Yakuza - “Dilemme”, kolor: Alex Gregory

Ponownie obraz ciężki i gęsty, ale tym razem highlighty nie mają błysku, przez co kadr staje się przyjemnie zamulony. Czernie może minimalnie uniesione, bez detalu w cieniach. Sporo miękkości - nieostrości i kompresja sygnału (ograniczony kontrast). Delikatne, przyjemnie kontrastujące barwy i dwóch rodzajów kamienia zderzony z mocnymi kolorami dywanu i bluzki Bohaterki. Wyczuwalna winieta, ale działająca zdecydowanie mocniej na bokach niż u góry i z dołu kadru.


^ reklama Moen - “Water Designs Our Life”, kolor: Toby Tomkins

Ostatnie z ujęć to dobry przykład jak z klasą stworzyć ciepły, ale nie zalany żółcią look.

Wysoki kontrast, jasny i dość lekki obraz. Ciepłe promienie słońca odkładają się na Bohaterce, ale najwyższe światła pozostają zbalansowane (białe), dzięki czemu nie ma wrażenia przesady. Wielobarwna roślinność - chłodna w cieniach i zażółcona w światłach. Przyjemny, różowawy kolor skóry - mimo podobnego odcienia dobrze separuje się od stroju. Wyczuwalne, ale nie narzucające się ziarno dopełnia nastrój miłego popołudnia na suburbiach.


Tak to widzę!

Nigdy nie konsultowałem tego procesu i sposobu opisu z żadną koleżanką ani żadnym kolegą po fachu, ale zakładam, że każdej i każdego z nas wygląda to dosyć podobnie.

Zachęcam z całego serca do śledzenia w mediach społecznościowych trójki wziętych w tym tekście na warsztat kolorystów - są to moi absolutni faworyci, klasa światowa!

Szymon KraszewskiComment
Tekstury i faktury

W ostatnich miesiącach, w czasie wolnym od pracy - który to poświęcam na myślenie o pracy - najbardziej zajmują mnie w korekcji barwnej faktury. Pracując nad kolejnymi projektami staram się, na ile to możliwe, eksperymentować z kontrastem i wynikającym z niego charakterem obrazu (słowo klucz - gęstość!) testując inne niż zazwyczaj używane przez mnie narzędzia i dodając do obrazu “coś ekstra”.

W te rozważania wybornie wpisuje się wywiad, którego kolorysta Siggy Ferstl (Company 3) udzielił Benowi Allanowi z podcastu The T-Stop Inn. Zdradził w nim jak wyglądała kolejność działań i struktura node’ów podczas pracy nad filmem “Togo” - szczegóły tej wariacji na temat odtworzenia Autochrome’u poniżej referuję.

Pipeline otwierają dwa efekty, których celem jest rozostrzenie obrazu - filtry zmiękczający krawędzie oraz tilt-shift z własnoręcznie wyrysowaną dla każdego ujęcia maską. Kolejny etap to nałożenie głównej tekstury - składający się z z kilku warstw plik w 7K zostaje dotrackowany do ujęcia (match move). W klipach, w których pojawiali się ludzie, z warstwy tej zostają wycięte (roto) obszary zawierające skórę, aby nie wpływać na jej wygląd [1].

W następnym kroku ponownie dodawane są tekstury, tym razem faktury kamieni i tkanin oraz kilkukrotnie spowolnione ziarno. Każdy z powyższych elementów wykorzystywany jest z inną mocą i dozowany oddzielnie dla każdego ujęcia. Dopiero po tym etapie, na tak przetworzonym materiale, rozpoczyna się typowa korekcja barwna… W finalne, na pokolorowany materiał, nakładane są trzy warstwy imitujące cechy taśmy filmowej - pierwsza “zubaża” obraz przebarwieniami i zabrudzeniami, kolejna dodaje ‘zaświetlki’, a ostatnia ruchomą ramkę [2].

Siggy Ferstl sam dobrze podsumowuje swój proces - ‘a lot of heavy lifting’.

Oglądając dynamiczny trailer trudno dostrzec ilość włożonej pracy, pewne jej efekty widać natomiast we fragmentach scen. Chcących ocenić całość w pełnej krasie odsyłam na platformę Disney+.

P.S. Tradycyjnie w polskiej reklamie efekty takie jak ziarno, glow czy halacje zostawia się na online traktując elementy te jako dodatek, a decyzje o ich wykorzystaniu przesuwając na sam koniec procesu postprodukcji. To podejście, według mnie, jest złe. Z mojej perspektywy wymienione wyżej elementy stanowią integralną część looku i nie ma lepszego miejsca, żeby zadbać o efektowne ich zaimplementowanie niż korekcja barwna. Jestem przekonany, że zgodziłby by się ze mną Ferstl.

P.S. 2. Tak zaawansowane, pracochłonne projekty mogą zostać zrealizowane tylko i wyłączanie przy dobrym planowaniu i bardzo wczesnym zaangażowaniu kolorysty w proces produkcji. Zatem nie lękajcie się - dzwońcie przed zdjęciami!

 

[1] Powyższe prace wykonane zostały w zakładce Fusion (Resolve 16).

[2] Powyższe prace wykonane zostały w zakładce Color (Resolve 16).






Szymon KraszewskiComment
Jak oglądać pliki akceptując kolor?

Zestaw podstawowych* porad jak przygotować swój sprzęt do oglądania plików wideo podczas zdalnej akceptacji efektów korekcji barwnej. 

  • Jeśli masz dostęp do profili kolorystycznych Twojego wyświetlacza ustaw je w tryb REC.709 (lub sRGB).

  • Upewnij się, że nie masz włączonego trybu nocnego (Night Shift/Night Mode/f.lux itp).

  • Upewnij się, że masz wyłączony tryb True Tone (urządzenia marki Apple).

  • Korzystając z urządzenia mobilnego dostosuj jasność ekranu do warunków, w jakich oglądasz materiał. W ciemnym pomieszczeniu ustaw jasność na ok. 30-50% maksymalnej wartości, będąc na zewnątrz - powyżej 70-80%. Dobrym wyjściem jest również włączenie trybu automatycznego dostosowywania jasności przez Twój telefon/tablet/laptop.

  • Korzystaj z wyświetlacza, który dobrze znasz - przesłany materiał będziesz mogła/będziesz mógł porównać z wrażeniem, jakie zostawiły w Tobie poprzednio oglądane filmy, a to całkiem niezły punkt odniesienia.

  • Staraj się oglądać materiał w warunkach podobnych do tych, w jakich będą go oglądać widzowie. Jeśli to reklama internetowa skierowana do młodzieży wybierz jaśniejsze pomieszczenie i mniejszy wyświetlacz (telefon, tablet), jeśli natomiast akceptujesz odcinek serialu przygaś światła, zasłoń okna i skorzystaj z większego wyświetlacza (laptop, telewizor).

  • Doświadczenie wskazuje, że urządzenia marki Apple z wyświetlaczami Retina i Super Retina wiernie odwzorowują kolory i kontrasty - jeśli masz masz taką możliwość skorzystaj z produktu tej firmy. 

*  DISCLAIMER: żadne działania i starania nie zastąpią możliwości oceny korekcji barwnej filmu na dobrej jakości, w pełni skalibrowanym przez specjalistów monitorze. Powyższa lista to porady, których celem jest wyłącznie wyeliminowanie nieprawidłowych ustawień i „okiełznanie” warunków, w których kolaudujemy. Aby móc w pełni docenić i rzetelnie ocenić efekty gradingu należy zapoznać się z nimi w studiu postprodukcyjnym, do czego serdecznie namawiamy!

Szymon KraszewskiComment
Słoń i zamek - Londyn 2019


Trzy szybkie, okołozawodowe wrażenia z wiosennego wypadu do brytyjskiej stolicy.

Photo London 2019

Wystawę zwiedzać zaczęliśmy dość przypadkowo i w pośpiechu, bez wiedzy o jej rozplanowaniu i bez dobrego planu ataku. Brak rozeznania sprawił, że w pierwszej kolejności trafiliśmy do części przeznaczonej dla mniej jeszcze znanych, reprezentowanych przez niezależne galerie fotografików. Trudno było rozgryźć o co chodzi autorom, a kiedy myśl przekazana już była bardziej klarownie to niestety nie porywała intelektualnie. Co gorsza także pod względem warsztatu oraz estetyki trudno było dłużej zaczepić na czymś oko. Arty-farty, trochę zdziwienia o co tyle hałasu z tym Photo London, szczęśliwie w całym tym chaosie odnaleźliśmy jednak coś wyjątkowego - zdjęcia Alii Ali reprezentowanej przez Galerie-Peter-Sillem z Frankfurtu.


Drugi strzał - sekcja poświęcona nowym pracom Stephena Shore’a. Ze względu na sympatię dla tego fotografa wolę założyć, że czegoś nie zrozumiałem lub nie doczytałem…

Ulgę przyniosła dopiero ta część Photo London, która zaprezentowana została w pawilonie na dziedzińcu Somerset House. Właściwie każda z galerii pokazywała interesujące lub bardzo interesujące zdjęcia, z dużym uznaniem i wciąż zaskakiwani przechodziliśmy między kolejnymi stanowiskami. W pewnym momencie zdecydowaliśmy nawet, że nie chcemy - ze względu na jakość prac - zmęczeni, nie w pełni skupieni, kontynuować zwiedzania i postanowiliśmy przerwać wizytę planując drugie podejście na następny dzień. Niestety na Photo London już nie wróciliśmy, ale zostaniemy z dobrymi wspomnieniami prac Ralpha Gibsona, Nicka Brandta, Josefa i Jakoba Hoflehnerów i wielu innych artystów.


Only Human - Martin Parr

Z Parrem sprawa jest prosta - idąc na jego wystawę wiadomo, co się dostanie i zawsze jest to przeżycie wysokiej jakości <3. Przedstawione w National Portrait Gallery zdjęcia koncentrowały się na temacie poczucia jedność i brytyjskości w obliczu zbliżającego się brexitu.

Wystawa Parra to też zawsze dobra okazja do zrobienia zdjęć w stylu Parra.



Projekcja Dolby Vision w Odeon Luxe

Zainspirowany organizowanymi przez Dolby i SMPTE Polska warsztatami, które odbyły się ostatnio w Warszawie, postanowiłem skorzystać z okazji i wybrać się na projekcję w sali - jednej z zaledwie 19 w Europie - posiadającej certyfikat Dolby Vision.

Przede wszystkim cieszy fakt, że film nie wydał mi się za jasny, “błyszczący”, a najjaśniejsze fragmenty kadru nie były szczególnie bolesne dla oczu. Bardzo wysoki kontrast wzbudzał raczej uznanie niż frustrację, zaskakująco mało denerwująca okazała się wysoka ostrość obrazu w 4K. Wnioski te przynoszą ulgę, ponieważ wychodzi na to, że da się wypracować korekcję filmu fabularnego, która nienachalnie korzysta z możliwości HDR i jest akceptowalna dla osób, które w kinie cenią sobie miękkość, nieostrość, malarskość. Obawy rozwiane!

To, co imponuje w projekcji Dolby Vision, to poziom czerni. Pod względem wrażenia można to porównać jedynie z topowymi modelami monitorów LCD czy OLED. Seans poprzedzony był krótką reklamą systemu DV, gdzie porównywano poziom czerni w typowej sali SDR i ten z kina wykorzystującego technologię Dolby Vision - był to wspaniały dowód na to jak łatwo adaptuje się nasze oko i jak szybko tę ‘ciemną szarość’ tradycyjnej projekcji jesteśmy w stanie przyjąć za czerń.

A sam film “Avengers: Endgame”? Absolutnie fatalny, wyszliśmy po godzinie.

Papaya Films Academy - korekcja barwna

W ubiegły piątek poprowadziłem warsztaty o korekcji barwnej odbywające się w ramach cyklu Papaya Films Academy. Omawialiśmy nie tylko stricte techniczne zagadnienia dotyczące gradingu, ale również rozmawialiśmy m.in. o dobrym planowaniu zdjęć pod kątem postprodukcji, współpracy między kolorystą i Twórcami na etapie preprodukcji i produkcji czy o zarządzaniu sesją korekcji.

Specjalne podziękowania dla Mikołaja Sygudy, który współprowadził warsztaty i podzielił się z Kursantami swoją wiedzą oraz doświadczeniami ze współpracy z kolorystami przy projektach reklamowych i filmowych.

Podziękowania dla Papaya Films i LUNAPARKU.

Tak samo jak kolorować lubię również o gradingu i całej postprodukcji mówić i dzielić się swoim doświadczeniem - nie zwlekaj ani chwili i pisz do mnie jeśli chcesz zorganizować warsztaty, spotkanie lub prelekcję; zlecić napisanie artykułu; zaprosić kolorystę do testu sprzętu kamerowego.

Nakład pracy

Rozwój technologii przynosi ułatwiania, które czasem najprościej wyrazić w roboczogodzinach.

W Zachęcie, w ramach trwającej do połowy października wystawy, prezentowane jest “Tango” Zbigniewa Rybczyńskiego. Nie był to pierwszy raz, kiedy oglądałem ten film, lecz z każdym kolejnym kontaktem z tą animacją nie zmniejsza się moje uznanie - dla precyzji w analogowym działaniu, ilości włożonej przez Autora pracy oraz dla wyboru matematyki jako narzędzie opanowania chaosu.

Aby zrealizować swój projekt Rybczyński, w fazie preprodukcyjnej, musiał zaplanować ruch (w czasie i przestrzeni) wszystkich 36 występujących w filmie postaci wiedząc, że kiedy rozpoczną się zdjęcia nie będzie mógł dokonywać żadnych korekt. Następnie sfotografował samo pomieszczenie i wszystkich aktorów - każdą i każdego z osobna. Kolejnym etapem prac było ręczne wymalowanie masek, które przyłożone do negatywu wycinały sylwetki bohaterów animacji z otaczającego ich tła. Następna faza działań to łączenie, przy wykorzystaniu projektora, nagrań postaci z ujęciem pomieszczenia. Wszystkich po kolei, osobę po osobie, pętlę po pętli, klatkę po klatce. Łącznie wymagało to wykonania setek tysięcy ekspozycji.

Według wyliczeń Rybczyńskiego cały proces zajął mu 7 miesięcy pracy po 16 godzin dziennie. 3360 roboczogodzin.

Szacuję, że współcześnie, wykorzystując narzędzia cyfrowe, odtworzenie „Tanga” zajęłoby około dwa tygodnie spokojnej pracy. 80 roboczogodzin.

Stosunek 42 do 1.

Chapeau bas Monsieur Rybczyński, chapeau bas.

Szymon KraszewskiComment
Raz to za mało - skuteczne wykorzystanie technologii
raz_to_za_malo_cover_photo.jpg

Firma Blackmagic nieustannie czaruje nas nieograniczanymi możliwościami swojego flagowego software’u. Zachęca, abyśmy przestali myśleć o DaVinci Resolve'ie jako o programie wyłącznie do korekcji barwnej i zaczęli wykorzystywać tę aplikację również do montażu obrazu i dźwięku. 

Taka narracja nie jest niczym nowym. Podobną strategię marketingową przyjął kilka lat temu Autodesk przy promocji odświeżonego Smoke’a: jeden program, w którym zrobisz wszystko. Obwieszczono koniec z round-trippingiem, niewygodnym przechodzeniem między aplikacjami - oddajemy w Twoje ręce kombajn, w którym szybko rozpoczniesz i skutecznie zakończysz każdy projekt bez konieczności wykorzystywania zewnętrznych narzędzi. 

Wspaniała idea, lecz czasem jednak teoria rozmija się z praktyką.

Zmiany w strategii tworzenia oprogramowania polegające na odchodzeniu od konstruowania wyspecjalizowanych narzędzi to tylko jedna z dziedzin filmowego życia, w której wyraźnie zaczyna odciskać swoje piętno filozofia more-in-one lub może nawet all-in-one. Po reżopach przyszedł czas na reżopo-montażystów, sami montażyści natomiast - czując presję ze strony produkcji - zaczynają brać się za kluczowanie greenscreenów i animowanie napisów, a online co i rusz przejmuje część zadań z drogiego w utrzymaniu departamentu 3D. 

W tego typu sytuacjach potrafiące wiele oprogramowanie staje się oczywiście niezwykle przydatne. Prawdą jest też, że przy niejednym projekcie da się osiągnąć porządane efekty wykorzystując skrajnie okrojone zespoły, ale na pewnym, wysokim poziomie usług takie rozwiązanie nie dają rady. Nie tędy droga. 

W odwiecznej ideologicznej walce między uniwersalistami a specjalistami proponuję zrobić krok w tył i pochylić się nad poniższą ideą: zamiast przekazywać wiele wymagających często różnorakich umiejętności zadań na barki jednej osoby i jednego programu, lepiej jest tworzyć elastyczne środowisko, w którym przekraczamy granice klasycznego podziału postprodukcyjnego (offline-grading-online) po to, aby czyniąc użytek z dobrodziejstw współczesnej technologii, móc najlepiej wykorzystać wyjątkowe umiejętności specjalistów. Brzmi dobrze, a co więcej może zadziałać!  

Korzystając z wolnej chwili postanowiłem sprawdzić jak mogłaby wyglądać nowoczesna, ale i rozsądna pod względem nakładu pracy kooperacja między departamentem koloru i online’u. Spośród dostępnych w internecie klipów wybrałem testowe ujęcie portretowe dostarczone przez firmę RED i postanowiłem potraktować je trochę jako beauty shot z typowego, komercyjnego projektu.

Założyłem, że przy bardzo precyzyjnej pracy z detalami twarzy modelki dział online będzie korzystał z animowanych masek wyodrębniających pewne fragmenty skóry, aby móc pracować nad szczegółami danego obszaru bez dokonywania zmian w innych miejscach. Skoro takie maski i tak finalnie powstaną, to dlaczego nie poprosić o ich wcześniejsze przygotowanie i nie skorzystać z nich już na korekcji barwnej? 

Na potrzeby tego eksperymentu stworzyłem 3 maski: jedna wyodrębniała oczy, druga usta, a trzecia samą skórę. Ostatnią z masek zrobiłem poprzez obrysowanie całego owalu twarzy i wyekstrahowanie z tego zaznaczenia obszarów wcześniej wyznaczonych na oczy i usta. 

Pierwszy etap, niezbyt udolnie naśladujący pracę działu online, mamy za sobą i tak przedstawiają się jego efekty:

Wyrenderowane maski zaimportowałem do DaVinci Resolve’a i połączyłem z materiałem przeznaczonym do korekcji. Mój luźny grading, zaprezentowany w formie drzewa/łańcucha node’ów, wyglądał następująco:

A teraz rozbijmy na czynniki pierwsze sam proces!  

Korekcję tego materiału (dekodowanie DRAGONcolor2 + REDlog Film) rozpocząłem od ustalenia podstawowego poziomu kontrastu i nasycenia. Skupiłem się głównie na neutralnym i naturalnym odcieniu skóry [node #3]. Następnie, aby zająć się ustami i oczami, stworzyłem dwa node’y [#1 i #2] poprzedzające powyższą korekcję. Do wyodrębnienie ust i oczu wykorzystałem przygotowane wcześniej zewnętrzne maski. 

Kolejnym ruchem było wybielenie twardówki [#4]. Aby ułatwić sobie kluczowanie (barwa, którą w tym momencie przybrała twardówka, występowała także w niektórych partiach skóry) raz jeszcze skorzystałem z zewnętrznej maski, która wstępnie zawęziła mi obszar działań (cały kadr -> samo oko). Następnie zająłem się tęczówką [#5] i tu również ponownie pomogłem sobie z kluczowaniem używając zewnętrznej maski. 

Dalsze poczynania koncentrowały się na pracy ze skórą. Chciałem wyeliminować zimny magentowy ton, który pojawiał się na nosie i pod oczami Bohaterki [#6]. Tak jak w poprzednich etapach także i tutaj skorzystałem nie tylko ze zwykłego klucza, ale i wprowadzanej z zewnątrz alfy, która od razu usunęła z mojego pola zainteresowania włosy i usta. Następnym etapem korekcji było ocieplenie i zmiękczenie całej skóry [#7]. Jako że zmiana była globalna nie trzeba było nic kluczować - wystarczyła zewnętrzna maska.  

Kolejne działania przeniosły mnie z centrum kadru na peryferia - najpierw zmieniłem na bardziej słomkowy niebieski kolor części kosmyków [#8 i #9], a następnie dodałem ochładzającą winietę [#10], która podniosła kontrast całego ujęcia. 

Tak to wygląda w ruchu:

Uprzedzając komentarze i pytania odpowiem od razu: oczywiście, że takie maski można wykreślić i animować korzystając z bardzo zaawansowanych i wygodnych narzędzi w Resolvie. Sam korzystam z nich często. Pozostaje jednak pytanie o efektywność, jakość i koszt takiego działania. 

Nie zrozumcie mnie źle - nie twierdzę, że przy każdym projekcie na najdrobniejszy nawet szczegół koloryści powinno prosić o maski lub że należy eksportować z koloru dziesiątki pasów do późniejszego składu na online'ie. Jestem jednak zdania, że kurczowe trzymanie się typowego podziału na oddzielone od siebie postprodukcyjne etapy może w przyszłości okazać się ślepą uliczką, a wiele filmów - szczególnie tych, gdzie niezwykle ważne są detale (uroda, kosmetyki, samochody) lub gdzie trudno wymagać ostatecznego zamknięcia montażu przed rozpoczęcie postprodukcji (filmy i seriale) - może bardzo skorzystać na działaniach w otwartym środowisku i kooperacji rozmywającej sztywno wytyczone podziały.

Szymon KraszewskiComment
Pre-postprodukcja: paleta kolorów
PTAKOVA_paleta_COVER.jpg

Rozpocznę ten tekst od kliku oczywistości, ale biorę za to pełną odpowiedzialność i szczerze wierzę, że w kontekście tego wpisu warte są one przywołania: 

- koloryści pracują w oparciu o treści istniejące już w zarejestrowanym kadrze.

Możemy osłabiać, odświeżać, wzmacniać, ukrywać i odkrywać, ale nie możemy nic do obrazu dodawać. Nie liczcie zatem na rustykalny przepych w skandynawskich wnętrzach. Idąc dalej tym tropem:

- jakość naszej pracy oraz zakres możliwych rozwiązań kolorystycznych zależy nie tylko od decyzji oświetleniowych, ale także, w olbrzymim stopniu, od scenografii i kostiumu.

Nie jest to w żadnej mierze epokowe odkrycie, ale odnoszę wrażenie, że często wiedza na temat wagi typu lokacji i strojów obecna jest na etapie tworzenia scenariusza/treatmentu, natomiast nie udaje się tych założeń i pomysłów w pełni konsekwentnie wyegzekwować w późniejszych stadiach pracy nad projektem.  

Mając świadomość jak bardzo preprodukcja wpływa na zakres możliwości pracy postprodukcyjnej byłem wielce szczęśliwy, kiedy zaproponowano mi nie tylko korekcję barwną teledysku “Wiatr”, ale również stworzenie palety barw, która miałaby stać się punktem odniesienia dla osób zajmujących się przy tym projekcie scenografią, rekwizytami i kostiumem. Zakasawszy rękawy zabrałem się do debiutowania w nowej dla siebie roli. 

W momencie przygotowywania rekomendowanej palety kolorów nie było pewne na jak szeroko zakrojone działanie scenograficzne pozwoli budżet teledysku. Założyłem zatem najbezpieczniejszy ze scenariuszy - pracę z pomieszczeniem w formie zastanej - i skupiłem się kolorystyce kostiumów. 

Poszukiwania odpowiednich barw rozpocząłem od przyjrzenia się fotografiom wykonanym w wybranej do zdjęć lokacji. Mając w pamięci założenia Twórców, myśląc o potencjalnych kadrach i pracy kamery starałem się wybrać i spróbkować istniejące w tej przestrzeni kolory.

 

 

Skupiałem się zarówno na barwach, które powtarzały się często lub zajmowały dużą powierzchnię, oraz na tych, które nie występowały tak powszechnie, ale za to były nietypowe i interesujące. Pierwsza z wymienionych grupa kolorów stanowi główne wyzwanie - ze względu na ilościowy udział tych barw w kadrze pozostałe odcienie warto, lub można nawet należy, dobierać w odniesieniu do dominującej tonacji. Drugą grupę stanowią kolory, o które godzi się zadbać i które warto wydobyć - choć nie będą miały fundamentalnego udziału to w kształtowaniu charakteru obrazu to mogą go znacznie wzbogacić.

Znając wartości RGB wytypowanych kolorów postanowiłem sprawdzić jak te odcienie współgrają z innymi barwami. Aby ułatwić sobie zadanie korzystałem z aplikacji Adobe Kuler/Color CC, która pozwala w łatwy sposób dobrać, w oparciu o kilka teorii i zasad, pasujące kolory. Na tym etapie kierowałem się głównie intuicją i wyobraźnią, z tyłu głowy mając wizję wielobarwnego, ale zarazem eleganckiego i dość stonowanego, pastelowego teledysku.

Po pierwszym etapie selekcji do notatnika trafiło 20 kolorów, a ostatecznie do finału przeszło 12 z nich - oto one:

 

Szczególnie istotne, z perspektywy myślenia o poźniejszej korekcji barwnej, jest koło środkowe znajdujące się w drugim rzędzie. Barwa ta jest bliska odcieniowi skóry, zatem powinna ona stać się bazą i punktem odniesienia przy wybieraniu pozostałych elementów palety. Dzięki takiemu podejściu możemy kreować kontrast nie tylko światłocieniowy, ale również kolorystyczny.

Na tym etapie pracy zdałem sobie sprawę z wady, jaką obarczony jest taki sposób prezentowania kolorów. Wszystkie powyższe próbki są jednolite, nie posiadaj odcieni, są równomiernie oświetlone neutralnym światłem - w rzeczywistości niezwykle rzadko możemy oglądać i oceniać kolory w takiej formie. Aby umiejscowić w ją przestrzeni świata filmowego oraz wzbogacić tworzoną paletę skorzystałem z przygotowanych na stronie Movies in Color analiz. Przyglądałem się nie tylko wielobarwnym paskom oceniając zaprezentowane kolory ale także konfrontowałem te próbki z kadrem, z którego zostały pobrane. Szukałem ujęć, których nastrój i charakter odpowiadałbym mojemu wyobrażeniu o tym jak Twórcy planują aby wyglądał teledysk do utworu “Wiatr”. Tak prezentował się mój wybór:

 

Oba powyższe wybory, ujęte w zgrabny PDF, trafiły do Producentki. Tyle - dającej sporo do myślenia i wnoszącej wiele do mojej codziennej pracy - preprodukcji. Czy i jak teoria przełożyła się na praktykę można ocenić oglądając poniższy teledysk. 

 

Szymon KraszewskiComment
Na co do kina? #1 - "Nowy początek"

Trudno jest zrobić nieprzegadany, dobry warsztatowo, czytelny, a do tego wszystkiego mądry film science fiction. Trudno jest napisać spełniającą podobne kryteria książkę. Mówiąc wprost - niełatwo jest choćby zbliżyć się do “Blade runnera”. Spośród współczesnych i utalentowanych twórców Christopher Nolan świetnie poradził sobie z formą osadzonej w niedalekiej przyszłości bajki, reżyserując trzy bardzo dobre filmy o Batmanie, natomiast dwukrotnie przerosło go stworzenie filozoficznie zajmującego i zrozumiałego obrazu sci-fi. 

Denis Villeneuve poradził sobie z tym zadaniem bardzo dobrze.

Film “Nowy początek” jest przede wszystkim dobrze i elegancko skrojony. Scenariuszowo zgadzają się wszystkie akcenty i proporcje, kolejne elementy fabuły odkrywane są w odpowiednich pod względem utrzymania napięcia momentach. Reżyser delikatnie prowadzi nas za rękę skutecznie dbając o skupienie i zaangażowanie. Zwodzi, sugeruje, ale nie oszukuje. Zdjęcia autorstwa Bradforda Younga są oryginalne, wizualnie atrakcyjne i dobrze służą filmowi. Muzyka i efekty dźwiękowe również pracują na rzecz całości wzmacniając nasze doznania i budując nastrój. 

Stałym wyzwaniem, które staje przed twórcami filmów science fiction, jest stworzenie scenografii i kostiumu, wizualnego kodu przyszłości. Także pod tym względem otrzymujemy elegancką koncepcję, nie wymyślną lecz wystarczająco odbiegającą od naszej rzeczywistości abyśmy mogli uwierzyć, że przedstawione wydarzenia nie dzieją się teraz - lecz zaraz, nie tutaj - ale gdzieś obok. 

Kilka late temu uwierzyłem Alfonso Cuaronowi w jego wizję przyszłości, w jego “Ludzkie dzieci”. Zafrapowało mnie pierwsze wypowiedziane zdanie, przestraszyłem się przedstawionego świata, zauroczyła mnie biegłość w fachu wszystkich zaangażowanych w powstanie tego filmu twórców. “Nowy początek" nie wzbudził we mnie aż takich emocji, ale Villeneuve’owi również uwierzyłem. Obraz ten to udana próba generalna przed największym z pewnością wyzwaniem w karierze Kanadyjczyka - reżyserią “Blade Runnera 2049”.

Szymon KraszewskiComment