San Galgano rybim okiem, Toskania, HDR z 3 zdjęć

Cudowna matryca Nikona

Nikon zaprezentował prototyp nowej matrycy o spektakularnych osiągach. Możliwość rejestracji do 1000 (tysiąca!) klatek na sekundę w rozdzielczości 4K już jest sporym osiągnięciem. Jeszcze większe wrażenie robi rozpiętość tonalna sięgająca 134 dB, czyli ponad 20 EV. Czy to oznacza bliski koniec problemów z prześwietleniami i czarnymi plamami na zdjęciach? Niezupełnie. To przesunięcie tego problemu z jednego miejsca w inne.

San Galgano rybim okiem, Toskania, HDR z 3 zdjęć

Dużo danych to też kłopot

Oczywiście matryca, która potrafi zarejestrować więcej, to zawsze atut dla fotografa. Jednak aby ten atut wykorzystać, trzeba jeszcze trochę popracować. Bez problemu daje się pokazać zdjęcie o rozpiętości 5-6 EV – czyli typowy JPEG, który oglądamy w internecie. Większa rozpiętość wymaga „upchania” tych nadmiarowych danych w możliwościach wyświetlania JPEG-a. Takie upychanie rozpiętości tonalnej nazywa się mapowaniem tonów – robią to wszystkie programy do składania HDR-ów. I można to zrobić dobrze, źle lub całkiem fatalnie. Nikon, prezentując osiągi nowej matrycy, mapowanie tonów zrobił źle.

Nikon nowa matryca 20 EV rozpiętości tonalnej
(fot. Nikon)

Powyżej to właśnie zdjęcie z nowej matrycy Nikona, pokazujące jej możliwości w zakresie rejestracji bardzo jasnych i bardzo ciemnych obszarów. Ok, rejestracja się udała. Gorzej z prezentacją efektu. Lewa strona w ogóle jest szara i mało kontrastowa, ale prawa też nie zachwyca intensywnością i soczystością barw. Danych było mnóstwo, gorzej z ich mapowaniem. Efekt przypomina pierwsze HDR-y, te sprzed piętnastu z górą lat, zanim jeszcze pojawiły się programy do HDR z prawdziwego zdarzenia.

Nikon - tradycyjna matryca - ultra high DR - porównanie
(fot. Nikon)

Nikon zamieścił też prezentację, jak wygląda ta scena fotografowana aparatem z tradycyjną matrycą i koniecznością wykonania dwóch ekspozycji: lewej dla jasnej części, prawej dla poprawnego naświetlenia ciemnej połowy. Zwróćcie uwagę, że najlepiej z tego wszystkiego wygląda po prostu poprawnie naświetlona jasna część – lepiej niż ten sam obszar rejestrowany nową matrycą o gigantycznej dynamice tonalnej.

Mniej pstrykania, siedzenia przed komputerem tyle samo

Zarejestrowanie ponad 20 EV w jednym ujęciu zamiast w serii 3-4 zdjęć oczywiście jest wygodne. Jednak później będzie z tym tyle samo roboty, co ze składaniem HDR-a. Albo i więcej… Dlaczego więcej? Bo HDR-y składamy programami do HDR-ów, w których mapowanie tonów to najważniejsze narzędzie. Tymczasem programy do wywoływania RAW-ów możliwości mapowania mają o wiele słabsze. Jeśli więc prototypowa technologia Nikona zostanie wykorzystana w dostępnych w sklepach aparatach fotograficznych, to droga do ładnych zdjęć scen o wysokim kontraście nadal będzie wyboista. Co więcej, hipotetyczne pojawianie się takich aparatów oznacza, że sporo będą musieli nauczyć się użytkownicy. Dużo roboty czeka też producentów programów do wywoływania RAW-ów. Przed HDR-ami nie uciekniemy więc – nawet jeśli będą to HDR-y z jednego zdjęcia. Co najwyżej mniej istotna będzie kwestia „ile zdjęć potrzeba do HDR-a„, ale nadal wyzwaniem będzie „jak to złożyć, żeby ładnie wyglądało„.

Zdjęcie u góry to toskańskie opactwo San Galgano – HDR złożony z 3 zdjęć zrobionych w serii, z odstępem co 2 EV.

 

  1. W sumie spodziewałem się czegoś takiego, ale już parę lat temu. Zakładam, że to teraz już tylko kwestia czasu, aż powstanie oprogramowanie potrafiące z tych danych zrobić należyty pożytek i… już. I kiedy tego typu matryce się przyjmą (bo dlaczego by się miały nie przyjąć?), to i oprogramowanie będzie potrafiło wygenerować „mniej więcej dobry” obrazek, taki akceptowalny dla przeciętnego oglądacza. Dla bardziej leniwych powstanie może wersja z suwaczkiem typu „mniej lub więcej kontrastu” i tyle. Chętni być może będą mieli profesjonalne wywoływarki, gdzie będzie można zrobić wszystko samemu albo chociaż przygotować presety „pod siebie” (zdjęcia są wprawdzie różne, ale preferencje te same ;)) A taki Lightroom może po prostu zwiększy zakres suwaków Highlight i Shadow – będzie wołał po staremu, ale więcej się odzyska w razie czego 🙂 Zobaczymy 🙂

    1. Oprogramowanie już jest – np. SNS HDR. 🙂 Tylko im lepsza matryca i im większa rozpiętość tonalna zarejestrowana, tym bardziej potrzebna decyzja „jak to ma wygladać”. Problem w tym, że nie ma jednej słusznej metody postępowania, bo wszystko zależy od tego, co jest na zdjęciu.
      I nie chodzi o zakres suwaków wyciągania cieni i świateł (choć to oczywiście też potrzebne), ale sposób upchania tych danych w znacznie węższym zakresie. Mniej więcej to sprowadza się do zredukowania liczb z zakresu od 1 do miliona do liczb z zakresu od 1 do 256. Oczywiście mnóstwo początkowo różnych liczb przyjmie tę samą wartość, ale trzeba to zrobić tak, aby zachować różnice tam, gdzie one są istotne wizualnie, a odpuścić różnice tam, gdzie sprowadzenie do jednego odcienia mniej razi. Na poziomie czysto technicznym te obrazki Nikona pokazują co trzeba – są detale w cieniach? Są. Ale estetycznie to koszmar.

      1. Piotrze, ale tym bym się nie przejmował zupełnie. Mieliśmy już różne rozwojowe matryce, zwiększała się liczba bitów na kanał i jakoś nie powodowało to żadnych problemów. Wydaje mi się, że oprogramowanie do wywoływania zostanie przystosowane w ten sposób, żeby robić to, co same aparaty robią z RAWami, żeby wyświetlić „jakiś” podgląd. Bazując na jakichś wzorcach, profilach, danych statystycznych wyświetlą „mniej więcej” to, co „chce” widzieć fotograf, a wspomnianymi suwaczkami będzie można sobie wyciągnąć to, co komu jest potrzebne. Nikon pokazał, co da się wyciągnąć, natomiast wątpię, by chodziło mu o pokazanie ładnej fotografii w sensie estetycznym. To pokaz technologii. Od estetyki będą ludzie albo specjalnie zaprojektowane algorytmy.

        1. Tak, z pewnością oprogramowanie aparatu wyświetli „jakiś” podgląd. Zapewne będzie wyglądał podobnie do tego dema Nikona. A liczba bitów na kanał na razie nam się zwiększyła bardzo subtelnie – od 12 bitów do 14 bitów w większości aparatu i 16 bitów w bardzo nielicznych. Skok do rozpiętości sięgającej 20 EV to różnica dużo, dużo większa. Owszem, więcej danych jest bardzo pożądane, ale ich interpretacja będzie wymagała większego nakładu pracy.
          Algorytmy od estetyki? Nie starczy Ci to, co te algorytmy dotąd estetycznie pokazały?

          1. Piotrze, ja patrzę na to od strony, ehm, technologicznej (pewnie skrzywienie od tego, że jestem programistą). Od tej strony 20EV to tylko liczby, większe niż przy 12, 14 czy 16 bitach. Do tej pory udawało się i 12, i 14, i 16 bitów „jakoś” zamienić na 8-bitowego JPEGa, żeby pokazać to jakoś sensownie użytkownikowi np. na ekraniku aparatu. Myślę, że bez problemu da się to zrobić także z większą ilością bitów – to tylko matematyka. Może trzeba będzie użyć troszkę innych algorytmów, ale jeśli pokażą się aparaty z tą nową matrycą, raczej nie będą pokazywały takiego obrazu, jak w prezentacji, tylko coś podobnego do obecnych podglądów. Tak samo będzie w wywoływarkach – raczej nikt nie zrobi algorytmu pokazującego kompletnie wszystko. Moim zdaniem te dodatkowe dane będą „ukryte”, tak jak są obecnie ukryte w 14-bitowych RAWach, gdzie dopiero ruszenie suwakami pozwala docenić, ile się kryje w cieniach lub światłach. I jak ktoś będzie chciał z tych danych skorzystać, to skorzysta. Tak naprawdę ważniejsze będzie to, że dane są, a nie, że TRZEBA koniecznie je od razu pokazywać na każdym zdjęciu.

            A uważam tak dlatego, że obecnie przecież też można zrobić od biedy HDR-a z jednego 14-bitowego RAWa i wtedy można wyciągnąć z niego dużo więcej niż to, co domyślnie pokazują wyświetlacze aparatów czy RAWery na domyślnych ustawieniach. Nikon chciał pokazać na swojej fotografii, ile faktycznie rejestruje matryca na jednym ujęciu, a nie zrobić z tego dzieło sztuki – przynajmniej ja to tak odbieram. I bardzo wątpię, żeby tak właśnie wyglądały zdjęcia w formacie JPG prosto z aparatu, bo po prostu użytkownicy tego nie oczekują, a same wyświetlacze mają często problem nawet ze zwykłymi JPGami. Inaczej już lata temu aparaty powinny zacząć pokazywać na wyświetlaczach takie pseudo-hdrowe podglądy, a RAWery w od razu pokazywać 14-bitowe RAWy w pełnej rozpiętości tonalnej.

            Dlatego sądzę, że nie ma się co przerażać – będzie nowa matryca, ale zdjęcia – w mojej opinii – nie zaczną od razu przypominać potworków z początku ery HDR. Będą wyglądać „normalnie”, jak do tej pory – MOŻE tylko nowe algorytmy pokażą troszkę więcej szczegółów w cieniach i światłach, ale raczej nie w takim stopniu, jak na prezentacji Nikona.

            Choć nie wątpię, że będzie też wysyp pluginów czy wywoływarek, które „pojadą po bandzie” i wyprasują wszystko równo jak leci – jakoś jednak nie wyobrażam sobie, że takie zdjęcia zacznie pokazywać np. Capture One 😉

            1. Do tej pory udawało się i 12, i 14, i 16 bitów “jakoś” zamienić na 8-bitowego JPEGa

              Te 16-bitów to format zapisu, dane są 12 lub 14 bitowe pakowane w 16-bitowy kontener. Dla rozpiętości 20 EV z trudem Ci starczy 32-bitowy zapis – sam możesz sobie policzyć. 🙂 Ale owszem, aparaty radzą sobie z taką liczbą danych o jasności – jak włączysz HDR-a w aparacie, to właśnie masz coś takiego – 3 zdjęcia i prawie na bieżąco sklejanie tego w 8-bitowego JPEG-a. I możesz sobie zobaczyć jak to wychodzi. Z moich doświadczeń: czasami ok, przeważnie kiepsko, czasem fatalnie.

              Tu faktycznie nie trzeba odkrywać koła, bo narzędzia i techniki do radzenia sobie z takim nadmiarem danych już są – w programach do HDR-ów. I tam też można zobaczyć, jak bardzo różne efekty da się uzyskać z tej samej paczki danych.

              Dlatego sądzę, że nie ma się co przerażać – będzie nowa matryca, ale zdjęcia – w mojej opinii – nie zaczną od razu przypominać potworków z początku ery HDR.

              Potworki z dziury HDR-owej wymagają bardzo konkretnego zabiegu – wygięcia krzywej tak, żeby cienie były jaśniejsze niż światła. Owszem, są programy do HDR-ów, które w takim wygięciu się specjalizują. 🙂 W aparatach bardziej spodziewam się tego, co dają obecnie złożone automatem HDR-y – płasko, bez kontrastu i absolutnie bez czerni, bo przecież wszystko ma być widać. 🙂 A im większa rozpiętość tonalna, tym bardziej płasko.
              W przypadku dużej rozpiętości tonalnej trzeba zdecydować co spłaszczyć, co skontrastować, gdzie poświęcić półtony, a gdzie je zachować – bo wszystkiego zachować się nie da. To za każdym razem decyzja estetyczna, tu żaden automat nie zastąpi gustu i stylu.

  2. Tak, zgoda, że jest problem przy SKŁADANIU zdjęcia – ale w tym wypadku nie trzeba niczego składać. Pojedynczy piksel, zamiast być opisany trójką liczb ośmiobitowych, jest opisany trójką liczb trzydziestodwubitowych. Dlatego zamiast 255, 255, 255 będziemy mogli dostać subtelnie zróżnicowaną trójkę bardzo dużych liczb, co nam da te „szczegóły” w światłach. No, albo zamiast 0, 0, 0 dostaniemy 23, 28, 18 (które w 32-bitowym świecie są praktycznie równe zeru), co da nam szczegóły w cieniach. Jedyną rzeczą, żeby przetransferować te nowe dane do świata JPG jest napisanie sensownej funkcji przeliczającej, która w najprostszej postaci będzie zwyczajnie kwantyzowała wartości 32-bitowe (czyli wszystko z zakresu „x-y” staje się wartością „z”). Identycznie dzieje się przy matrycach 12-bitowych czy 14-bitowych, z tym że oczywiście liczby są wówczas mniejsze – jednak sposób ich zamiany na JPG prawdopodobnie zbliżony. Być może przy tym przeliczaniu producent aparatu będzie nieco więcej wagi przywiązywał do świateł i cieni (żeby coś tam z nich wyciągnąć i przekonać klienta, że nowa matryca może więcej), jednak nie sądzę, żeby to od razu prowadziło do HDR-owych potworków. Docelowe zdjęcie JPG (np. podgląd na ekranie) będzie wyglądał prawdopodobnie tak samo, jak obecnie. Tutaj gustu i stylu nikt raczej nie oczekuje, zadjęcie ma wyglądać „normalnie”.

    O RAWery bym się w ogóle nie obawiał – po prostu zwiększą precyzję działania, zakresy suwaków itd., żeby fotograf mógł zdjęcie obrobić zgodnie z własnym gustem. I tu też nie przewiduję, żeby nagle RAWery zaczęły jakoś specjalnie traktować zdjęcia z takiej matrycy, stosując HDRowe sztuczki. Po prostu zwiększą się mozliwe zakresy suwaków itd.

    Generalnie absolutnie bym się nie przejmował tym, że nagle zdjęcia zaczną wyglądać jak wczesne HDR-y. Moim zdaniem, konwertując dane z nowej matrycy do JPG producent nie będzie się silił na robienie jakichś sztuczek, a profit odniosą głównie profesjonaliści, którzy już sobie wyciągną ze zdjęcia, co im gust podpowie. Pewnie w samym aparacie pojawią się jakieś tryby tematyczne w rodzaju SUPER-HDR, które JPGa stworzą według jakichś dodatkowych algorytmów, w końcu to mamy i dzisiaj. Ale żeby się tym przejmować? Nieee 😉

    1. Tak, zgoda, że jest problem przy SKŁADANIU zdjęcia – ale w tym wypadku nie trzeba niczego składać.

      No właśnie trzeba – dane. Bo składanie HDR-ów to najpierw łączenie danych w jeden ciągły 32-bitowy obszar, a później ich mapowanie na 8 bitów. Przy RAW-ie o rozpiętości 20 EV odpada tylko najłatwiejsza część – pobieranie danych z kilku plików. Od razu jest ten duży wielobitowy obszar, ale mapowanie cały czas przed nami.

      Dlatego zamiast 255, 255, 255 będziemy mogli dostać subtelnie zróżnicowaną trójkę bardzo dużych liczb, co nam da te “szczegóły” w światłach.

      No, ale jak masz do dyspozycji 8 bitów, to te „szczegóły w światłach” możesz mieć, ale tylko kosztem szczegółów w półcieniach. Albo cieniach. Albo głębokich cieniach. A jak zechcesz wyciągać dane ze świateł i jednocześnie z cieni, to normalnie zarejestrowane śródtony trzeba zupełnie spłaszczyć. Co czasem będzie dobrym pomysłem, czasem złym, ale nie liczyłbym na to, że jakiś automat to skutecznie rozstrzygnie.

      Jedyną rzeczą, żeby przetransferować te nowe dane do świata JPG jest napisanie sensownej funkcji przeliczającej, która w najprostszej postaci będzie zwyczajnie kwantyzowała wartości 32-bitowe

      No to masz coś takiego właśnie na przykładzie tego obrazka z Nikona. Skwantyzował i wszystko widać – nic nie jest czarne, nic nie jest białe. Nic nie jest też ładne. 🙂
      Taką kwantyzację zresztą robią aparaty cały czas, bo światła i cienie obcinają, resztę trochę tylko upraszczając przed wpakowaniem do JPEG-a. Ale tutaj nie mają specjalnie trudno, bo z 12 czy 14 bitów do 8 jest względnie blisko. Z 32 bitów już ciut dalej i trzeba ostro wycinać nadmiar danych, żeby zostało po 256 odcieni na barwę podstawową.
      Przedsmak masz też przy HDR-ach składanych w aparacie – przeważnie z 3 zaledwie zdjęć, wcale niekoniecznie rozsuniętych o 2 EV (część aparatów w trybie HDR pozwala tylko na mniejsze rozsunięcie), a z tych 3 plików to nie ma żadnego wyciągania z RAW-ów, tylko szybkie pobranie z łatwo kwantyzowanych danych i sklejenie. Rozpiętość wejściowa nie jest znowu taka wielka, a efekt przeważnie taki sobie.

      jednak nie sądzę, żeby to od razu prowadziło do HDR-owych potworków

      Nie, o HDR-owego potworka trzeba się postarać, rozjaśniając cienie bardziej niż światła. Raczej można się spodziewać tego, co wyszło na tym Nikonie, a co zresztą jest typowe dla HDR-ów prosto z aparatu – wszystko płaskie, nijakie, bez kontrastu i z panicznym unikaniem czerni i bieli.

      Ale żeby się tym przejmować?

      Czemu przejmować? Raczej po prostu – nie liczyć, że zwiększona zdolność matryc co do rejestrowanego kontrastu rozwiąże problem poprawnego naświetlenia zdjęcia. Nie rozwiąże – przeniesie tylko na etap obróbki.

      1. Swoją drogą, mnie bardziej trapi coś innego, a mianowicie wszystkie technologie tworzenia danych gnają do przodu, zajmując coraz więcej i więcej miejsca – niestety, nie nadążają za tym technologie przechowywania i przetwarzania. Już od paru lat dyski są po prostu za małe i za wolne na te wszystkie otaczające nas cyfrowe dobra – dźwięk (192kHz, 32bit), zdjęcia (20EV, matryce 8k), filmy (4-8K). A jak to wszystko przetwarzać? Edycja wideo 4K na średniej klasy pececie to nic przyjemnego, ale co tam wspominać o tym, skoro już przeglądanie kolekcji RAWów z leciwego Fuji X-T10 w Lightroomie może zniechęcić? Zdecydowanie moc przetwarzania i przechowywania są o wiele, wiele za mało rozwinięte w porównaniu do morza bajtów, które tworzymy każdego dnia i ja osobiście czekam na jakąś rewolucję w tej materii właśnie (pewnie próżno jednak) 😉

        1. To tak zawsze było, tylko mało kto chciał sobie z tego zdawać sprawę – że zmiana aparatu powinna być dopasowana do reszty osprzętu. Nie tylko obiektywów, kart pamięci, ale też komputera, na którym zdjęcia będą edytowane, dysków do ich przechowywania. Więcej megapikseli to też „więcej wszystkiego” – potrzebnej mocy procesora, pamięci, miejsca na dyskach.
          Filmowanie, zwłaszcza 4K, to osobna bajka – do montażu filmów zawsze potrzebny był mocniejszy sprzęt niż do edycji zdjęć.
          Inna kwestia, że akurat oferta Adobe pod tym względem nie pomaga. Ślamazarność Lightrooma z większą kolekcją jest od lat legendarna, Premiere też szybkością nie imponuje. Do przeglądania zdjęć proponuję FastStone Image Viewer, a później otwierasz wybrane zdjęcie w programie do edycji – bez tworzenia pamięciożernych kolekcji. Do montażu filmów – darmowa wersja DaVinci Resolve jest szybsza niż Premiere, a płatna wersja Resolve ma inny, jeszcze szybszy silnik.

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *