logo logo

Co to jest HDR? Parę(set) słów o najważniejszym temacie w telewizorach w 2016 roku

Fragment wideo masterowanego w połowie w HDR, w połowie w SDR (na Samsung 55KS8000)
Fragment wideo masterowanego w połowie w HDR, w połowie w SDR (na Samsung 55KS8000)

Z każdej strony producenci telewizorów rzucają na nas w tym roku hasło „HDR”. Czy to jako element certyfikacji „Ultra HD Premium”, czy „4K HDR”. Niektórzy mówią o nim nawet jako największej innowacji od czasu wprowadzenia kolorowych telewizorów. Wciąż jednak jest wiele mitów i niedopowiedzeń związanych z tym tematem, które postaram się wyjaśnić. Wpis został zaktualizowany 26.04.2017 o informacje o HDR10+.

High dynamic range. Dosłownie szeroka rozpiętość tonalna – termin znany niektórym z fotografii. Teoretycznie, HDR w telewizorach i aparatach to podobne zagadnienie, w praktyce jednak oznaczają co innego. W najprostszych słowach HDR oznacza możliwość wyświetlenia bardzo wysokich jasności z płynnymi przejściami tonalnymi, bez wypławiania reszty obrazu. Czyli jeśli widzimy np. odblaski słońca od metalu, od wody – nie są one jedynie jasnymi płaskimi plamami, ale bardzo jasnymi obiektami z zachowaniem detali. Składa się na to kilka czynników. Żeby dobrze wyjaśnić HDR, przypomnijmy sobie założenia standardu Ultra HD Premium.

Ultra HD Premium

By telewizor mógł otrzymać certyfikat przyznawany przez UHD Alliance, musi spełniać następujące wymogi:

Wyjaśnijmy to po kolei.

Rozdzielczość

To chyba jasne – pierwszym wymogiem standardu jest umiejętność poprawnego zaadresowania (poprawnego przypisania precyzyjnej wartości RGB) 8294400 pikseli na matrycy. Czyli telewizory 3K odpadają.

10-bitowy panel

Czyli matryca mogąca wyświetlić ponad miliard (dokładnie 1073741824) odcieni kolorów. Ośmiobitowy panel wyświetla tylko niecałe siedemnaście milionów (16777216). Skąd te liczby? 8-bitowy panel oznacza, że każdy jego subpiksel jest w stanie wyświetlić 256 (28) stopni nasycenia. Mamy trzy subpiksele, czyli dostajemy 256 odcieni czerwonego, 256 odcieni zielonego i 256 odcieni niebieskiego. Stąd 28 * 28 * 28 = (28)3 = 256 * 256 * 256 = 16777216 kombinacji. Analogicznie, dla dziesięciobitowego panelu – każdy podstawowy kolor może być wyświetlony w 1024 (210) odcieniach, wobec czego dostajemy 210 * 210 * 210 = (210)3 = 1024 * 1024 * 1024 = 1073741824. Teoretycznie niektóre ośmiobitowe panele powinny być w stanie przy odpowiedniej elektronice wyświetlać dziesięciobitowy kolor np. dzięki FRC, ale po to mamy standaryzacje, aby mieć pewność, że wszystko będzie na swoim miejscu, a nie w ten sposób emulowane.

DCI-P3

To jest nieco naciągane. Generalnie telewizory Ultra HD Premium powinny być w stanie wyświetlać kolory zgodne z paletą Rec. 2020, jednak z racji tego, że duże jej pokrycie nie będzie możliwe jeszcze przez wiele lat (o ile w ogóle będzie), przystano na szerokie pokrycie kinowej palety barw DCI-P3 (ale zgodnie z Rec. 2020). „Pokrycie szerszej palety barw” oznacza, że ekran będzie mógł wyświetlić kolory o wyższym nasyceniu niż obecnie konwencjonalny telewizor (które kalibruje się do dość starej palety Rec. 709). Czyli po kalibracji obecny najzieleńszy zielony będzie równie zielony, ale przestanie być najzieleńszym, bo pojawią się większe nasycenia zieleni. Kalibruje się pod paletę Rec. 2020 (znacznie większą od DCI-P3), a telewizor pokrywa z niej tyle, ile jest w stanie. Jednak z racji tego, że telewizory pokrywają raptem niecałe 70% Rec. 2020, najczęściej mówi się o DCI-P3. Bo też i marketingowo „97% DCI-P3” brzmi lepiej niż „72% Rec. 2020”.

HDR

I szeroka rozpiętość tonalna. W największym uproszczeniu – wyświetlane jednocześnie wysokie miejscowe jasności z gładkimi przejściami tonalnymi oraz nie wypławianie tą jasnością reszty obrazu. Jednocześnie lepsze czernie (przynajmniej w teorii, o tym poniżej) i lepsze biele. Więcej jednocześnie wyświetlanych stopni skali szarości, czyli tego co mamy między najczarniejszą czernią, a najjaśniejszą bielą.

Kontrast

W telewizorach kontrast rozumiemy jako iloraz bieli i czerni, gdzie biel w standardzie Rec. 709 jest na poziomie 120 cd/m2. Dzięki sztywnej wartości bieli i najczarniejszej czerni panelu jesteśmy w stanie wyliczyć jego kontrast. Przykładowo, dzieląc biel na poziomie 120 cd/m2 przez wymaganą przez standard UHD Premium czerń na poziomie 0.05 cd/m2, otrzymujemy współczynnik kontrastu 2400:1. Czyli nie jakiś oszałamiająco wysoki, przyzwoite matryce LCD typu VA bezproblemowo osiąga kontrast 3000:1.

Dlaczego kontrast rozbity jest na dwie grupy? Pierwsza to telewizory LED-LCD, druga OLEDy. Te pierwsze bezproblemowo osiągają jasność na poziomie 1000 cd/m2, jednak nie są w stanie domknąć pikseli na tyle, aby uzyskać czerń na poziomie OLEDa. Ten za to odwrotnie, czerń ma w zasadzie idealną, w ogóle nie świecącą, ale nie jest w stanie jednak osiągnąć tak wysokich jasności jak LED-LCD, w których jasność uzależniona jest tylko od mocy diód za matrycą. OLED zapewne bezproblemowo osiągnąłby jasność na poziomie 1000 cd/m2, jednak odbyłoby się to kosztem ogromnego poboru prądu, a i pewnie też nie najlepiej wpłynęłoby na żywotność panelu.

Jeszcze w temacie jasności. Układ SI jako jednostkę luminancji przyjmuje kandelę na metr kwadratowy, której używałem powyżej. Jednostką równą cd/m2 jest nit, którego wolą używać producenci. Nie wiem, czy ma to podłoże marketingowe, czy jest to spowodowane tym, że nit łatwiej przechodzi przez gardło od kandeli na metr kwadratowy, ale pamiętajmy, że jest to ta sama jednostka. Tutaj będę stosował je zamiennie. Dobrze przynajmniej, że producenci nie uparli się na stosowanie imperialnego systemu, bo wówczas mówilibyśmy o kalibrowaniu bieli do 35 ftL, czyli stopolambertów.

Co to oznacza w praktyce?

Ze standardu UHD Premium dla HDR istotne są trzy rzeczy – sam HDR, kontrast oraz 10 bitów.

Pierwszy daje nam pewność, że telewizor rozpozna metadane HDR i zrozumie, że ma odpowiednio dobrać parametry obrazu.

Dzięki drugiemu wiemy, że ciesząc się szerszą rozpiętością tonalną nie utracimy co najmniej przyzwoitej czerni.

Ostatni zapewnia nam natomiast płynne przejścia tonalne, czyli elementy o szczytowej jasności będą miały odpowiednią głębię, zamiast być płaskimi, białymi plamami.

Wszystko to sprowadza się do tego, że telewizory z HDR wyświetlają bardziej szczegółowy obraz – nie tylko pod względem drobnych detali, co dała nam już pierwsza generacja telewizorów Ultra HD, ale także pod względem większej precyzji kolorów, wyższych jasności i stabilniejszej czerni.

Wojna formatów?

Więcej o nowych formatach HDR przeczytasz tutaj.

Jak często bywa przy okazji nowych technologii, pojawiły się dwa konkurujące ze sobą standardy. Jeden, stosowany szerzej i ten, do którego się tu odnosiłem, nazywa się HDR-10, drugi natomiast to Dolby Vision.

Na papierze, DV wygląda lepiej – nie jest ograniczony do 10 bitów, lecz obsługuje nawet 12-bitowy sygnał. Do tego dzięki dynamicznym metadanym w sygnale, powinien lepiej zachowywać się na telewizorach o słabszej specyfikacji, łatwiej jest go “skalować”, dostosować do 10- i 8-bitowych paneli. Jednak ma też swoje wady. Największą moim zdaniem jest to, że nie jest formatem otwartym, a własnościowym, co utrudnia jego implementację. Po pierwsze – Dolby wymaga dodania chipa, który będzie interpretował dane DV. Po drugie – opłacenia przez producenta zapewne niemałej kwoty za licencję na stosowanie formatu. HDR-10 natomiast powinien pozwolić na akceptację dynamicznych metadadanych po prostej aktualizacji firmware’u telewizora. Dodatkowo, jak to z zamkniętymi formatami bywa, trudno przewidzieć, co będzie z nim dalej. Ponadto DV jest stosowany w niewielu źródłach. Na tę chwilę wszystkie blu-raye UHD kodowane są w HDR-10, podobnie zresztą jak treści w większości serwisów streamingowych. Netflix obsługuje jednocześnie obydwa formaty. Z serwisów stawiających wyłącznie na DV – Amazon oraz Vudu – w Polsce w tym momencie nie ma nic, a i nie zapowiada się, aby coś miało się tu zmienić. Z dostępnych na polskim rynku firm, jedynie LG i TCL obsługiwały będą Dolby Vision (LG zarówno DV i HDR-10). Samsung, Sony, Panasonic – stawiają na HDR-10.

HDR10+

Kolejny format dołącza do wojny? Niekoniecznie. Stworzony przez Samsunga HDR10+ jest rozszerzeniem głównego standardu – HDR10 – o dynamiczne metadane, czyli głównej przewagi Dolby Vision nad HDR10. Format, tak samo jak jego wariant bazowy, jest wolny i otwarty, każdy może go więc zaimplementować w swoim urządzeniu bez dodatkowych opłat. Co ciekawe, startowym partnerem w uruchomieniu tej nowej wersji HDR jest Amazon, który był dotychczas głównym źródłem treści w DV. Bardzo jestem ciekaw, jak wprowadzenie dynamicznych metadanych do otwartego HDR10 wpłynie na dalszy rozwój standardów i co oznacza dla Dolby.

Samsung zapowiedział także, że modele 2016 zostaną zaktualizowane do obsługi tego rozszerzonego formatu. Nie wiadomo jeszcze, co z modelami 2015.

Standardy standardami, a producenci swoje

No właśnie. Mimo długotrwałego procesu standaryzacyjnego, w którym brali czołowi producenci telwizorów, logo Ultra HD Premium zobaczymy w tym roku jedynie na modelach trzech producentów: Panasonic, Samsung, LG. U LG będą to jedynie telewizory OLED, bo panele IPS nie jest w stanie uzyskać wymaganego przez standard kontrastu, ze względu na słaby poziom czerni. U Panasonica będzie to jedynie flagowy DX900, czyli Full-LED z 512 strefami wygaszania (niższe serie będą interpretowały metadane HDR, ale przez znacznie niższą szczytową janość – 500 nitów – nie będą w stanie go wyświetlić. U Samsunga cała linia SUHD (czyli od KS7000 wzwyż) otrzymała certyfikację UHD Premium. Najbardziej chyba rzuca się tu w oczy brak Sony, mimo że firma jest jednym z założycieli Ultra HD Alliance. Nie oznacza to jednak, że Sony nie ma telewizora spełniającego wymogi standardu. Obydwa flagowce, XD93 oraz XD94 jak najbardziej je spełniają, jednak Sony postanowiło namieszać marketingowo i nie umieszczać loga standardu, który sami współtworzyli. Przedstawiciele firmy twierdzą, że wynika to z chęci ujednolicenia brandingu między różnymi urządzeniami – zarówno kamery jak i telewizory Sony nosić będą symbol 4K HDR. I tylko modele z serii 9 są w stanie sensownie pokazać szeroki zakres tonalny; seria XD85, mimo że modelowo wydaje się być następcą ubiegłorocznego X85C, nie zbliża się nawet do sensownego pokazania HDR. Matryca IPS nie pozwala temu telewizorowi uzyskać wymaganej czerni (ta jest na poziomie ok. 0.085 cd/m2, co przekłada się na kontrast ok. 1000:1), a i szczytowa jasność – jedynie 400 cd/m2 – pozostawia sporo do życzenia.

Lepsze piksele

Mam nadzieję, że udało mi się wyjaśnić, na czym polega HDR. Absolutnie nie jest to, jak mówią złośliwi, permanentny tryb dynamicznego. Nawet podczas testów w sklepach – a trudno o gorsze warunki oglądania – telewizory w trybie filmowym oszałamiały szczytową jasnością i kolorami. Wkraczamy w bardzo ciekawy – i wreszcie ustandaryzowany! – okres poprawy jakości obrazu. Wreszcie spełnia się obietnica lepszych pikseli. Jak zawsze, w razie pytań – zapraszam do komentarzy poniżej.

Na AVSForum można zobaczyć listę dostępnych obecnie treści z HDR, w tym także pobrać filmy demonstracyjne. Serwisy streamingowe dotyczą raczej rynku amerykańskiego, ale Blu-raye Ultra HD powinny już pojawiać się na półkach sklepowych.

Podoba Ci się to, co robię? I to bez reklam!