Filmy HDR (High Dynamic Range) to kolejny wymiar wysokiej jakości dekodowania wideo, co zapewnia niezrównaną jakość reprodukcji scen. Tak a więc przez znaczne zwiększenie zakresu dynamicznego komponentu luminancji (od bieżących 100 cd/m2 do 1000 cd/m2) przy użyciu znacznie szerszego przestrzeni kolorów (BT 2020). Obecnie jest to główny element ewolucji jakości 4K UHD w branży telewizyjnej.
Android 10 obsługuje te filmy HDR.
- HDR10
- VP9
- HDR10+
Począwszy od Androida w wersji 9 i nowszych, MediaCodec zgłasza metadane HDR niezależnie od trybu tunelowanego.
W trybie nietunelu można uzyskać zdekodowane dane wraz ze statycznymi/dynamicznymi metadanymi. HDR10
i VP9Profile2, które korzystają ze statycznych metadanych, są one zgłaszane w formacie wyjściowym z kluczem
KEY_HDR_STATIC_INFO
W przypadku filmu HDR10+, który korzysta z dynamicznych metadanych, jest to raportowane za pomocą
KEY_HDR10_PLUS_INFO
w formacie wyjściowym i może się zmieniać dla każdej ramki wyjściowej.
Więcej informacji znajdziesz w artykule Tunelowanie multimedialne.
Od wersji Androida 7.0 początkowa obsługa HDR obejmuje: Przez utworzenie stałych stałych do wyświetlania i konfigurowania filmów HDR potoków. Oznacza to definiowanie typów kodeków i trybów wyświetlania oraz jak dane HDR muszą być przekazywane do MediaCodec i przekazywane do dekoderów HDR.
Ten dokument ma pomóc deweloperom aplikacji w obsłudze strumienia HDR w odtwarzaniu, a firmy OEM i firmy SOC mogą pomagać w włączaniu funkcji HDR.
Obsługiwane technologie HDR
W Androidzie 7.0 i nowszych obsługiwane są wymienione poniżej technologie HDR.
Technologia | Dolby Vision | HDR10 | VP9-HLG | VP9-PQ |
---|---|---|---|---|
Kodek | AVC/HEVC | protokół HEVC | VP9 | VP9 |
Funkcja transferu | ST-2084, | ST-2084, | protokół HLG | ST-2084, |
Typ metadanych HDR | Dynamiczne | Statyczny | Brak | Statyczny |
W Androidzie 7.0 definiowane jest tylko odtwarzanie HDR w trybie tunelu, ale urządzenia mogą obsługiwać odtwarzanie HDR na obiektach SurfaceView przy użyciu nieprzezroczystego obrazu. bufory wideo. Krótko mówiąc:
- Nie ma standardowego interfejsu API Androida, który pozwalałby sprawdzić, czy odtwarzanie HDR jest obsługiwane za pomocą dekoderów nietunelowych.
- tunelowane dekodery wideo, które reklamują możliwość odtwarzania w technologii HDR, obsługują odtwarzanie w jakości HDR, gdy jest ona podłączona do wyświetlaczy obsługujących ten tryb.
- Kompozycja GL treści HDR nie jest obsługiwana przez system AOSP na Androidzie Wersja 7.0.
Discovery
Odtwarzanie w jakości HDR wymaga dekodera obsługującego ten format i połączenia Wyświetlacz z obsługą HDR. Opcjonalnie niektóre technologie wymagają wyodrębniania danych.
Wyświetlacz
Aplikacje będą korzystać z nowej wersji Display.getHdrCapabilities
Interfejs API do wysyłania zapytań dotyczących technologii HDR obsługiwanych przez określony wyświetlacz. To jest
informacji w bloku statycznych metadanych EDID zgodnie z definicją
w wezwaniu CTA-861.3:
public Display.HdrCapabilities getHdrCapabilities()
Zwraca funkcje HDR wyświetlacza.Display.HdrCapabilities
Obejmuje funkcje HDR na danym wyświetlaczu. Na przykład: obsługiwane przez nią typy i szczegółowe informacje o danych dotyczących luminancji.
Stałe:
int HDR_TYPE_DOLBY_VISION
Obsługa Dolby Vision.int HDR_TYPE_HDR10
Obsługa HDR10 / PQ.int HDR_TYPE_HDR10_PLUS
Obsługa HDR10+.int HDR_TYPE_HLG
Obsługa hybrydowej metody log-Gamma.float INVALID_LUMINANCE
Nieprawidłowa wartość luminancji.
Metody publiczne:
float getDesiredMaxAverageLuminance()
Zwraca odpowiednie dane o maksymalnej średniej luminancji treści w formacie cd/cd/m2 dla: tego wyświetlacza.float getDesiredMaxLuminance()
Zwraca odpowiednie dane dotyczące maksymalnej luminancji treści w formacie cd/cd/m2 dla tego wyświetlacza.float getDesiredMinLuminance()
Zwraca odpowiednie dane dotyczące minimalnej luminancji treści w formacie cd/cd/m2 dla tego wyświetlacza.int[] getSupportedHdrTypes()
Pobiera obsługiwane typy HDR wyświetlacza (zobacz stałe). Zwracanie puste jeśli ekran nie obsługuje HDR.
Dekoder
Aplikacje będą korzystać z istniejących
CodecCapabilities.profileLevels
API, aby sprawdzić, czy obsługujesz
nowe profile obsługujące HDR:
Dolby Vision
Stała MIME MediaFormat
:
String MIMETYPE_VIDEO_DOLBY_VISION
Stałe profilu MediaCodecInfo.CodecProfileLevel
:
int DolbyVisionProfileDvavPen int DolbyVisionProfileDvavPer int DolbyVisionProfileDvheDen int DolbyVisionProfileDvheDer int DolbyVisionProfileDvheDtb int DolbyVisionProfileDvheDth int DolbyVisionProfileDvheDtr int DolbyVisionProfileDvheStn
Warstwy wideo i metadane Dolby Vision muszą być połączone w jedną na klatkę buforowania przez aplikacje wideo. Dzieje się to automatycznie przez MediaExtractor obsługujące Dolby-Vision.
HEVC HDR 10
Stałe profilu MediaCodecInfo.CodecProfileLevel
:
int HEVCProfileMain10HDR10 int HEVCProfileMain10HDR10Plus
VP9 HLG Jakość
MediaCodecInfo.CodecProfileLevel
profil
stałe:
int VP9Profile2HDR int VP9Profile2HDR10Plus int VP9Profile3HDR int VP9Profile3HDR10Plus
Jeśli platforma obsługuje dekoder z funkcją HDR, powinna ona również obsługiwać Ekstraktor obsługujący HDR.
Gwarantujemy, że tylko dekodery tunelowe będą odtwarzać treści HDR. Odtwarzanie dekoderów nietunelowych może spowodować utratę informacji HDR i rozdrobniony materiał jako kolor SDR.
Ekstraktor
Następujące kontenery są obsługiwane w przypadku różnych technologii HDR na Androidzie 7.0:
Technologia | Dolby Vision | HDR10 | VP9-HLG | VP9-PQ |
---|---|---|---|---|
Kontener | MP4 | MP4 | WebM | WebM |
Informacja o tym, czy ścieżka (plik) wymaga obsługi HDR, nie jest obsługiwanych przez platformę. Aplikacje mogą analizować dane specyficzne dla kodeka aby określić, czy ścieżka wymaga konkretnego profilu HDR.
Podsumowanie
Wymagania dotyczące komponentów dla każdej technologii HDR zostały przedstawione w tej tabeli:
Technologia | Dolby Vision | HDR10 | VP9-HLG | VP9-PQ |
---|---|---|---|---|
Obsługiwany typ HDR (ekran) | HDR_TYPE_DOLBY_VISION | HDR_TYPE_HDR10 | HDR_TYPE_HLG | HDR_TYPE_HDR10 |
Kontener (ekstraktor) | MP4 | MP4 | WebM | WebM |
Dekoder | MIMETYPE_VIDEO_DOLBY_VISION | MIMETYPE_VIDEO_HEVC | MIMETYPE_VIDEO_VP9 | MIMETYPE_VIDEO_VP9 |
Profil (dekoder) | Jeden z profili Dolby | HEVCProfileMain10HDR10 | VP9Profile2HDR lub VP9Profile3HDR | VP9Profile2HDR lub VP9Profile3HDR |
Uwagi:
- Strumieni bitowe Dolby-Vision są spakowane do kontenera MP4 w określony sposób przez firmę Dolby. Aplikacje mogą implementować własne moduły wyodrębniania obsługujące Dolby, o ile łączą jednostki dostępu z odpowiednich warstw w dla dekodera, zgodnie z definicją firmy Dolby.
- Platforma może obsługiwać wyodrębnianie zgodne z HDR, ale nie ma odpowiednich Dekoder obsługujący HDR.
Odtwarzanie
Jeśli aplikacja potwierdzi, że obsługuje odtwarzanie w trybie HDR, będzie można ją odtwarzać materiały HDR są wyświetlane niemal tak samo jak inne, z tymi zastrzeżeniami:
- W przypadku Dolby-Vision określa, czy określony plik multimedialny/ścieżka wymaga dekodera obsługującego HDR nie jest od razu dostępny. Aplikacja musi: uzyskać te informacje z wyprzedzeniem lub móc je uzyskać przez podczas analizowania sekcji danych specyficznych dla kodeka w obiekcie MediaFormat.
CodecCapabilities.isFormatSupported
nie zastanawia się, czy funkcja dekodera tunelowanego jest wymagana do obsługi takiego profilu.
Włącz obsługę platformy HDR
Dostawcy układów SoC i OEM muszą podjąć dodatkowe działania, aby włączyć platformę HDR obsługą urządzenia.
Zmiany dotyczące platform w Androidzie 7.0 na potrzeby HDR
Oto kilka najważniejszych zmian na platformie (w warstwie aplikacji/natywnej) o których muszą wiedzieć firmy OEM i firmy SOC.
Wyświetlacz
Kompozycja sprzętowa
Platformy obsługujące technologię HDR muszą obsługiwać mieszanie treści HDR z innymi formatami treści. Dokładne cechy i operacje mieszania nie są zdefiniowane przez Androida w wersji 7.0, ale ogólnie wygląda to tak:
- Określ liniową przestrzeń/objętość kolorów zawierającą wszystkie warstwy, które mają
skomponowanych na podstawie warstw kolory, mastering i potencjalną dynamikę
metadanych.
Jeśli komponujesz dane bezpośrednio do wyświetlacza, może to być przestrzeń liniowa która pasuje do głośności kolorów wyświetlacza. - Skonwertuj wszystkie warstwy na wspólną przestrzeń kolorów.
- Zmiksuj.
- Jeśli wyświetla się przez HDMI:
- Określ kolor, mastering i potencjalne dynamiczne metadane filmu połączoną scenę.
- Przekształć wynikową mieszaną scenę na kolor pochodny przestrzeń/głośność.
- Jeśli wyświetlany jest bezpośrednio na wyświetlaczu, przekonwertuj wynikowe przenikanie do wymaganych sygnałów z wyświetlacza, aby ją utworzyć.
Wyświetlanie reklam displayowych
Wykrywanie wyświetlacza HDR jest obsługiwane tylko przez HWC2. Implementatory urządzeń muszą włącz przejściówkę HWC2, która jest dostępna z Androidem 7.0, do działania. Dlatego platformy muszą dodać obsługę HWC2 lub rozszerzyć Platforma AOSP, która umożliwia dostarczanie tych informacji. HWC2 udostępnia nowy Interfejs API do rozpowszechniania statycznych danych HDR na platformie i w aplikacji.
HDMI
- Podłączony wyświetlacz HDMI wyświetla reklamy obsługi HDR przez HDMI EDID, jak określono w CTA-861.3 w artykule 4.2.
- Należy używać tego mapowania EOTF:
- ET_0 Tradycyjna gamma – zakres luminancji SDR: nie zmapowano na żaden HDR typ
- ET_1 Tradycyjna gamma – zakres luminancji HDR: brak zmapowanego na żaden HDR typ
- ET_2 SMPTE ST 2084 – zmapowane na HDR typu HDR10
- Sygnalizacja obsługi Dolby Vision lub HLG przez HDMI odbywa się zgodnie z definicją przez odpowiednie organy.
- Pamiętaj, że interfejs HWC2 API używa zmiennych zmiennych wartości luminancji, więc 8-bitowy Wartości EDID muszą być odpowiednio przetłumaczone.
Dekodery
Platformy muszą dodać dekodery tunelowe obsługujące HDR i reklamować swoje produkty . Ogólnie rzecz biorąc, dekodery obsługujące HDR muszą:
- Obsługuje dekodowanie tunelowe (
FEATURE_TunneledPlayback
). - Obsługa metadanych statycznych HDR
(
OMX.google.android.index.describeHDRColorInfo
) i jego na propagację do kompozycji wyświetlacza/sprzętu. W przypadku HLG odpowiednie metadane musi zostać przesłany na wyświetlacz. - Opis koloru pomocy
(
OMX.google.android.index.describeColorAspects
) i jego na propagację do kompozycji wyświetlacza/sprzętu. - Obsługuj osadzone metadane HDR zgodnie z definicją danego standardu.
Obsługa dekodera Dolby Vision
Aby obsługiwać Dolby Vision, platformy muszą dodać do tych technologii Dekoder HDR OMX. Biorąc pod uwagę specyfikę Dolby Vision, otoki wokół jednego lub kilku dekoderów AVC i/lub HEVC, a także kompozytora. Takie dekodery muszą:
- Obsługuj typ MIME „video/dolby-vision”.
- Reklamuj obsługiwane profile/poziomy Dolby Vision.
- Zaakceptuj jednostki dostępu, które zawierają jednostki dostępu podrzędnego wszystkich warstw, zgodnie z definicją firmy Dolby.
- Akceptuj dane specyficzne dla kodeka zdefiniowane przez Dolby. Na przykład dane zawierające profilu/poziomu Dolby Vision oraz prawdopodobnie dane związane z kodekiem dla i wewnętrznych dekoderów.
- Obsługuj adaptacyjne przełączanie się między profilami/poziomami Dolby Vision jako wymagane przez Dolby.
Podczas konfigurowania dekodera nie jest przesyłany komunikat o prawdziwym profilu Dolby. do kodeka. Odbywa się to tylko za pomocą danych związanych z kodekiem za dekoderem rozpoczęto. Platforma może obsługiwać wiele formatów Dolby Vision jeden dla profili AVC, drugi dla profili HEVC zainicjować bazowe kodeki podczas konfiguracji. W przypadku pojedynczego obrazu Dolby Vision dekoder obsługuje oba typy profili, musi również obsługiwać przełączanie i dostosowuje je do swoich potrzeb.
Jeśli platforma oprócz dekodera obsługującego Dolby-Vision dekodera HDR, musi:
- Udostępnij ekstraktor rozpoznający Dolby-Vision, nawet jeśli nie jest on obsługiwany Odtwarzanie w trybie HDR.
- Udostępnij dekoder, który obsługuje profil rozpoznawania zgodny z definicją Dolby.
Obsługa dekodera HDR10
Aby obsługiwać standard HDR10, platformy muszą dodać dekoder OMX z obsługą HDR10. Ten zwykle jest tunelowanym dekoderem HEVC, który obsługuje również analizowanie i obsługę Metadane związane z HDMI. Taki dekoder (oprócz ogólnego dekodera HDR) dział obsługi klienta) musi:
- Obsługuj typ MIME „video/hevc”.
- Reklamuj obsługiwane HEVCMain10HDR10. Obsługa profilu HEVCMain10HRD10 wymaga również obsługi profilu HEVCMain10, co wymaga obsługi profilu HEVCMain na tych samych poziomach.
- Obsługa analizy bloków metadanych masteringu SEI oraz innych elementów HDR powiązane informacje zawarte w SPS.
Obsługa dekodera VP9
Aby obsługiwać standard HDR w standardzie VP9, platformy muszą dodać OMX HDR z Profilem2 obsługującym VP9 za pomocą dekodera. Jest to zwykle tunelowany dekoder VP9, który obsługuje również Metadane związane z HDMI. Takie dekodery (oprócz ogólnego dekodera HDR) dział obsługi klienta) musi:
- Obsługuj typ MIME „video/x-vnd.on2.vp9”.
- Reklamuj obsługiwany profil VP9Profile2HDR. Obsługują też profil VP9Profile2HDR wymaga obsługi profilu VP9Profile2 na tym samym poziomie.
Wyciągarki
Obsługa wyodrębniania Dolby Vision
Platformy, które obsługują dekodery Dolby Vision, muszą dodać ekstraktor Dolby obsługa treści Dolby Video.
- Zwykły moduł wyodrębniania MP4 może wyodrębnić tylko warstwę podstawową z pliku, ale nie warstwy ulepszeń czy metadanych. Specjalny ekstraktor Dolby potrzebne do wyodrębnienia danych z pliku.
- Ekstraktor Dolby musi udostępniać od 1 do 2 ścieżek dla każdej ścieżki wideo Dolby.
(grupa):
- Ścieżka Dolby Vision HDR typu „wideo/dolby-vision” dla wartości Połączony dwu- lub trzywarstwowy strumień Dolby. Format jednostki dostępu ścieżki HDR, który określa sposób pakowania jednostek dostępu z podstawowego/udoskonalonego/metadanych w jeden bufor do zdekodowania w pojedynczą klatkę HDR. zgodnie z definicją firmy Dolby.
- Jeśli ścieżka wideo Dolby Vision zawiera osobną (zgodną wstecznie) warstwa podstawowej (BL), wyodrębnianie musi też udostępniać go jako osobny element „video/avc” lub „video/hevc” śledzić. Ekstraktor musi zapewniać zwykły dostęp AVC/HEVC jednostek dla tej ścieżki.
- Ścieżka BL musi mieć ten sam unikalny identyfikator ścieżki („track-ID”) co ścieżki HDR, tak aby aplikacja rozpoznawała, że są to 2 rodzaje kodowania film.
- Aplikacja może decydować, którą ścieżkę wybrać na podstawie działania.
- Profil/poziom Dolby Vision musi być widoczny w formacie ścieżki: ścieżki HDR.
- Jeżeli platforma ma dekoder obsługujący technologię Dolby-Vision, musi także Ekstraktor rozpoznający Dolby-Vision, nawet jeśli nie obsługuje odtwarzania w trybie HDR.
Obsługa ekstraktora HDR10 i VP9
Nie ma dodatkowych wymagań dotyczących wyodrębniania, aby obsługiwać HDR10 lub VP9 HLG. Platformy muszą rozszerzyć ekstraktor MP4, aby obsługiwać VP9 PQ w formacie MP4. HDR, statyczne metadane muszą być rozpowszechnione w strumieniu bitowym VP9 PQ, tak aby są przekazywane do dekodera VP9 PQ i do wyświetlacza przez normalny MediaExtractor => Potok MediaCodec.
Rozszerzenia Stagefright do obsługi Dolby Vision
Platformy muszą dodać do Stagefright obsługę formatu Dolby Vision:
- Obsługa zapytań z definicją portu dla skompresowanego portu.
- Wyliczenie profilu/poziomu dekodera DV.
- Obsługa udostępniania profilu/poziomu DV w przypadku ścieżek DV HDR.
Szczegóły implementacji związane z konkretną technologią
Potok dekodera HDR10
Strumienie bitowe HDR10 są spakowane w kontenerach MP4. Aplikacje używają zwykłego wyodrębniania MP4 do wyodrębnienia danych ramki i wysłania ich do dekodera.
- Wyodrębnianie MPEG4
Strumieni bitowe HDR10 jest rozpoznawany przez MPEG4Extractor i ścieżki HDR typu „video/HEVC” zostanie wyodrębniono. Platforma wybiera dekoder wideo HEVC, który obsługuje Profil Main10HDR10, który pozwala zdekodować tę ścieżkę. - Dekoder HEVC
Informacje HDR są w formacie SEI lub SPS. Dekoder HEVC najpierw odbiera ramki z informacjami HDR. Następnie dekoder wyodrębnia HDR oraz powiadamia aplikację, że dekoduje film HDR. HDR, informacje są grupowane w format wyjściowy dekodera, który jest rozpowszechniany na powierzchnię.
Działania dostawcy
- Reklamuj obsługiwany profil dekodera HDR i typ OMX poziomu. Przykład:
OMX_VIDEO_HEVCProfileMain10HDR10
(iMain10
) - Zaimplementuj obsługę indeksu:
„
OMX.google.android.index.describeHDRColorInfo
” - Zaimplementuj obsługę indeksowania:
„
OMX.google.android.index.describeColorAspects
” - Zaimplementować obsługę analizy SEI metadanych masteringu.
Potok dekodera Dolby Vision
Strumieni bitowe Dolby są pakowane w kontenerach MP4 zgodnie z definicją Dolby Teoretycznie aplikacje mogłyby do wyodrębniania plików MP4 używać zwykłego programu wyodrębniania plików MP4 warstwa podstawowa, warstwa ulepszeń i warstwa metadanych niezależnie; jednak nie pasuje do obecnego modelu Android MediaExtractor/MediaCodec.
- DolbyExtractor –
- Strumieniowanie Dolby jest rozpoznawane przez algorytm DolbyExtractor, który ujawnia
różne warstwy – od 1 do 2 ścieżek dla każdej ścieżki wideo Dolby (grupa):
- Ścieżka HDR typu „video/dolby-vision”. dla połączonych list 2/3-warstwowy strumień dolby. Format jednostki dostępu dla ścieżki HDR, który określa Jak spakować jednostki dostępu z warstw podstawowych, ulepszeń i metadanych? w jednym buforze do zdekodowania w pojedynczą klatkę HDR, należy zdefiniować przez firmę Dolby.
- (Opcjonalnie, tylko wtedy, gdy funkcja BL jest zgodna wstecznie) Ścieżka BL zawiera tylko warstwa podstawowa, którą zwykły dekoder MediaCodec umożliwia dekodowanie, na przykład dekoderem AVC/HEVC. Ekstraktor powinien dostarczać zwykłe AVC/HEVC jednostek dostępu dla tej ścieżki. Ta ścieżka BL musi mieć ten sam unikalny identyfikator ścieżki („track-ID”) jako ścieżkę Dolby. Dzięki temu aplikacja wie, że te to 2 kody kodowania dla tego samego filmu.
- Aplikacja może decydować, którą ścieżkę wybrać na podstawie działania.
- Ponieważ ścieżka HDR ma określony typ HDR, platforma wybierze za pomocą dekodera wideo Dolby, który zdekoduje ścieżkę. Ścieżka BL zostanie zdekodowana przez zwykłego dekodera wideo AVC/HEVC.
- Strumieniowanie Dolby jest rozpoznawane przez algorytm DolbyExtractor, który ujawnia
różne warstwy – od 1 do 2 ścieżek dla każdej ścieżki wideo Dolby (grupa):
- Dekoder Dolby:
- DolbyDecoder otrzymuje jednostki dostępu, które zawierają wymagany dostęp jednostki dla wszystkich warstw (EL+BL+MD lub BL+MD)
- Informacje CSD (dane specyficzne dla kodeka, takie jak SPS+PPS+VPS) dla poszczególne warstwy można spakować w 1 ramkę CSD, aby zdefiniować Dolby Musisz mieć jedną ramkę CSD.
Dolby Actions
- Zdefiniuj pakiet jednostek dostępu dla różnych kontenerów Dolby schematy (np. BL+EL+MD) abstrakcyjnego dekodera Dolby (czyli bufora) format zgodny z oczekiwaniami dekodera HDR).
- Zdefiniuj pakiet CSD dla abstrakcyjnego dekodera Dolby.
Działania dostawcy
- Zaimplementuj wyodrębnianie Dolby. To samo może zrobić Dolby.
- Zintegruj DolbyExtractor z platformą. Punkt wejścia to
frameworks/av/media/libstagefright/MediaExtractor.cpp
- Zadeklaruj profil dekodera HDR i poziom OMX
typu. Przykład:
OMX_VIDEO_DOLBYPROFILETYPE
iOMX_VIDEO_DOLBYLEVELTYP
- Zaimplementuj obsługę indeksowania:
'OMX.google.android.index.describeColorAspects
' - Rozpowszechnij dynamiczne metadane HDR w aplikacji i pojawiaj się w każdym z nich ramki. Zazwyczaj te informacje muszą być spakowane w zdekodowanej ramce. zgodnie z definicją firmy Dolby, ponieważ standard HDMI nie umożliwia i przekazać ją na wyświetlacz.
Potok dekodera VP9
Strumienie bitowe VP9 są spakowane w kontenerach WebM w sposób zdefiniowany przez WebM Google Cloud. Aplikacje muszą korzystać z ekstraktora WebM do wyodrębniania metadanych HDR z: transmisji bitów przed wysłaniem ramek do dekodera.
- Ekstraktor WebM:
- Dekoder VP9:
- Dekoder odbiera strumienie bitowe Profile2 i dekoduje je jak normalny kod VP9 strumienie.
- Dekoder odbiera wszystkie statyczne metadane HDR ze platformy.
- Dekoder odbiera metadane statyczne przez jednostki dostępu do strumienia bitowego dla VP9 strumienie PQ;
- Dekoder VP9 musi mieć możliwość propagowania statycznych/dynamicznych metadanych HDR do wyświetlacza.
Działania dostawcy
- Zaimplementuj obsługę indeksowania:
OMX.google.android.index.describeHDRColorInfo
- Zaimplementuj obsługę indeksu:
OMX.google.android.index.describeColorAspects
- Propaguj statyczne metadane HDR