Reprodução de vídeo HDR

Vídeos em High Dynamic Range (HDR) são a próxima fronteira na decodificação de vídeo de alta qualidade, oferecendo qualidade de reprodução de cena incomparável. Isso é feito aumentando significativamente o intervalo dinâmico do componente de luminância (dos 100 cd/m2 atuais para 1.000 cd/m2) e usando um espaço de cores muito mais amplo (BT 2020). Esse é um elemento central da evolução do 4K UHD no espaço da TV.

O Android 10 oferece suporte aos seguintes vídeos HDR.

  • HDR10
  • VP9
  • HDR10+

A partir do Android 9 e versões mais recentes, o MediaCodec informa metadados HDR, independentemente do modo de encapsulamento. É possível receber dados decodificados com metadados estáticos/dinâmicos no modo não roteado. Para HDR10 e VP9Profile2 que usam metadados estáticos, eles são informados no formato de saída com a chave KEY_HDR_STATIC_INFO. Para HDR10+ que usa metadados dinâmicos, isso é informado com a chave KEY_HDR10_PLUS_INFO no formato de saída e pode mudar para cada frame de saída. Consulte Encapsulamento multimídia para mais informações.

Desde o Android 7.0, o suporte inicial ao HDR inclui a criação de constantes adequadas para a descoberta e configuração de pipelines de vídeo HDR. Isso significa definir tipos de codec e modos de exibição e especificar como os dados HDR precisam ser transmitidos para o MediaCodec e fornecidos aos decodificadores HDR.

O objetivo deste documento é ajudar os desenvolvedores de aplicativos a oferecer suporte à reprodução de fluxo HDR e ajudar OEMs e SOCs a ativar os recursos de HDR.

Tecnologias HDR com suporte

A partir do Android 7.0 e versões mais recentes, as seguintes tecnologias HDR são compatíveis.

Tecnologia Dolby-Vision HDR10 VP9-HLG VP9-PQ
Codec AVC/HEVC HEVC VP9 VP9
Função de transferência ST-2084 ST-2084 HLG ST-2084
Tipo de metadados HDR Dinâmico Estático Nenhum Estático

No Android 7.0, somente a reprodução HDR pelo modo de encapsulamento é definida, mas os dispositivos podem adicionar suporte à reprodução de HDR em SurfaceViews usando buffers de vídeo opaco. Resumindo:

  • Não há uma API padrão do Android para verificar se a reprodução HDR tem suporte usando decodificadores não encapsulados.
  • Os decodificadores de vídeo em túnel que anunciam o recurso de reprodução HDR precisam oferecer suporte à reprodução HDR quando conectados a telas compatíveis com HDR.
  • A composição GL de conteúdo HDR não tem suporte da versão 7.0 do Android AOSP.

Descoberta

A reprodução em HDR requer um decodificador compatível com HDR e uma conexão a uma tela compatível com HDR. Opcionalmente, algumas tecnologias exigem um extrator específico.

Tela

Os aplicativos precisam usar a nova API Display.getHdrCapabilities para consultar as tecnologias HDR com suporte à tela especificada. Essas são basicamente as informações no bloco de dados de metadados estáticos do EDID, conforme definido no CTA-861.3:

  • public Display.HdrCapabilities getHdrCapabilities()
    Retorna os recursos HDR da tela.
  • Display.HdrCapabilities
    Encapsula os recursos HDR de uma determinada tela. Por exemplo, quais tipos de HDR são compatíveis e detalhes sobre os dados de luminância desejados.

Constantes:

  • int HDR_TYPE_DOLBY_VISION
    Suporte ao Dolby Vision.
  • int HDR_TYPE_HDR10
    Suporte a HDR10 / PQ.
  • int HDR_TYPE_HDR10_PLUS
    Suporte a HDR10+.
  • int HDR_TYPE_HLG
    Suporte para Log-Gamma híbrido.
  • float INVALID_LUMINANCE
    Valor de luminância inválido.

Métodos públicos:

  • float getDesiredMaxAverageLuminance()
    Retorna os dados de luminância média de frame máximo do conteúdo desejado em cd/cd/m2 para essa tela.
  • float getDesiredMaxLuminance()
    Retorna os dados de luminância máxima do conteúdo desejado em cd/cd/m2 para essa tela.
  • float getDesiredMinLuminance()
    Retorna os dados de luminância mínima do conteúdo em cd/cd/m2 para essa tela.
  • int[] getSupportedHdrTypes()
    Recebe os tipos de HDR compatíveis com essa tela (consulte constantes). Retorna uma matriz vazia se a tela não oferecer suporte a HDR.

Decodificador

Os aplicativos precisam usar a API CodecCapabilities.profileLevels atual para verificar o suporte aos novos perfis com capacidade HDR:

Dolby-Vision

Constante MIME MediaFormat:

String MIMETYPE_VIDEO_DOLBY_VISION

Constantes de perfil MediaCodecInfo.CodecProfileLevel:

int DolbyVisionProfileDvavPen
int DolbyVisionProfileDvavPer
int DolbyVisionProfileDvheDen
int DolbyVisionProfileDvheDer
int DolbyVisionProfileDvheDtb
int DolbyVisionProfileDvheDth
int DolbyVisionProfileDvheDtr
int DolbyVisionProfileDvheStn

As camadas e os metadados do vídeo Dolby Vision precisam ser concatenados em um único buffer por frames pelos aplicativos de vídeo. Isso é feito automaticamente pelo MediaExtractor compatível com Dolby-Vision.

HEVC HDR 10

Constantes de perfil MediaCodecInfo.CodecProfileLevel:

int HEVCProfileMain10HDR10
int HEVCProfileMain10HDR10Plus

VP9 HLG e PQ

Constantes do perfil MediaCodecInfo.CodecProfileLevel:

int VP9Profile2HDR
int VP9Profile2HDR10Plus
int VP9Profile3HDR
int VP9Profile3HDR10Plus

Se uma plataforma oferece suporte a um decodificador compatível com HDR, ela também precisa oferecer suporte a um extrator compatível com HDR.

Somente os decodificadores em túnel têm garantia de reprodução de conteúdo HDR. A reprodução por decodificadores sem túnel pode resultar na perda das informações HDR e no achatamento do conteúdo em um volume de cor SDR.

Extrator

Os contêineres abaixo têm suporte para as várias tecnologias HDR no Android 7.0:

Tecnologia Dolby-Vision HDR10 VP9-HLG VP9-PQ
Contêiner MP4 MP4 WebM WebM

A plataforma não oferece suporte à descoberta de se uma faixa (de um arquivo) requer suporte a HDR. Os aplicativos podem analisar os dados específicos do codec para determinar se uma faixa requer um perfil HDR específico.

Resumo

Os requisitos de componentes para cada tecnologia HDR são mostrados na tabela a seguir:

Tecnologia Dolby-Vision HDR10 VP9-HLG VP9-PQ
Tipo de HDR com suporte (tela) HDR_TYPE_DOLBY_VISION HDR_TYPE_HDR10 HDR_TYPE_HLG HDR_TYPE_HDR10
Contêiner (extrator) MP4 MP4 WebM WebM
Decodificador MIMETYPE_VIDEO_DOLBY_VISION MIMETYPE_VIDEO_HEVC MIMETYPE_VIDEO_VP9 MIMETYPE_VIDEO_VP9
Perfil (decodificador) Um dos perfis Dolby HEVCProfileMain10HDR10 VP9Profile2HDR ou VP9Profile3HDR VP9Profile2HDR ou VP9Profile3HDR

Observações:

  • Os streams de bits Dolby Vision são empacotados em um contêiner MP4 de uma forma definida pela Dolby. Os aplicativos podem implementar os próprios extratores compatíveis com Dolby, desde que empacotem as unidades de acesso das camadas correspondentes em uma única unidade de acesso para o decodificador, conforme definido pela Dolby.
  • Uma plataforma pode oferecer suporte a um extrator compatível com HDR, mas não a um decodificador correspondente.

Reprodução

Depois que um aplicativo verifica o suporte à reprodução em HDR, ele pode reproduzir conteúdo HDR da mesma forma que reproduz conteúdo não HDR, com as seguintes ressalvas:

  • No Dolby Vision, a informação de se um arquivo/faixa de mídia específico requer um decodificador compatível com HDR não está disponível imediatamente. O aplicativo precisa ter essas informações com antecedência ou ser capaz de extraí-las analisando a seção de dados específica do codec do MediaFormat.
  • O CodecCapabilities.isFormatSupported não considera se o recurso de decodificador em túnel é necessário para oferecer suporte a esse perfil.

Ativar o suporte à plataforma HDR

Os fornecedores de SoC e OEMs precisam fazer mais trabalho para ativar o suporte à plataforma HDR para um dispositivo.

Mudanças na plataforma do Android 7.0 para HDR

Confira algumas mudanças importantes na plataforma (camada de app/nativa) que os OEMs e SOCs precisam conhecer.

Tela

Composição de hardware

As plataformas compatíveis com HDR precisam oferecer suporte à mesclagem de conteúdo HDR com conteúdo não HDR. As características e operações exatas de mesclagem não são definidas pelo Android a partir da versão 7.0, mas o processo geralmente segue estas etapas:

  1. Determine um espaço/volume de cor linear que contenha todas as camadas a serem compostas, com base na cor, no masterização e nos possíveis metadados dinâmicos das camadas.
    Se a composição for feita diretamente em uma tela, esse pode ser o espaço linear que corresponde ao volume de cores da tela.
  2. Converte todas as camadas para o espaço de cores comum.
  3. Realize a mesclagem.
  4. Se estiver usando HDMI:
    1. Determine a cor, a masterização e os possíveis metadados dinâmicos para a cena combinada.
    2. Converte a cena combinada resultante no espaço/volume de cores derivados.
  5. Se estiver exibindo diretamente na tela, converta a cena combinada resultante nos sinais de exibição necessários para produzir essa cena.

Descoberta de tela

A descoberta de tela HDR só é possível com o HWC2. Os implementadores de dispositivos precisam ativar seletivamente o adaptador HWC2 lançado com o Android 7.0 para que esse recurso funcione. Portanto, as plataformas precisam adicionar suporte a HWC2 ou estender o framework do AOSP para permitir uma maneira de fornecer essas informações. O HWC2 expõe uma nova API para propagar dados estáticos HDR para o framework e o aplicativo.

HDMI

  • Uma tela HDMI conectada anuncia seu recurso HDR por meio do HDMI EDID, conforme definido na seção 4.2 do CTA-861.3.
  • O seguinte mapeamento de EOTF deve ser usado:
    • ET_0 Gamma tradicional - intervalo de luminância SDR: não mapeado para nenhum tipo de HDR
    • ET_1 Gamma tradicional - intervalo de luminância HDR: não mapeado para nenhum tipo de HDR
    • ET_2 SMPTE ST 2084: mapeado para o tipo HDR HDR10
  • A sinalização de suporte a Dolby Vision ou HLG por HDMI é feita conforme definido pelos órgãos relevantes.
  • A API HWC2 usa valores de luminância flutuantes desejados. Portanto, os valores EID de 8 bits precisam ser traduzidos de maneira adequada.

Decodificadores

As plataformas precisam adicionar decodificadores com encapsulamento compatíveis com HDR e anunciar o suporte a HDR. Em geral, os decodificadores compatíveis com HDR precisam:

  • Suporte à decodificação por túnel (FEATURE_TunneledPlayback).
  • Suporte a metadados estáticos HDR (OMX.google.android.index.describeHDRColorInfo) e a propagação deles para a composição de tela/hardware. Para HLG, os metadados apropriados precisam ser enviados para a tela.
  • Suporte à descrição de cores (OMX.google.android.index.describeColorAspects) e à propagação para a composição de tela/hardware.
  • Suporte a metadados incorporados HDR, conforme definido pelo padrão relevante.

Suporte a decodificador Dolby Vision

Para oferecer suporte ao Dolby Vision, as plataformas precisam adicionar um decodificador HDR OMX com suporte a Dolby Vision. Considerando as especificidades do Dolby Vision, esse é normalmente um decodificador de wrapper em torno de um ou mais decodificadores AVC e/ou HEVC, além de um compositor. Esses decodificadores precisam:

  • Suporte ao tipo MIME "video/dolby-vision".
  • Anunciar os perfis/níveis Dolby Vision compatíveis.
  • Aceita unidades de acesso que contêm as unidades de subacesso de todas as camadas, conforme definido pela Dolby.
  • Aceita dados específicos de codec definidos pela Dolby. Por exemplo, dados que contêm o perfil/nível Dolby Vision e, possivelmente, os dados específicos do codec para os decodificadores internos.
  • Suporte à alternância adaptativa entre perfis/níveis Dolby Vision, conforme exigido pela Dolby.

Ao configurar o decodificador, o perfil Dolby real não é comunicado ao codec. Isso só é feito por dados específicos do codec depois que o decodificador é iniciado. Uma plataforma pode oferecer suporte a vários decodificadores Dolby Vision: um para perfis AVC e outro para perfis HEVC, para inicializar os codecs subjacentes durante a configuração. Se um único decodificador Dolby Vision oferecer suporte aos dois tipos de perfil, ele também precisará oferecer suporte à troca entre eles de forma dinâmica e adaptativa.

Se uma plataforma oferecer um decodificador compatível com Dolby Vision além do suporte geral ao decodificador HDR, ela precisará:

  • Forneça um extrator compatível com Dolby Vision, mesmo que ele não ofereça suporte à reprodução em HDR.
  • Forneça um decodificador compatível com o perfil de visão definido pela Dolby.

Suporte a decodificadores HDR10

Para oferecer suporte a HDR10, as plataformas precisam adicionar um decodificador OMX compatível com HDR10. Ele normalmente é um decodificador HEVC com encapsulamento que também oferece suporte à análise e ao processamento de metadados relacionados ao HDMI. Esse decodificador (além do suporte geral ao decodificador HDR) precisa:

  • Suporte ao tipo MIME "video/hevc".
  • Anunciar HEVCMain10HDR10 com suporte. O suporte ao perfil HEVCMain10HRD10 também requer suporte ao perfil HEVCMain10, que exige suporte ao perfil HEVCMain nos mesmos níveis.
  • Suporte à análise dos blocos SEI de metadados de masterização, bem como outras informações relacionadas ao HDR contidas no SPS.

Suporte a decodificadores VP9

Para oferecer suporte ao VP9 HDR, as plataformas precisam adicionar um decodificador OMX HDR compatível com o perfil 2 do VP9. Normalmente, é um decodificador VP9 em túnel que também oferece suporte ao processamento de metadados relacionados ao HDMI. Esses decodificadores (além do suporte geral ao decodificador HDR) precisam:

  • Suporte ao tipo MIME "video/x-vnd.on2.vp9".
  • Anunciar o VP9Profile2HDR com suporte. O suporte ao perfil VP9Profile2HDR também requer suporte ao perfil VP9Profile2 no mesmo nível.

Extratores

Suporte ao extrator Dolby Vision

As plataformas que oferecem suporte a decodificadores Dolby Vision precisam adicionar suporte ao extrator (chamado Dolby Extractor) para conteúdo Dolby Video.

  • Um extrator MP4 normal só pode extrair a camada de base de um arquivo, mas não as camadas de aprimoramento ou de metadados. Portanto, um extrator especial do Dolby é necessário para extrair os dados do arquivo.
  • O extrator Dolby precisa expor de 1 a 2 faixas para cada faixa de vídeo Dolby (grupo):
    • Uma faixa HDR Dolby Vision com o tipo "video/dolby-vision" para o stream Dolby de 2/3 camadas combinado. O formato de unidade de acesso da faixa HDR, que define como empacotar as unidades de acesso das camadas de base/melhoria/metadados em um único buffer para ser decodificado em um único frame HDR, precisa ser definido pela Dolby.
    • Se uma faixa de vídeo Dolby Vision contiver uma camada base (BL) separada (compatível com versões anteriores), o extrator também precisará expor isso como uma faixa "video/avc" ou "video/hevc" separada. O extrator precisa fornecer unidades de acesso AVC/HEVC regulares para essa faixa.
    • A faixa BL precisa ter o mesmo ID exclusivo da faixa ("ID da faixa") que a faixa HDR para que o app entenda que são duas codificações do mesmo vídeo.
    • O aplicativo pode decidir qual faixa escolher com base na capacidade da plataforma.
  • O perfil/nível Dolby Vision precisa ser exposto no formato da faixa HDR.
  • Se uma plataforma oferece um decodificador compatível com Dolby Vision, ela também precisa oferecer um extrator compatível com Dolby Vision, mesmo que não ofereça suporte à reprodução em HDR.

Suporte a extratores HDR10 e VP9 HDR

Não há requisitos adicionais de extrator para oferecer suporte a HDR10 ou VP9 HLG. As plataformas precisam estender o extrator de MP4 para oferecer suporte ao VP9 PQ em MP4. Os metadados estáticos HDR precisam ser propagados no fluxo de bits PQ VP9, de modo que esses metadados sejam transmitidos para o decodificador PQ VP9 e para a tela pelo pipeline normal MediaExtractor => MediaCodec.

Extensões do Stagefright para suporte a Dolby Vision

As plataformas precisam adicionar suporte ao formato Dolby Vision ao Stagefright:

  • Suporte para consulta de definição de porta para porta compactada.
  • Suporte à enumeração de perfil/nível para decodificador DV.
  • Suporte à exposição do perfil/nível DV para faixas DV HDR.

Detalhes de implementação específicos da tecnologia

Pipeline do decodificador HDR10

Figura 1. Pipeline HDR10

Os bitstreams HDR10 são empacotados em contêineres MP4. Os aplicativos usam um extrator MP4 regular para extrair os dados do frame e enviá-los ao decodificador.

  • MPEG4 Extractor
    Os bitstreams HDR10 são reconhecidos como apenas um fluxo HEVC normal por um MPEG4Extractor, e a faixa HDR com o tipo "video/HEVC" será extraida. O framework escolhe um decodificador de vídeo HEVC compatível com o perfil Main10HDR10 para decodificar a faixa.
  • Decifrador HEVC
    As informações de HDR estão em SEI ou SPS. O decodificador HEVC recebe primeiro frames que contêm as informações de HDR. O decodificador extrai as informações de HDR e notifica o aplicativo de que está decodificando um vídeo HDR. As informações de HDR são agrupadas no formato de saída do decodificador, que é propagado para a superfície mais tarde.

Ações do fornecedor

  1. Anunciar o perfil do decodificador HDR e o tipo OMX de nível com suporte. Exemplo:
    OMX_VIDEO_HEVCProfileMain10HDR10 (e Main10)
  2. Implementar suporte para índice: 'OMX.google.android.index.describeHDRColorInfo'
  3. Implementar suporte para índice: 'OMX.google.android.index.describeColorAspects'
  4. Implementação de suporte à análise SEI de metadados de masterização.

Pipeline do decodificador Dolby Vision

Figura 2. Pipeline do Dolby Vision

Os streams de bits Dolby são empacotados em contêineres MP4, conforme definido pela Dolby. Em teoria, os aplicativos podem usar um extrator MP4 comum para extrair a camada de base, a camada de aprimoramento e a camada de metadados de forma independente. No entanto, isso não se encaixa no modelo atual do MediaExtractor/MediaCodec do Android.

  • DolbyExtractor:
    • Os bitstreams Dolby são reconhecidos por um DolbyExtractor, que expõe as várias camadas como 1 a 2 faixas para cada faixa de vídeo Dolby (grupo):
      • Uma faixa HDR com o tipo "video/dolby-vision" para o fluxo Dolby de 2/3 camadas combinado. O formato de unidade de acesso da faixa HDR, que define como empacotar as unidades de acesso das camadas de base/melhoria/metadados em um único buffer para ser decodificado em um único frame HDR, precisa ser definido pela Dolby.
      • (Opcional, apenas se a BL for compatível com versões anteriores) Uma faixa BL contém apenas a camada de base, que precisa ser decodificável pelo decodificador MediaCodec normal, por exemplo, o decodificador AVC/HEVC. O extrator precisa fornecer unidades de acesso AVC/HEVC normais para essa faixa. Essa faixa BL precisa ter o mesmo ID exclusivo ("ID da faixa") da faixa Dolby para que o aplicativo entenda que essas são duas codificações do mesmo vídeo.
    • O aplicativo pode decidir qual faixa escolher com base na capacidade da plataforma.
    • Como uma faixa HDR tem um tipo HDR específico, o framework vai escolher um decodificador de vídeo Dolby para decodificar essa faixa. A faixa BL será decodificada por um decodificador de vídeo AVC/HEVC comum.
  • DolbyDecoder:
    • O DolbyDecoder recebe unidades de acesso que contêm as unidades de acesso necessárias para todas as camadas (EL+BL+MD ou BL+MD)
    • As informações de CSD (dados específicos do codec, como SPS+PPS+VPS) para as camadas individuais podem ser empacotadas em um frame CSD a ser definido pelo Dolby. É necessário ter um único frame de CSD.

Ações do Dolby

  1. Define a embalagem de unidades de acesso para os vários esquemas de contêiner Dolby (por exemplo, BL+EL+MD) para o decodificador Dolby abstrato (ou seja, o formato de buffer esperado pelo decodificador HDR).
  2. Defina a embalagem do CSD para o decodificador abstrato Dolby.

Ações do fornecedor

  1. Implementar o extrator Dolby. Isso também pode ser feito pela Dolby.
  2. Integrar o DolbyExtractor ao framework. O ponto de entrada é frameworks/av/media/libstagefright/MediaExtractor.cpp.
  3. Declarar o perfil do decodificador HDR e o tipo OMX de nível. Exemplo: OMX_VIDEO_DOLBYPROFILETYPE e OMX_VIDEO_DOLBYLEVELTYP.
  4. Implementar suporte para o índice: 'OMX.google.android.index.describeColorAspects'
  5. Propague os metadados HDR dinâmicos para o app e a plataforma em cada frame. Normalmente, essas informações precisam ser empacotadas no frame descodificado conforme definido pela Dolby, porque o padrão HDMI não oferece uma maneira de transmiti-las para a tela.

Pipeline do decodificador VP9

Figura 3. Pipeline VP9-PQ

Os bitstreams VP9 são empacotados em contêineres WebM de uma forma definida pela equipe do WebM. Os aplicativos precisam usar um extrator WebM para extrair metadados HDR do bitstream antes de enviar frames para o decodificador.

  • Extrator de WebM:
  • Decodificador VP9:
    • O decodificador recebe os bitstreams do Perfil2 e os decodifica como fluxos VP9 normais.
    • O decodificador recebe todos os metadados estáticos HDR do framework.
    • O decodificador recebe metadados estáticos pelas unidades de acesso de bitstream para fluxos PQ VP9.
    • O decodificador VP9 precisa ser capaz de propagar os metadados estáticos/dinâmicos HDR para a tela.

Ações do fornecedor

  1. Implementar suporte para índice: OMX.google.android.index.describeHDRColorInfo
  2. Implementar suporte para índice: OMX.google.android.index.describeColorAspects
  3. Propagar metadados estáticos de HDR