Reprodução de vídeo HDR

O vídeo de alta faixa dinâmica (HDR) é a próxima fronteira na decodificação de vídeo de alta qualidade, trazendo qualidades de reprodução de cena incomparáveis. Ele faz isso aumentando significativamente a faixa dinâmica do componente de luminância (dos atuais 100 cd/m 2 para 1000s de cd/m 2 ) e usando um espaço de cores muito mais amplo (BT 2020). Este é agora um elemento central da evolução 4K UHD no espaço da TV.

O Android 10 é compatível com os seguintes vídeos HDR.

  • HDR10
  • VP9
  • HDR10+

A partir do Android 9 e superior, o MediaCodec relata metadados HDR independentemente do modo encapsulado. Você pode obter dados decodificados junto com metadados estáticos/dinâmicos no modo não encapsulado. Para HDR10 e VP9Profile2 que usa metadados estáticos, eles são relatados no formato de saída com a chave KEY_HDR_STATIC_INFO . Para HDR10+ que usa metadados dinâmicos, isso é relatado com a chave KEY_HDR10_PLUS_INFO no formato de saída e pode ser alterado para cada quadro de saída. Consulte Túnel multimídia para obter mais informações.

Desde o Android 7.0, o suporte inicial a HDR inclui a criação de constantes adequadas para a descoberta e configuração de pipelines de vídeo HDR. Isso significa definir tipos de codec e modos de exibição e especificar como os dados HDR devem ser passados ​​para o MediaCodec e fornecidos aos decodificadores HDR.

O objetivo deste documento é ajudar os desenvolvedores de aplicativos a oferecer suporte à reprodução de fluxo HDR e ajudar OEMs e SOCs a habilitar os recursos HDR.

Tecnologias HDR suportadas

A partir do Android 7.0 e superior, as seguintes tecnologias HDR são suportadas.

Tecnologia Dolby-Vision HDR10 VP9-HLG VP9-PQ
Codec AVC/HEVC HEVC VP9 VP9
Função de transferência ST-2084 ST-2084 HLG ST-2084
Tipo de metadados HDR Dinâmico Estático Nenhum Estático

No Android 7.0, apenas a reprodução HDR via modo encapsulado é definida , mas os dispositivos podem adicionar suporte para reprodução de HDR em SurfaceViews usando buffers de vídeo opacos. Em outras palavras:

  • Não há uma API Android padrão para verificar se a reprodução HDR é compatível com decodificadores não encapsulados.
  • Os decodificadores de vídeo em túnel que anunciam a capacidade de reprodução HDR devem oferecer suporte à reprodução HDR quando conectados a monitores compatíveis com HDR.
  • A composição GL do conteúdo HDR não é compatível com a versão AOSP Android 7.0.

Descoberta

A reprodução HDR requer um decodificador compatível com HDR e uma conexão com um monitor compatível com HDR. Opcionalmente, algumas tecnologias requerem um extrator específico.

Exibição

Os aplicativos devem usar a nova API Display.getHdrCapabilities para consultar as tecnologias HDR suportadas pelo monitor especificado. Esta é basicamente a informação no Bloco de Dados de Metadados Estáticos EDID conforme definido no CTA-861.3:

  • public Display.HdrCapabilities getHdrCapabilities()
    Retorna os recursos HDR do monitor.
  • Display.HdrCapabilities
    Encapsula os recursos HDR de um determinado monitor. Por exemplo, quais tipos de HDR ele suporta e detalhes sobre os dados de luminância desejados.

Constantes:

  • int HDR_TYPE_DOLBY_VISION
    Suporte Dolby Vision.
  • int HDR_TYPE_HDR10
    Suporte a HDR10/PQ.
  • int HDR_TYPE_HLG
    Suporte híbrido Log-Gamma.
  • float INVALID_LUMINANCE
    Valor de luminância inválido.

Métodos públicos:

  • float getDesiredMaxAverageLuminance()
    Retorna os dados de luminância de média de quadros máxima de conteúdo desejado em cd/cd/m 2 para esta exibição.
  • float getDesiredMaxLuminance()
    Retorna os dados de luminância máxima do conteúdo desejado em cd/cd/m 2 para esta exibição.
  • float getDesiredMinLuminance()
    Retorna os dados de luminância mínima do conteúdo desejado em cd/cd/m 2 para este display.
  • int[] getSupportedHdrTypes()
    Obtém os tipos de HDR suportados desta exibição (consulte constantes). Retorna uma matriz vazia se o HDR não for suportado pelo monitor.

Decodificador

Os aplicativos devem usar a API CodecCapabilities.profileLevels existente para verificar o suporte para os novos perfis compatíveis com HDR:

Dolby-Vision

Constante mime MediaFormat :

String MIMETYPE_VIDEO_DOLBY_VISION

Constantes de perfil MediaCodecInfo.CodecProfileLevel :

int DolbyVisionProfileDvavPen
int DolbyVisionProfileDvavPer
int DolbyVisionProfileDvheDen
int DolbyVisionProfileDvheDer
int DolbyVisionProfileDvheDtb
int DolbyVisionProfileDvheDth
int DolbyVisionProfileDvheDtr
int DolbyVisionProfileDvheStn

Camadas e metadados de vídeo Dolby Vision devem ser concatenados em um único buffer por quadros por aplicativos de vídeo. Isso é feito automaticamente pelo MediaExtractor compatível com Dolby-Vision.

HEVC HDR 10

Constantes de perfil MediaCodecInfo.CodecProfileLevel :

int HEVCProfileMain10HDR10

VP9 HLG & PQ

Constantes de perfil MediaCodecInfo.CodecProfileLevel :

int VP9Profile2HDR
int VP9Profile3HDR

Se uma plataforma oferece suporte a um decodificador compatível com HDR, ela também deve suportar um extrator compatível com HDR.

Apenas decodificadores encapsulados são garantidos para reproduzir conteúdo HDR. A reprodução por decodificadores não encapsulados pode resultar na perda das informações HDR e no achatamento do conteúdo em um volume de cor SDR.

Extrator

Os seguintes contêineres são compatíveis com as várias tecnologias HDR no Android 7.0:

Tecnologia Dolby-Vision HDR10 VP9-HLG VP9-PQ
Recipiente MP4 MP4 WebM WebM

A descoberta de que uma faixa (de um arquivo) requer suporte a HDR não é suportada pela plataforma. Os aplicativos podem analisar os dados específicos do codec para determinar se uma faixa requer um perfil HDR específico.

Resumo

Os requisitos de componentes para cada tecnologia HDR são mostrados na tabela a seguir:

Tecnologia Dolby-Vision HDR10 VP9-HLG VP9-PQ
Tipo de HDR suportado (Tela) HDR_TYPE_DOLBY_VISION HDR_TYPE_HDR10 HDR_TYPE_HLG HDR_TYPE_HDR10
Recipiente (Extrator) MP4 MP4 WebM WebM
Decodificador MIMETYPE_VIDEO_DOLBY_VISION MIMETYPE_VIDEO_HEVC MIMETYPE_VIDEO_VP9 MIMETYPE_VIDEO_VP9
Perfil (Descodificador) Um dos perfis Dolby Perfil HEVCMain10HDR10 VP9Profile2HDR ou VP9Profile3HDR VP9Profile2HDR ou VP9Profile3HDR

Notas:

  • Os fluxos de bits Dolby-Vision são empacotados em um contêiner MP4 de uma maneira definida pelo Dolby. Os aplicativos podem implementar seus próprios extratores com capacidade Dolby, desde que empacote as unidades de acesso das camadas correspondentes em uma única unidade de acesso para o decodificador conforme definido pelo Dolby.
  • Uma plataforma pode suportar um extrator compatível com HDR, mas nenhum decodificador compatível com HDR correspondente.

Reprodução

Depois que um aplicativo verifica o suporte para reprodução HDR, ele pode reproduzir conteúdo HDR quase da mesma maneira que reproduz conteúdo não HDR, com as seguintes advertências:

  • Para Dolby-Vision, se um arquivo/faixa de mídia específico requer ou não um decodificador compatível com HDR não está disponível imediatamente. O aplicativo deve ter essas informações com antecedência ou ser capaz de obter essas informações analisando a seção de dados específica do codec do MediaFormat.
  • CodecCapabilities.isFormatSupported não considera se o recurso de decodificador encapsulado é necessário para dar suporte a esse perfil.

Ativando o suporte da plataforma HDR

Os fornecedores de SoC e OEMs devem fazer um trabalho adicional para habilitar o suporte da plataforma HDR para um dispositivo.

Mudanças de plataforma no Android 7.0 para HDR

Aqui estão algumas mudanças importantes na plataforma (camada de aplicativo/nativa) que OEMs e SOCs precisam estar cientes.

Exibição

Composição de hardware

As plataformas compatíveis com HDR devem suportar a combinação de conteúdo HDR com conteúdo não HDR. As características e operações exatas de mesclagem não são definidas pelo Android a partir da versão 7.0, mas o processo geralmente segue estas etapas:

  1. Determine um espaço/volume de cores linear que contenha todas as camadas a serem compostas, com base na cor, na masterização e nos metadados dinâmicos potenciais das camadas.
    Se estiver compondo diretamente para uma tela, esse pode ser o espaço linear que corresponde ao volume de cores da tela.
  2. Converta todas as camadas para o espaço de cores comum.
  3. Faça a mistura.
  4. Se estiver exibindo através de HDMI:
    1. Determine a cor, a masterização e os metadados dinâmicos potenciais para a cena combinada.
    2. Converta a cena combinada resultante no espaço/volume de cores derivado.
  5. Se estiver exibindo diretamente na tela, converta a cena combinada resultante para os sinais de tela necessários para produzir essa cena.

Descoberta de exibição

A descoberta de exibição HDR é suportada apenas via HWC2. Os implementadores de dispositivos devem habilitar seletivamente o adaptador HWC2 lançado com o Android 7.0 para que esse recurso funcione. Portanto, as plataformas devem adicionar suporte para HWC2 ou estender a estrutura AOSP para permitir uma maneira de fornecer essas informações. O HWC2 expõe uma nova API para propagar dados estáticos HDR para a estrutura e o aplicativo.

HDMI

  • Um monitor HDMI conectado anuncia sua capacidade HDR por meio do HDMI EDID, conforme definido na seção 4.2 do CTA-861.3 .
  • O seguinte mapeamento EOTF deve ser usado:
    • ET_0 Gama tradicional - Faixa de luminância SDR: não mapeada para nenhum tipo de HDR
    • ET_1 Gama tradicional - Faixa de luminância HDR: não mapeada para nenhum tipo de HDR
    • ET_2 SMPTE ST 2084 - mapeado para HDR tipo HDR10
  • A sinalização do suporte Dolby Vision ou HLG via HDMI é feita conforme definido por seus órgãos competentes.
  • Observe que a API HWC2 usa valores flutuantes de luminância desejados, portanto, os valores EDID de 8 bits devem ser convertidos de maneira adequada.

Decodificadores

As plataformas devem adicionar decodificadores encapsulados compatíveis com HDR e anunciar seu suporte a HDR. Geralmente, os decodificadores compatíveis com HDR devem:

  • Suporta decodificação em túnel ( FEATURE_TunneledPlayback ).
  • Suporta metadados estáticos HDR ( OMX.google.android.index.describeHDRColorInfo ) e sua propagação para a composição de exibição/hardware. Para HLG, os metadados apropriados devem ser enviados ao monitor.
  • Suporte a descrição de cores ( OMX.google.android.index.describeColorAspects ) e sua propagação para a composição de exibição/hardware.
  • Suporte a metadados incorporados em HDR, conforme definido pelo padrão relevante.

Suporte ao decodificador Dolby Vision

Para suportar Dolby Vision, as plataformas devem adicionar um decodificador HDR OMX compatível com Dolby-Vision. Dadas as especificidades do Dolby Vision, este é normalmente um decodificador wrapper em torno de um ou mais decodificadores AVC e/ou HEVC, bem como um compositor. Esses descodificadores devem:

  • Suporte tipo mime "video/dolby-vision".
  • Anuncie perfis/níveis compatíveis com Dolby Vision.
  • Aceite as unidades de acesso que contêm as subunidades de acesso de todas as camadas conforme definido pelo Dolby.
  • Aceite dados específicos de codec definidos por Dolby. Por exemplo, dados contendo perfil/nível Dolby Vision e possivelmente os dados específicos do codec para os decodificadores internos.
  • Suporta alternância adaptativa entre perfis/níveis Dolby Vision conforme exigido pelo Dolby.

Ao configurar o decodificador, o perfil Dolby real não é comunicado ao codec. Isso só é feito através de dados específicos do codec após o decodificador ter sido iniciado. Uma plataforma pode optar por oferecer suporte a vários decodificadores Dolby Vision: um para perfis AVC e outro para perfis HEVC para poder inicializar codecs subjacentes durante o tempo de configuração. Se um único decodificador Dolby Vision oferecer suporte a ambos os tipos de perfis, ele também deverá oferecer suporte à alternância entre eles dinamicamente de forma adaptativa.

Se uma plataforma fornecer um decodificador compatível com Dolby-Vision além do suporte geral ao decodificador HDR, ela deverá:

  • Forneça um extrator com reconhecimento de Dolby-Vision, mesmo que não suporte a reprodução HDR.
  • Forneça um decodificador que suporte o perfil de visão conforme definido pela Dolby.

Suporte ao decodificador HDR10

Para suportar HDR10, as plataformas devem adicionar um decodificador OMX compatível com HDR10. Normalmente, é um decodificador HEVC encapsulado que também suporta análise e manipulação de metadados relacionados a HDMI. Esse decodificador (além do suporte geral ao decodificador HDR) deve:

  • Suporte tipo mime "vídeo/hevc."
  • Anuncie com suporte HEVCMain10HDR10. O suporte ao perfil HEVCMain10HRD10 também requer suporte ao perfil HEVCMain10, que requer suporte ao perfil HEVCMain nos mesmos níveis.
  • Suporta a análise dos blocos SEI de metadados de masterização, bem como outras informações relacionadas ao HDR contidas no SPS.

Suporte ao decodificador VP9

Para suportar VP9 HDR, as plataformas devem adicionar um decodificador HDR OMX compatível com VP9 Profile2. Este é normalmente um decodificador VP9 encapsulado que também suporta o manuseio de metadados relacionados a HDMI. Esses decodificadores (além do suporte geral ao decodificador HDR) devem:

  • Suporte tipo mime "video/x-vnd.on2.vp9."
  • Anuncie VP9Profile2HDR suportado. O suporte ao perfil VP9Profile2HDR também requer suporte ao perfil VP9Profile2 no mesmo nível.

Extratores

Suporte para extrator Dolby Vision

As plataformas que oferecem suporte aos decodificadores Dolby Vision devem adicionar suporte ao extrator Dolby (chamado Dolby Extractor) para o conteúdo Dolby Video.

  • Um extrator de MP4 regular pode extrair apenas a camada base de um arquivo, mas não as camadas de aprimoramento ou metadados. Portanto, é necessário um extrator Dolby especial para extrair os dados do arquivo.
  • O extrator Dolby deve expor de 1 a 2 faixas para cada faixa de vídeo Dolby (grupo):
    • Uma faixa Dolby Vision HDR com o tipo de "vídeo/dolby-vision" para o fluxo Dolby combinado de 2/3 camadas. O formato de unidade de acesso da trilha HDR, que define como empacotar as unidades de acesso das camadas de base/aprimoramento/metadados em um único buffer a ser decodificado em um único quadro HDR, deve ser definido pela Dolby.
    • Se uma trilha de vídeo Dolby Vision contiver uma camada base (BL) separada (compatível com versões anteriores), o extrator também deverá expô-la como uma trilha "vídeo/avc" ou "vídeo/hevc" separada. O extrator deve fornecer unidades de acesso AVC/HEVC regulares para esta trilha.
    • A faixa BL deve ter o mesmo track-unique-ID ("track-ID") que a faixa HDR para que o aplicativo entenda que são duas codificações do mesmo vídeo.
    • O aplicativo pode decidir qual faixa escolher com base na capacidade da plataforma.
  • O perfil/nível Dolby Vision deve ser exposto no formato de trilha da trilha HDR.
  • Se uma plataforma fornecer um decodificador compatível com Dolby-Vision, ela também deverá fornecer um extrator com reconhecimento de Dolby-Vision, mesmo que não suporte a reprodução HDR.

Suporte para extrator HDR10 e VP9 HDR

Não há requisitos adicionais de extrator para suportar HDR10 ou VP9 HLG. As plataformas devem estender o extrator de MP4 para suportar VP9 PQ em MP4. Os metadados estáticos HDR devem ser propagados no fluxo de bits VP9 PQ, de modo que esses metadados sejam passados ​​para o decodificador VP9 PQ e para a exibição por meio do pipeline MediaExtractor => MediaCodec normal.

Extensões Stagefright para suporte a Dolby Vision

As plataformas devem adicionar suporte ao formato Dolby Vision ao Stagefright:

  • Suporte para consulta de definição de porta para porta compactada.
  • Suporte a enumeração de perfil/nível para decodificador DV.
  • Suporta exposição de perfil/nível DV para trilhas DV HDR.

Detalhes de implementação específicos da tecnologia

Pipeline do decodificador HDR10

Figura 1. Canalização HDR10

Os fluxos de bits HDR10 são empacotados em contêineres MP4. Os aplicativos usam um extrator de MP4 comum para extrair os dados do quadro e enviá-los ao decodificador.

  • Extrator MPEG4
    Os fluxos de bits HDR10 são reconhecidos como apenas um fluxo HEVC normal por um MPEG4Extractor e a faixa HDR com o tipo "vídeo/HEVC" será extraída. A estrutura escolhe um decodificador de vídeo HEVC que suporta o perfil Main10HDR10 para decodificar essa faixa.
  • Decodificador HEVC
    As informações de HDR estão em SEI ou SPS. O decodificador HEVC primeiro recebe os quadros que contêm as informações de HDR. O decodificador então extrai as informações de HDR e notifica o aplicativo de que está decodificando um vídeo HDR. As informações HDR são agrupadas no formato de saída do decodificador, que é propagado para a superfície posteriormente.

Ações do fornecedor

  1. Anuncie o perfil de decodificador HDR compatível e o tipo OMX de nível. Exemplo:
    OMX_VIDEO_HEVCProfileMain10HDR10 (e Main10 )
  2. Implemente suporte para índice: ' OMX.google.android.index.describeHDRColorInfo '
  3. Implemente suporte para índice: ' OMX.google.android.index.describeColorAspects '
  4. Implemente suporte para análise SEI de metadados de masterização.

Pipeline do decodificador Dolby Vision

Figura 2. Pipeline Dolby Vision

Dolby-bitstreams são empacotados em contêineres MP4 conforme definido pela Dolby. Os aplicativos poderiam, em teoria, usar um extrator MP4 comum para extrair a camada base, a camada de aprimoramento e a camada de metadados de forma independente; no entanto, isso não se encaixa no modelo atual do Android MediaExtractor/MediaCodec.

  • Extrator Dolby:
    • Dolby-bitstreams são reconhecidos por um DolbyExtractor, que expõe as várias camadas como 1 a 2 faixas para cada faixa de vídeo dolby (grupo):
      • Uma faixa HDR com o tipo de "vídeo/dolby-vision" para o fluxo combinado de 2/3 camadas dolby. O formato de unidade de acesso da trilha HDR, que define como empacotar as unidades de acesso das camadas de base/aprimoramento/metadados em um único buffer a ser decodificado em um único quadro HDR, deve ser definido pela Dolby.
      • (Opcional, somente se o BL for compatível com versões anteriores) Uma trilha BL contém apenas a camada base, que deve ser decodificável pelo decodificador MediaCodec regular, por exemplo, decodificador AVC/HEVC. O extrator deve fornecer unidades de acesso AVC/HEVC regulares para esta trilha. Esta faixa BL deve ter o mesmo track-unique-ID ("track-ID") que a faixa Dolby para que o aplicativo entenda que são duas codificações do mesmo vídeo.
    • O aplicativo pode decidir qual faixa escolher com base na capacidade da plataforma.
    • Como uma faixa HDR tem um tipo específico de HDR, a estrutura escolherá um decodificador de vídeo Dolby para decodificar essa faixa. A faixa BL será decodificada por um decodificador de vídeo AVC/HEVC comum.
  • Dolby Decoder:
    • O DolbyDecoder recebe unidades de acesso que contêm as unidades de acesso necessárias para todas as camadas (EL+BL+MD ou BL+MD)
    • As informações CSD (dados específicos do codec, como SPS+PPS+VPS) para as camadas individuais podem ser empacotadas em 1 quadro CSD a ser definido pelo Dolby. É necessário ter um único quadro CSD.

Ações Dolby

  1. Defina o empacotamento das unidades de acesso para os vários esquemas de contêiner Dolby (por exemplo, BL+EL+MD) para o decodificador Dolby abstrato (ou seja, o formato de buffer esperado pelo decodificador HDR).
  2. Defina o empacotamento do CSD para o decodificador Dolby abstrato.

Ações do fornecedor

  1. Implemente o extrator Dolby. Isso também pode ser feito por Dolby.
  2. Integre o DolbyExtractor na estrutura. O ponto de entrada é frameworks/av/media/libstagefright/MediaExtractor.cpp .
  3. Declare o perfil do decodificador HDR e o tipo OMX de nível. Exemplo: OMX_VIDEO_DOLBYPROFILETYPE e OMX_VIDEO_DOLBYLEVELTYP .
  4. Implementar suporte para índice: 'OMX.google.android.index.describeColorAspects '
  5. Propague os metadados HDR dinâmicos para o aplicativo e apareça em cada quadro. Normalmente, essas informações devem ser empacotadas no quadro decodificado conforme definido pelo Dolby, porque o padrão HDMI não fornece uma maneira de transmiti-las ao monitor.

Pipeline do decodificador VP9

Figura 3. Pipeline VP9-PQ

Os fluxos de bits VP9 são empacotados em contêineres WebM de uma forma definida pela equipe WebM. Os aplicativos precisam usar um extrator WebM para extrair metadados HDR do fluxo de bits antes de enviar quadros para o decodificador.

  • Extrator WebM:
  • Decodificador VP9:
    • O decodificador recebe fluxos de bits Profile2 e os decodifica como fluxos VP9 normais.
    • O decodificador recebe todos os metadados estáticos HDR da estrutura.
    • O decodificador recebe metadados estáticos através das unidades de acesso bitstream para fluxos VP9 PQ.
    • O decodificador VP9 deve ser capaz de propagar os metadados estáticos/dinâmicos HDR para a tela.

Ações do fornecedor

  1. Implementar suporte para índice: OMX.google.android.index.describeHDRColorInfo
  2. Implementar suporte para índice: OMX.google.android.index.describeColorAspects
  3. Propagar metadados estáticos HDR