Ano após ano, os principais smartphones lançados se gabam de terem telas com a mais recente tecnologia HDR. Em 2020, a linha iPhone 12 deu um passo adiante e se tornou a primeira capaz de reproduzir, registrar e editar conteúdos em Dolby Vision, um tipo específico de HDR. Para entender a importância dessa tecnologia para as fotos que tiramos e para os filmes que assistimos em nossos celulares – mas não só neles – precisamos entender o que é o HDR e como cada padrão presente no mercado se diferencia. Vamos lá?
O que é o HDR?
Sigla para High Dynamic Range, ou ‘Alto Alcance Dinâmico’, em português, o HDR, em sua forma mais simples, consiste numa série de técnicas utilizadas na captura e na exibição de imagens. Elas buscam fazer com que as câmeras e telas com a tecnologia sejam capazes de registrar, e exibir, conteúdos com uma variação de contraste cada vez maior. Quando vemos um preto profundo ao lado de um cinza bem escuro, é a variação de contraste, isto é, a diferença de luz e sombra de um para o outro, que nos permite diferenciá-los. A função do HDR é tornar essa variação cada vez mais perceptível e, para isso, ele faz as câmeras e telas serem mais sensíveis às diferenças de contraste, permitindo que elas capturem e reproduzam um número maior de tons entre o preto e o branco absolutos. De uma forma bem resumida, o objetivo do HDR é tornar as cores e o contraste de uma imagem digital tão precisos quanto os de uma imagem real, vista sem a intermediação de telas ou câmeras. Isso, por si só, representa um enorme desafio, visto que nossos olhos evoluíram por milhões de anos até chegarem no que são hoje.
Como o HDR funciona nas câmeras?
Conforme vimos acima, a imagem HDR está presente em câmeras e telas. Com isso, de nada adianta ter um conteúdo gravado em HDR e exibi-lo numa tela com SDR – Standard Dynamic Range ou Alcance Dinâmico Padrão, em português. Da mesma forma, sua TV HDR não conseguirá transformar um conteúdo SDR em HDR. Embora isso seja possível, conforme alguns pesquisadores franceses relataram em 2017, é algo que exige a conversão do conteúdo com o uso de inteligência artificial, e não ainda não pode ser feito por nossas TVs ou smartphones. Entendendo que o HDR, para funcionar, deve estar presente tanto na câmera que captura o conteúdo quanto na tela que o exibe, fica mais fácil entender como ele funciona em cada um dos dois. Nas câmeras, a técnica mais simples de HDR consiste em tirar 3 fotos ao mesmo tempo, uma com alta sensibilidade à luz, uma mediana e uma com baixa sensibilidade à luz. Depois, softwares de pós-processamento, que variam entre cada modelo de câmera, sobrepõem as três imagens e criam uma só foto. Nessa foto gerada após a sobreposição, a variação entre o ponto mais claro e o mais escuro é maior – tem-se, então, uma ampliação do alcance dinâmico original daquela câmera. Para entender como a imagem HDR se aplica em vídeos, basta imaginar a câmera fazendo esse trabalho com cada frame (ou quadro) do vídeo. É por isso que muitas câmeras de smartphone, por exemplo, não conseguem gravar em altas resoluções e com o HDR – acaba sendo muita informação para seus sensores e processadores lidarem. Conforme afirmamos acima, o resultado da sobreposição vai depender do software de pós-processamento utilizado na câmera. Se ele não souber fazer um bom trabalho, a imagem sairá estranha, com uma variação de contraste ampla, mas que não corresponde à realidade. Igualmente, o HDR não deve simplesmente produzir cores mais fortes: a imagem deve ficar mais vívida não porque está mais saturada, mas porque a diferença nos tons de cada cor é mais perceptível e, consequentemente, mais fiel à realidade. Quando falamos de contraste, inclusive, é comum pensar só no preto e no branco. Contudo, o contraste também reflete nas cores, visto que toda cor é composta de luz e sombra, e que a proporção entre cada um desses (luz e sombra) produzirá um tom diferente daquela cor. Tanto nas câmeras quanto nas telas, o HDR busca tornar mais perceptíveis as diferenças de tom em cada cor, mesmo que elas sejam sutis. O HDR jamais deve tornar as cores berrantes. Uma vez entendendo isso, voltemos à sobreposição das imagens: a forma como as imagens serão sobrepostas depende da fabricante da câmera. É por isso que vemos tanta diferença no HDR dos Google Pixel em relação ao iPhone, por exemplo. Atualmente, a maioria das fabricantes utiliza inteligência artificial para melhorar a sobreposição das imagens, bem como para retocá-las mesmo após serem sobrepostas. É parte da chamada fotografia computacional, que busca contornar as limitações técnicas das câmeras de smartphone com uma dose de inteligência. Em sua forma de funcionar, o HDR é um tipo de bolo, cuja receita cada fabricante faz à sua forma e, como os bolos, é bom entender qual a diferença entre os tipos de HDR para escolher o que mais te apetece. O Google, por exemplo, aprimora o HDR dos smartphones da linha Pixel utilizando técnicas avançadas de IA e sobrepondo não apenas 3 imagens, mas mais de 10. A quantidade de imagens que serão sobrepostas também não é fixa, depende de quantas a IA achar necessárias. Isso vai depender, dentre outros fatores, das condições de luz e até de movimentação da câmera: se você treme muito o braço, a IA entende que não pode tirar tantas fotos, ou tudo sairá borrado. Cálculo complexo esse, não? Além disso, essa fragmentação não ajuda o consumidor a entender qual a diferença entre os tipos de HDR.
E como funciona o HDR nas TVs?
Agora que já sabemos como o HDR funciona nas câmeras e que nelas ele varia conforme cada fabricante decide usá-lo, ficamos mais perto de responder nossa principal pergunta: qual a diferença entre os tipos de HDR existentes? Não apenas, mas principalmente quando falamos de TVs, há uma série de siglas (HDR, HDR10, HDR10+, HLG, Dolby Vision, HDR Advanced e outros) para nos confundir. Em quê elas se diferenciam e qual desses ‘HDRs’ poderia ser considerado o melhor? Bem, uma vez entendendo como o HDR funciona em câmeras, é fácil concluir que uma consequência da sobreposição de imagens é o aumento da quantidade de informação (medida em metadados) presente na foto ou vídeo. Basicamente, o HDR na TV ‘deixa mais claro’ para a tela, com perdão do trocadilho, quais são os pontos mais brilhantes e escuros da imagem, bem como detalha melhor a variação entre eles. Consequentemente, a tela só fará um bom trabalho se representar toda essa informação adicional com precisão. Nesse sentido, uma tela HDR comum é aquela que, por suas especificações técnicas, consegue exibir um amplo espectro de tons claros e escuros, tanto em preto e branco quanto em cores. Para fins métricos, essa variação é medida em nits, uma unidade de medida não oficial (visto que não está presente no Sistema Internacional de Unidades) mas que é amplamente utilizada na tecnologia e que equivale a 1 candela por metro quadrado (1cd/m²). O “nit” é usado no lugar do “1cd/m²” por ter um nome claramente (haha) mais comercial. Basicamente, quanto mais nits tem uma TV, mais brilho ela tem capacidade de emitir. Em geral, um maior número de nits também significa uma maior capacidade de contraste, visto que, ao aumentar a quantidade máxima de luz que se emitir, mais amplo será o espectro de tons entre a claridade e a escuridão totais. Em suma, quanto maior sua capacidade máxima de brilho, mais a TV se torna eficiente em diferenciar tons intermediários, atingindo a precisão necessária para exibir um conteúdo HDR na TV. Em janeiro de 2016, uma aliança formada por diversas fabricantes de telas, chamada Ultra HD Alliance, estabeleceu dois padrões para poder dizer que uma TV tinha a tecnologia HDR: no primeiro deve variar entre 1000 e 0,05 nits de brilho, e no segundo deve variar entre 540 e 0,0005 nits de brilho. Com isso, toda TV que atingisse essas métricas pode ostentar o selo HDR ‘básico’, ainda que isso não resulte numa melhora da imagem final. Como é possível imaginar, a falta de uma padronização mais ampla tornou o HDR, nas TVs, um recurso cujas vantagens reais nem sempre estavam presentes. Bastava eu ter uma TV com capacidade de brilho acima de 1.000 nits que eu poderia chamá-la de HDR e concorrer com telas que, além disso, adicionavam outras tecnologias para serem as melhores do mercado, correto? Bem, se não tivessem inventado os diferentes padrões de HDR que nos causam tanta confusão, isso ocorreria com muito mais frequência. Além de te deixar confuso, cada padrão de HDR estabelece outras tecnologias que deverão estar presentes na TV que queira ostentar seu nome. Com isso, as fabricantes tentam evitar que o HDR das TVs se torne essa bagunça que virou o HDR das câmeras: elas querem garantir que, ao mesmo tempo em que cada fabricante possa aprimorar suas telas com tecnologias próprias, o padrão de HDR utilizado estabeleça um mínimo de qualidade no que diz respeito à imagem em geral, não apenas no contraste. Logo, os diferentes padrões de HDR são uma certificação, uma promessa de que, ao portar aquele selo (HDR10, HLG, Dolby…), a TV passou por rigorosos testes de laboratório e atingiu vários requisitos preestabelecidos. Esses requisitos, que variam conforme cada padrão, não se limitam aos valores máximos ou mínimos de brilho – melhorando, de fato, a percepção de cor e luz nas imagens das TVs.
Então qual a diferença entre os tipos de HDR?
Depois de quase se tornar um especialista em HDR, você finalmente vai entender qual a diferença entre os tipos de HDR existentes por aí. Visto que já explicamos acima como a tecnologia funciona em sua forma mais simples, mostraremos cada uma de suas “evoluções”, indo da mais simples à mais avançada, explicando quais são suas vantagens e desvantagens.
HLG
Idealizado pelas emissoras BBC e NHK, o formato HLG atende aos interesses dessas duas companhias em prover a melhor imagem possível, considerando que, numa transmissão de TV, há espectadores com telas HDR e SDR. Com isso, o HLG não se limita às TVs com alto alcance dinâmico, e possibilita a transmissão de conteúdos ao vivo para ambas as plateias (com e sem TVs HDR). Essa divisão é importante pois, em casos específicos, exibir um conteúdo HDR numa TV SDR pode fazê-lo parecer pior, com cores lavadas e até mesmo distorcidas. A grande vantagem do HLG é ser um formato HDR retrocompatível com TVs SDR. Nas transmissões de TV aberta isso é essencial, contudo o padrão não é muito popular fora do Reino Unido e do Japão, países onde foi criado. No Brasil, a transmissão de TV aberta é totalmente SDR. Já nos conteúdos de streaming, em plataformas como Netflix e YouTube, é possível identificar quais tecnologias a TV suporta, garantindo que o conteúdo seja 100% compatível com ela e eliminando o risco da imagem ser piorada. Por causa disso, é muito improvável que o HLG se popularize um dia, visto que é uma solução intermediária e pensada para a TV aberta, que geralmente leva anos para adotar novas tecnologias. O mais provável é que a TV aberta só transmita em HDR quando a maioria das TVs de sua audiência suportarem tal recurso.
HDR10 e HDR10+
Fruto de parcerias entre Sony e Samsung, o HDR10 une a alta capacidade de contraste do HDR à profundidade de cor em 10-bits. Essa profundidade de cor é consideravelmente maior que a padrão, de 8-bits, significando que uma tela HDR10, em comparação com uma tela HDR ‘comum’, é capaz de exibir cores que essa última não consegue. Já o HDR10+, apresentado por Samsung e Panasonic, aprimora o HDR10. Para isso, a capacidade máxima de brilho sobe, de 1.000 para 4.000 nits, além dos metadados presentes na imagem serem dinâmicos. Lembra de quando falamos que o HDR consiste na inserção de mais informações (metadados) nas imagens? Pois bem, esses metadados instruem a TV sobre como exibir o conteúdo, eles dizem qual é o brilho máximo e o brilho mínimo a ser representado na tela. Quando esses metadados são estáticos, igual no HDR10, os valores máximo e mínimo são os mesmos em todos os frames, ainda que o conteúdo seja um filme com horas de duração. Como resultado, a precisão na reprodução do conteúdo é prejudicada, já que o metadado é gerado com base no filme todo, que pode ter cenas mais escuras e cenas mais claras. No caso do HDR10+, cujos metadados são dinâmicos, essa variação se altera conforme cada cena exibida. Cada frame tem seu próprio metadado, gerado a partir de uma técnica chamada “mapeamento de tom”. Como o nome bem diz, essa tecnologia mapeia os frames, verificando as partes mais escuras e mais claras de cada quadro, gerando os metadados. Como resultado, o HDR10+ tem saturação e níveis de brilho sempre adequados à imagem exibida, ficando mais próximo da qualidade de seu rival, o Dolby Vision.
HDR Advanced
O mais desconhecido padrão HDR é desenvolvido pela Technicolor, empresa que atua em técnicas de coloração fotográfica desde a época dos filmes de rolo. Embora tenha um nome só, o HDR Advanced abarca três sub-padrões de HDR, tendo cada um o seu propósito:
O primeiro deles, o SL-HDR1, se destaca por ser um HDR ‘básico’ e 100% compatível com telas SDR. O segundo padrão, chamado SL-HDR2, se assemelha muito aos padrões HDR10+ e Dolby Vision, visto que também tem metadados dinâmicos. O terceiro e último padrão, ainda em fase de testes, tenta unir as duas coisas. Caso funcione, será o primeiro formato HDR com metadados dinâmicos a ser retrocompatível com TVs SDR.
O objetivo não é deixar uma TV SDR com a qualidade HDR10+, mas sim evitar as distorções que mencionamos anteriormente. Considerando isso, muita gente questiona a utilidade de somar duas tecnologias que são antagônicas (HDR e SDR). No streaming, já é possível transmitir conteúdo HDR apenas para TVs compatíveis, enquanto no caso das emissoras de TV aberta, é bem provável que elas só passem a produzir conteúdos HDR quando a maior parte da audiência tiver TVs do tipo. Por ora, o HDR simplesmente não é interessante para as emissoras de TV, visto que é caro produzir conteúdos com a tecnologia, e que a maioria das pessoas ao redor do mundo ainda tem TVs SDR. Justamente por isso, muitos acreditam que o HDR Advanced está fadado ao fracasso junto de seu irmão, o HLG.
Dolby Vision
Visto como o ‘padrão ouro’ dos padrões HDR, o Dolby Vision está presente nas TVs mais caras e pode se dizer que é o melhor dos disponíveis atualmente. Como costuma ser, tanta qualidade decorre de um alto padrão exigido pela Dolby Labs: enquanto duas telas HDR10+ podem exibir imagens levemente discrepantes, a depender de suas especificações, projetores e TVs certificados com o Dolby Vision passam por testes a fim de garantir que, apesar das peculiaridades do equipamento, as imagens sejam exibidas exatamente conforme os padrões Dolby. Além de toda essa testagem, o Dolby Vision tem requisitos técnicos mais sofisticados. O valor máximo de nits suportado, por exemplo, é 12.000. Ainda que nenhuma TV da atualidade chegue perto desse patamar – as mais caras têm pico nos 2.000 nits de brilho – isso mostra como o padrão foi pensado também para o futuro. O Dolby Vision também foi o primeiro padrão a ter mapeamento de tom e metadados dinâmicos, cuja natureza explicamos no tópico do HDR10+. Como se já não bastasse, a tecnologia da Dolby também oferece cores de 12-bits, ou seja, telas com essa certificação exibem algumas cores que mesmo as TVs com HDR10+ não conseguem mostrar. A parte ruim dessa tecnologia é o preço: como o formato é da Dolby, a empresa exige royalties das empresas que o utilizam, o que encarece qualquer dispositivo compatível. Tal fator também torna os filmes e séries com a tecnologia mais caros.
- Dolby Atmos: muitas vezes oferecido em conjunto ao Dolby Vision, o Dolby Atmos é o padrão de som certificado pela Dolby Labs, comumente presente em TVs e smartphones de diferentes marcas. Por tratar de áudio e não de vídeo, o Atmos não faz parte do escopo dessa matéria, porém, o incluímos aqui para que você não se confunda ao ver seu nome por aí. E aí, entendeu qual a diferença entre os tipos de HDR? Com informações de: CNET, AVForums, JMGO, Reliance Digital, Samsung, HowToGeek