O que é HDR e por que essa tecnologia importa na sua TV

Tecnologia usada em telas digitais permite maior contraste de cores; para conseguir a melhor qualidade de imagem possível, é preciso combinar recursos e entender padrões de cada fabricante

Ana Luiza de Carvalho - O Estado de S. Paulo

Você pode ler 5 matérias grátis no mês

ou Assinar a partir de R$1,90

Você pode ler 5 matérias grátis no mês

ou Assinar a partir de R$1,90

Você leu 4 de 5 matérias gratuitas do mês

ou Assinar a partir de R$1,90

Essa é sua última matéria grátis do mês

ou Assinar a partir de R$1,90

O HDR proporciona alto brilho e contraste na imagem Foto: Christian Mang/Reuters

Nos últimos anos, comprar uma TV se tornou um equivalente a decifrar uma sopa de letrinhas, com termos como 4K, UHD e HDR. Enquanto as duas primeiras se referem a um padrão de resolução das telas das imagens, superior ao Full HD (chamado também de altíssima definição), o HDR é uma tecnologia que diz respeito às cores e balanceamentos de tons das imagens. 

Ou seja: uma TV que tem HDR pode não ser 4K – e vice-versa. Mas enquanto o 4K ou UHD (abreviação para Ultra HD) é uma coisa só, existem diversos padrões diferentes de HDR sendo adotados pela indústria. Nesse texto, o Link vai te explicar o que é o HDR, quais suas vantagens e os padrões que a indústria têm adotado. 

O que é HDR?

HDR é a sigla para High Dynamic Range (HDR), ou dinâmica de alto alcance, em tradução literal. O HDR proporciona alto brilho e contraste na imagem, ou seja, os tons ficam mais diferenciados entre si  e vívidos. Os pretos ficam mais puros, enquanto os tons claros ficam mais equilibrados e iluminados, sem ‘estourar’ em luminosidade. 

A tecnologia não é exatamente nova e tem sido usada há alguns anos em câmeras fotográficas e filmadoras, além dos celulares. É uma faca de dois gumes: enquanto as câmeras captam imagens com alta qualidade, as televisões (ou telas específicas, como as dos próprios smartphones) exibem-nas, tendo a necessidade de ser capazes de resolver essas questões de processamento. 

Para isso, o HDR atua na escala de cores dos pixels, ou seja, das micropartículas que compõe a imagem. Os pixels das telas digitais são pontos compostos por vermelho, verde e azul (ou RGB, na sigla em inglês) e cabe às diferentes tecnologias de HDR aumentar o contraste entre as cores. 

HDR ou 4K? O que priorizar na hora de comprar?

As duas tecnologias são distintas e, inclusive, muitos dos aparelhos lançados recentemente contam com ambas.

O 4K (ou UHD) diz respeito à quantidade de pixels que uma tela possui: quanto mais pixels, melhor a resolução da imagem. A resolução Full HD, por exemplo, tem 1920x1080 pixels. A 4K apresenta quatro vezes mais qualidade que a pioneira da alta resolução: são 3840x2160 pixels. A nomenclatura vem daí: os 3840 são quase 4 mil, ou seja, 4K. A indústria também já trabalha no padrão 8K, com 7680 pixels de largura por 4320 pixels de altura. 

Sem HDR, imagem fica 'pálida' e sem contraste Foto: Panasonic/Divulgação

Com HDR: contraste e cores vivas Foto: Panasonic/Divulgação

Por isso, para ter uma melhor experiência de imagem é melhor contar com ambos os recursos. Enquanto o 4K entrega mais resolução e uma imagem mais nítida, o HDR é responsável por uma imagem mais próxima à realidade – ou uma percepção que se assemelha à do olho humano. 

Tanto no caso do HDR quanto no caso da 4K, porém, não basta ter uma televisão que seja capaz de ler as informações contidas na imagem. O conteúdo precisa ser produzido já nos padrões de qualidade HDR e 4K – embora existam televisores que sejam capazes de fazer o chamado “upscale”, usando algoritmos específicos para melhorar a resolução de um filme, por exemplo, em HD ou Full HD. 

Quais os padrões de HDR de cada fabricante

Para entender como o HDR de cada televisão funciona, é preciso medir a diferença entre a imagem mais clara e a mais escura possíveis, na escala de nits. Quanto maior a diferença, maior o contraste entre as cores e, com isso, maior a qualidade da imagem. 

Enquanto uma televisão analógica, antiga, tem frequência de 100 a 200 nits, um televisor que tem HDR pode chegar à luminosidade de 2000 nits. Isso permite que, além de ter imagens mais claras, a riqueza de detalhes seja até dez vezes maior.O obstáculo porém, é que nem sempre as fabricantes trazem a escala do HDR nas especificações técnicas dos televisores. A Samsung, por exemplo, traz a informação no nome das linhas —a linha HDR1000 alcança mil nits, a HDR1500 chega a 1500 e assim sucessivamente.

Além disso, os fabricantes e os produtores de conteúdo têm utilizado diferentes padrões de HDR para as filmagens e para as telas, o que tem gerado uma guerra de especificações. Alguns padrões, como o HDR10 e o HLG, são de código aberto e estão sendo adotados por toda a indústria. 

Gigantismo

Fabricantes apresentam telas 8K, que têm quatro vezes mais pixels que o 4K

Outros, no entanto, são marcas que devem ser licenciadas. É o caso do Dolby Vision, atualmente utilizado pela Netflix e presente em algumas TVs da LG e da Sony no Brasil, e o HDR10+, desenvolvido pela Samsung e usado por empresas como a 20th Century Fox. Além dos dois, outro formato que está na briga é o Technicolor HDR.  

Os três estão disputando espaço entre si para ver quem alcança mais fabricantes de aparelho e produtoras de conteúdo. É uma guerra mais ou menos parecida ao que ocorreu nos anos 1980 com os formatos Betamax e VHS, para o vídeo caseiro. 

Em meio a tantos padrões, uma das principais diferenças é a programação utilizada para adaptar os tons, ou seja, os metadados usados nos decodificadores. Enquanto o HDR10+ usa uma formatação estática para todo o programa – os metadados estáticos –, o Dolby Vision tem metadados dinâmicos e muda as informações de acordo com a imagem. 

Não entendeu? Vamos lá: um sistema que tem metadados dinâmicos permite que a tela se adapte ao longo da exibição de um vídeo – se as primeiras cenas forem escuras, à noite, mas depois houver uma transição para cenas diurnas, as cores brilhantes não ficarão tão saturadas. O mesmo pode não ocorrer com o HDR10+, que usa uma formatação padrão ao longo de todo o vídeo. 

O que acontece, na prática, é que os aparelhos normalmente não são capazes de reproduzir todos os formatos de HDR disponíveis no mercado. Com a falta de padronização, perde o cliente, que fica limitado a conteúdos específicos de acordo com o aparelho que possui – e é difícil ainda prever quem vai vencer essa guerra.

 

Mais conteúdo sobre:

Encontrou algum erro? Entre em contato