Vous êtes sur le point d'acheter un écran LED et vous ne savez pas à quel point le terme HDR est important (High Dynamic Range, pour son acronyme en anglais) ?
Ne vous inquiétez pas, nous allons vous l'expliquer. Le HDR est, en bref, la partie de votre écran LED qui est responsable de la diffusion de scènes avec des couleurs plus réalistes et un contraste plus élevé.
Le contraste est mesuré par la différence entre les blancs les plus brillants et les noirs les plus sombres qu'un écran LED peut afficher, mesurée en candelas par mètre carré (cd/m2) : les fameux NITS.
Il existe de nombreux formats en HDR, mais il y a actuellement deux acteurs principaux : le format propriétaire Dolby Vision et la norme ouverte HDR10. Dolby a été le premier à se joindre à la fête avec un prototype de téléviseur capable d'afficher jusqu'à 4 000 nits de luminosité. Pendant un court laps de temps, Dolby Vision était essentiellement synonyme de HDR, mais tous les fabricants ne voulaient pas suivre les règles de Dolby (ou payer leurs frais), et beaucoup ont commencé à travailler sur leurs propres alternatives.
Les deux principaux formats HDR utilisent des métadonnées qui circulent le long du signal vidéo via un câble HDMI, des métadonnées qui permettent à la source vidéo de « dire » à un écran LED comment afficher les couleurs. Le HDR10 utilise une approche assez simple : il envoie les métadonnées en une seule fois et au début d'une vidéo, en disant quelque chose comme : « Cette vidéo est encodée en HDR, et vous devez la traiter de cette façon. »
Le HDR10 est devenu le plus populaire des deux formats. C'est avant tout une norme ouverte : les fabricants d'écrans LED peuvent l'implémenter gratuitement. Il est également recommandé par l'UHD Alliance, qui préfère généralement les normes ouvertes aux formats propriétaires tels que Dolby Vision.