|
|
Dossier HDR en photo et vidéo - 5/5 : les normes HDR, HDR10, HDR1000, HDR10+, Dolby Vision...
Vous pensez bien qu'il n'existe pas qu'une seule norme HDR, cela serait trop simple ! Eh bien sur cette page nous allons passer en revue les principales "normes" HDR en 2024 avec leurs spécificités, avantages et inconvénients.
En 2024, puisque tous les écrans, moniteurs et téléviseurs compatibles HDR ne le sont pas avec toutes les mêmes spécifications, il est temps de voir se qui se cache derrière chacune des nomres HDR pour comprendre comment les images HDR ou non s'affichent réellement sur tous nos écrans.
|
|
|
|
|
Une spécification HDR est définie par plusieurs obligations techniques que doit être capable d'afficher un écran, un moniteur ou une télévision compatible. Parmi ces caractéristiques on note :
- La définition de l'écran ou la télévision,
- La courbe de contraste,
- Le gamut,
- Le nombre de bits,
- Une luminosité maximum à afficher au minimum !
- Les métadonnées dynamique ou pas,
- Norme open source ou propriétaire.
1 - Les définitions en pixels selon les normes HDR
On s'en doutera, pour être compatible avec les différentes normes HDR de 2024, il faut pouvoir afficher au moins l'UHD (3840 x 2160 pixels) que l'on appelle également la 4K. Pour rappel, les écrans 4K affichent un peu plus de pixels car ils affichent en effet 4096 x 2160 pixels et nécessitent une carte graphique compatible car elles sont très loin de l'être toutes.
Note pratique ! Donc si vous achetez un écran réellement 4K, faites attention à ce que votre carte graphique soit réellement compatible elle aussi.
Mon avis - Cela dit, vous pouvez tomber sur des écrans en QHD HDR mais toutes les télévisions sont au moins aujourd'hui 4K et la 8K commence à faire son nid. Enfin, je note que cela n'apporte strictement rien à la diffusion HDR si ce n'est que quand on veut contrôler le blooming (effet de halo autour des sources lumineuses sur fond noir) sur les écrans LCD, il faut 8,3 millions de Leds ! Sûrement avec les Micro-Leds ?
2 - La ou les courbes de gamma ou de contraste : PQ, HLG...
Sur les écrans de retouche photo on parle toujours de courbes de gamma dont la valeur est de 2,2. On en a largement parlé sur la page précédente donc je vous y renvoie. Cette courbe de gamma (courbe rouge ci-dessous) a été calculée pour convenir à l'affichage d'une image dont la dynamique varie entre 0,1 et 100 cd/m2, pour faire court donc avec une approximation correcte. Ici, on parle d'une dynamique largement élargie donc il fallait une courbe plus adaptée. Il en existe principalement deux : il s'agit soit de la courbe PQ (pour Perceptual Quantification que l'on peut traduire par courbe perceptuelle) et sa variante adaptée à la diffusion de programmes télévisés en direct : la courbe HLG. (Courbes verte et bleue ci-dessous). |
|
|
|
|
|
|
Mon avis - La courbe PQ est la plus courante - et la plus qualitative car elle prévoit une luminance maximum de 10000 cd/m² - quand il s'agit de diffuser des films. La courbe HLG ne sert que quand il s'agit de diffuser des programmes HDR en direct donc par définition en 2024 sur des télévisions HDR... mais également SDR, et il en reste ! Il s'agit cependant d'une tentative intéressante pour diffuser des programmes HDR pour ceux qui possèdent déjà une télévision HDR. Elle se "contente" d'une luminance maximum de seulement 1000 cd/m².
3 - Les gamuts en HDR
Si vous êtes photographes, vous avez déjà entendu parlé des gamuts photo sRVB, Adobe RVB ou encore ProPhoto. Ils ont, pour faire court, leurs équivalents spécifiques en vidéo :
- Rec.709,
- DCI P3
- et Rec. 2020.
1 - Le gamut Rec.2020, le plus grand, permet donc, potentiellement, d'afficher plus de couleurs très saturées que le gamut standard Rec.709. C'est donc une espèce de Graal malheureusement impossible à atteindre techniquement et, en 2024, aucun écran ou téléviseur ne sait le reproduire donc quand on lit que tel ou tel écran est compatible Rec.2020, je ne vois trop ce que cela veut dire !
2 - Le gamut DCI-P3 est très sensiblement moins grand que le précédent et, en 2024, de très nombreux écrans savent le reproduire car il est proche de l'Adobe RVB en photo. Cependant, attention, ces écrans sont évidemment plus chers mais vous bénéficierez au passage d'autres qualités que seuls ces écrans offrent (précisions d'affichage des couleurs, homogénéité, courbe gamma précise). C'est l'espace couleur du monde Broadcast (TV) au moment de la captation.
3 - Le Rec.709 est l'équivalent en photo du sRVB qui, je le rappelle veut dire Standard RVB. Ainsi, même si c'est le plus petit des trois, il est, contrairement à une croyance bien ancrée, bien plus que suffisant car il contient déjà de très nombreuses couleurs visibles dans notre quotidien Aujourd'hui, tous les écrans du monde savent reproduire cet espace couleur donc si vous filmez et diffusez en Rec. 709 vous serez sûr que tout le monde pourra voir votre vidéo ou film de la même façon - bon, cela dépend aussi de l'écran ! -.
Rappel à propos d'une croyance bien ancrée ! Non, les espaces couleurs les plus grands n'affichent pas les couleurs globalement avec plus de saturation mais sont effectivement capables d'afficher des couleurs plus saturées si et seulement si on les a filmé !!! Les couleurs "normalement" saturées seront reproduites exactement de la même manière dans les différents espaces couleurs car ils ont bien un dénominateur commun, au centre des trois triangles ci-dessus. Je vous assure ! Si votre film apparaît plus saturé sur votre écran c'est parce que qu'il y a eu une erreur de gestion des couleurs. L'erreur typique : un film filmé en Rec.709 mais regardé sur un écran large gamut. Je vous raconte tout cela avec des exemples sur ma page choisir son espace couleur en vidéo
4 - Le nombre de bits
Pour qu'une image soit affichée correctement, elle a besoin d'être codée sur 8 bits. C'est largement suffisant ainsi et je rappelle pourquoi dans l'encadré ci-dessous. Si vous avez des problèmes de cassures de tons à l'affichage (comme sur l'image du bas ci-dessous), il faudra chercher du côté du traitement de votre image ou de sa compression JPG au moment de son enregistrement. J'explique d'ailleurs sur une page pourquoi il n'est donc pas nécessaire de travailler sur un affichage 10 bits en photo
|
|
|
|
|
|
|
En vidéo, la donne est sensiblement différente. Alors évidemment les couleurs sont les mêmes qu'en photo donc on serait tenter de travailler en 8 bits également et c'est ce qui arrive lorsqu'on filme en SDR. Oui mais en HDR, un paramètre fondamental change la donne : la plage de dynamique est beaucoup plus large car on filme cette fois des noirs à 0,001 cd/m2 parfois et des hautes lumières très lumineuses. La plage des luminosités est beaucoup plus large et pour la décrire sans ces fameuses cassures de tons il faut travailler au moins en 10 bits ce que permet la norme Dolby Vision. Ah bon et pas la norme HDR10 ?
Eh bien non car quand on parle de HDR10 on parle d'une image traitée en 8 bits + 2 bits consacrées aux métadonnées alors qu'en Dolby Vision, les images sont codées sur 12 bits, il s'agit en fait, vous l'aurez deviné d'une image 10 bits + 2 bits pour les métadonnées. |
Si une photo n'a besoin que de 8 bits pour être affichée correctement, il est préférable de travailler en 16 bits lors de sa retouche. En vidéo HDR c'est différent car les écarts de luminosité sont beaucoup pus importants. Il est alors préférable de travailler en 10 bits. |
|
|
|
|
|
|
|
|
|