Outils pour utilisateurs

Outils du site


glossaire:gamut:espace_couleurs

Espace de couleurs

Qu'est-ce qu'un espace de couleur ?

TL ; DR (Too long ; didn't read) se dit de quelque chose qui demande trop de temps pour être lu): un espace couleur est un raccourci pour représenter un spectre lumineux comme une combinaison linéaire de 3 lumières de référence : les couleurs primaires. Cette représentation a été choisie parce que c'est ce que font également les 3 types de cellules coniques de la rétine (trivariance de la vision humaine). Cela signifie que nous pouvons créer un espace couleur dont les couleurs primaires correspondent aux couleurs primaires perceptuelles : l'espaces LMS, utilisés pour l'adaptation chromatique.

Mais tous les espaces RVB créés ne sont pas égaux, et leurs couleurs primaires, vues par un observateur humain, peuvent sembler plus ou moins saturées. Certaines couleurs primaires peuvent même permettre de créer des combinaisons qui n'existent pas en réalité dans la vision humaine : on les appelle des couleurs imaginaires, et elles sont difficiles car elles utilisent des valeurs de code valides.

Ce graphique montre le lieu visible (le fer à cheval coloré) et le triangle superposé est le lieu de l'espace Prophoto RGB (chaque coin du triangle est une primaire). Là où le triangle s'échappe du fer à cheval, c'est là que l'espace colorimétrique peut coder des couleurs imaginaires avec des valeurs RVB parfaitement valides.

De la géométrie triangulaire de la gamme des espaces de couleurs, vous pouvez déduire qu'aucun espace de couleurs RVB ne pourra jamais correspondre parfaitement au lieu visible : soit vous autorisez les couleurs imaginaires à entrer, soit vous écartez les couleurs visibles. Comme pour Rec2020 :

Pour référence, la gamme sRGB :

Pour référence, le gamut sRGB : Et le gamut RGB d'une caméra avec un profil de couleur standard (provenant du convertisseur DNG d'Adobe), plus tard adapté en D50 par diverses méthodes :

Le plus grand n'est pas le meilleur

Il y a cette croyance selon laquelle le plus grand espace est le meilleur. Eh bien, cela dépend du meilleur pour quoi. Pour des raisons d'archivage (c'est-à-dire pour sauvegarder les produits finaux ou partager les rendus entre les applications), peut-être. Mais pour tout type d'étalonnage des couleurs (c'est-à-dire les modifications artistiques et correctives des couleurs), tout espace qui permet des couleurs imaginaires pourrait créer des problèmes en permettant aux utilisateurs de pousser les couleurs hors de la gamme. Ce qui est un peu triste si vos couleurs d'origine étaient en fait dans la gamme, et rendra également le mappage de la gamme au moment de l'exportation beaucoup plus difficile.

De plus, les couleurs primaires sont importantes pour la cohérence perceptive. Par exemple, voici un gradient de teinte dérivé de sRGB à l'aide de HSL :

Et un gradient de teinte dérivé d'un espace RVB spécial, conçu pour l'étalonnage des couleurs, à l'aide de Yuv :

Vous voyez comment les couleurs secondaires (jaune et magenta) n'ont presque aucune portée en sRGB alors que le vert aspire plus d'un quart de la portée pour lui-même ? Voyez aussi comment le bleu et le rouge semblent en fait beaucoup plus saturés que le reste du dégradé, en sRGB, alors que le jaune semble plus brillant ? Dans le dégradé de couleurs RVB, la saturation est plus uniforme et chacune des 3 couleurs primaires et des 3 couleurs secondaires obtient presque 1/6e de la gamme, ce qui est notre objectif pour obtenir un espace perceptiblement égal. L'étalonnage dans un tel espace se comportera de manière beaucoup plus uniforme (notez que dans les deux cas, le gradient réel est interpolé en Rec 709 linéaire, seuls les pas de couleur sont définis à partir de HSL ou Yuv).

Pour conclure sur la plus grande partie de la saucisse de l'espace, rappelez-vous que la grande majorité des couleurs réfléchissantes (c'est-à-dire les surfaces colorées d'un matériau qui réfléchissent la lumière produite par quelque chose d'autre) se situe bien à l'intérieur du sRGB. Les couleurs à très haute saturation sont généralement des sources de lumière colorée, c'est-à-dire de la lumière directement émise et filtrée par certains filtres ou même par des lasers. C'est pourquoi le HDR va de pair avec une large gamme, car alors que le SDR visait à représenter des matériaux réfléchissants (le strict minimum pour faire de la photographie), maintenant le HDR essaie de représenter aussi des sources de lumière.

Le découpage du gamut est (en quelque sorte) un mythe

Toute application correctement gérée convertit un espace de couleur en espace de couleur grâce à un système de gestion des couleurs (CMS), qui effectue une cartographie de la gamme de couleurs en utilisant différentes stratégies : les intentions. Lors de la conversion vers un espace RVB plus court, il faudra faire des concessions sur la précision des couleurs pour qu'elles s'intègrent dans l'espace de destination. La moins mauvaise des concessions, parmi les méthodes de calcul raisonnables, c'est-à-dire l'intention perceptive, est de diminuer la chroma pour une même teinte et luminance, ce qui signifie que nous compressons toutes les couleurs vers le point blanc. Cela permet de préserver la fluidité des dégradés et d'éviter de créer des blocs de couleurs solides où l'on s'attend à des transitions progressives, car elles auraient l'air fausses et ne correspondraient pas au reste de l'image.

Puisque le gamut est en fait un volume (les graphiques ci-dessus sont donc des projections sur un plan), voici à quoi il ressemble en 3D :

Donc, ce que nous faisons lorsque nous faisons de la cartographie de gamme, c'est pousser les couleurs à l'intérieur du double cône, vers l'axe vertical des gris, tout en restant sur un plan horizontal (même luminance) et un plan vertical (même teinte). La compression du gamut de calibrage des couleurs de la table foncée fait que toutes les couleurs sont poussées d'un pas, mais le pas est plus grand car les couleurs sont plus éloignées de l'achromatique. Cela nous permet de préserver les gradients de saturation tout en affectant à peine les couleurs à faible chromaticité, qui étaient valables au départ.

Mais… la plupart d'entre vous utilisent des écrans compatibles avec le format sRGB, et peu d'entre vous ont des écrans compatibles avec le format RGB d'Adobe. Dans tous les cas, ils sont tous deux beaucoup plus petits que l'espace de la caméra. Ce qui signifie que ce que vous voyez sur votre écran est déjà le produit d'une réduction de la gamme. Si cela paraît bien, il n'y a aucune raison de s'inquiéter du gamut, car tout semble bien se tenir. L'anxiété liée à la réduction du gamut est donc surtout le fait de personnes qui comprennent une partie du problème mais ne connaissent pas vraiment les solutions déjà intégrées pour le résoudre.

2 types d'espaces de couleur

Nous avons les espaces de couleur liés à un support, qui représentent la gamme des couleurs rendues physiquement par le support. Ce type d'espace est nécessairement délimité, ce qui signifie que la luminance du blanc est définie par le support lui-même (puissance de rétro-éclairage d'un écran, ou blancheur et brillance du papier), de sorte qu'aucune valeur RVB ne peut dépasser la luminance maximale de l'affichage.

Mais la luminance du noir est également définie par le support (luminosité rémanente du panneau LED ou densité de l'encre pour le papier), et cette luminance n'est jamais nulle. Les valeurs RVB ne doivent donc pas non plus être inférieures à ce seuil de noir, qui est traité par la compensation du point noir dans certaines applications correctement gérées, mais qui est moins connu et mis en œuvre de manière aléatoire.

Toute valeur RVB inférieure à la luminance du noir moyen et sans adaptation du point noir fera partie d'une tache noire solide sur l'impression. Notez que l'adaptation du point noir augmente uniformément toute la gamme de luminance, de sorte que les personnes qui se plaignent d'impressions plus sombres que l'écran doivent d'abord blâmer le manque d'adaptation du point noir dans leur pilote d'imprimante.

Ensuite, nous avons les espaces colorimétriques de référence : Rec 2020, Adobe RGB, ProPhoto RGB. Ils ne sont pas liés à un support particulier et peuvent être utilisés sans limite. Il s'agit uniquement d'un encodage de données. Le noir sera généralement encodé à 0 mais attention à cela, car cela ne contient aucune information sur la luminance originale de “ce que nous appelons noir” sur la scène originale, et il doit être considéré comme “la valeur la plus sombre enregistrée” à laquelle le retoucheur attribuera arbitrairement une luminance (comme dans l'“exposition relative au noir” cinématographique) jusqu'à ce qu'il ait l'air bon®.

Votre chaîne de traitement brut habituelle va de l'espace de la caméra (moyennement attaché, super grand) à l'espace de travail (référence, grand mais plus petit que celui de la caméra), à l'espace de sortie/exportation (référence ou moyen, aussi grand que nécessaire pour la référence, mais généralement super petit pour le support). Chaque conversion doit être effectuée correctement, mais les hypothèses et les méthodes sont un peu différentes si nous convertissons un produit final en espace moyen ou un matériel de travail intermédiaire en espace de référence.

En fin de compte, le découpage de la gamme existe en tant que chose, mais il sera évité 90% du temps si vous utilisez une application sérieuse, grâce à la cartographie de la gamme. En tant qu'utilisateur, vous n'avez donc pas besoin de faire des cauchemars à ce sujet. Le seul problème qui peut se poser est que les couleurs éloignées du gamut seront traitées de manière sous-optimale par la cartographie du gamut, car elles le poussent trop loin. Mais de tels cas devraient vous apparaître au moment du montage.

Que signifie "hors gamut" ?

Dans une perspective d'espace moyen, où le blanc et le noir sont délimités, “hors gamut” peut signifier l'un ou l'autre :

  • plus lumineux que le pic d'émission de l'affichage (blanc)
  • plus sombre que l'affichage de la densité maximale (noir)
  • trop de couleur à la luminance actuelle (la luminance est valable, mais la couleur est trop loin d'être achromatique).

Le problème étant que la plupart des alertes de gamut ne feront pas la différence entre les 3, vous ne savez pas si vous devez fixer l'exposition, le niveau de noir ou la saturation chromatique, ou toute combinaison des 3.

Du point de vue de l'espace de référence, hors gamut ne signifie qu'une chroma trop élevée, puisque nous n'avons pas de limites. Pourquoi une carte de gamut précoce ?

Cela ne fera que confirmer ce que nous venons d'établir : faire en sorte que notre espace de travail ne contienne que des couleurs visibles. Pas d'UV, pas d'IR, pas de couleurs imaginaires. Parce que si vous appuyez manuellement sur la saturation/chroma sur des couleurs imaginaires, vous créerez des problèmes pour plus tard, au moment de l'exportation. De plus, nous ne savons pas à quoi ressemble la lumière UV saturée dans la vie réelle, par rapport aux UV désaturés, mais nous savons à quoi elle ressemble en image : des taches bleues plates à l'émission bleue maximale. Ou pire : des gradients bleus qui se déplacent vers le cyan en passant par l'indigo.

Mais… nous n'avons pas besoin de gamut-map au début du tuyau en utilisant l'espace couleur d'exportation comme référence de volume de gamut. C'est beaucoup trop conservateur. De plus, nous devrons sacrifier trop de couleurs valides pour récupérer 100% de l'image en sRGB. Ce qui nous amène à l'étape suivante…

Ne vous transformez pas en monstre d'alerte

Le fait d'avoir 2 % de votre image hors de la gamme (quelle que soit la gamme contre laquelle vous calculez) n'est pas du tout préoccupant. Il n'est pas non plus nécessaire que 10 % de votre image soit hors gamme, tant que votre moniteur de contrôle sRGB affiche des gradients décents. (Je ne fais qu'indiquer des pourcentages, ne les prenez pas au pied de la lettre).

Le fait que plus de 25% de votre image soit hors gamme, ou que certaines couleurs soient très éloignées de l'achromatique (très haute chromaticité), ou que des bandes de couleurs/posterisations ou des taches de couleur plates soient présentes là où il devrait y avoir des gradients est un problème.

Mais la vérité est que les gens ont du mal à évaluer la qualité d'une image et ne repéreront pas les problèmes visuels dans le cadre. Ainsi, le coucher de soleil moyen des médias sociaux passe de l'orange ambré au jaune pisse-rat et personne ne s'en offusque :

https://www.instagram.com/p/CJWG56VLyBi/ 4 (Juste un exemple choisi au hasard parmi les derniers résultats d'une requête #sunset sur Instagram)

Pendant ce temps, les gens augmentent la compression du gamut comme des fous, en regardant les alertes de gamut qui ne disent pas si c'est une luminance ou un écrêtage chromatique, pour régler des problèmes qui n'existent pas puisque votre CMS d'exportation devrait bien prendre en charge 90% des problèmes.

De plus, les alertes de gamut ne montrent pas d'écrêtage de gamut. Elles indiquent les pixels hors gamut, qui peuvent ou non être coupés lors de l'exportation, selon l'habileté de votre application à gérer les couleurs.

Dans quel espace pour afficher les histogrammes ?

N'importe quel espace. Cela n'a pas d'importance. Ce que nous recherchons, lorsque nous regardons les histogrammes, c'est la dispersion. Si vous voulez vraiment voir le gris moyen au milieu du graphique, choisissez un espace qui a une puissance de 2,4 comme OETF ( fonction de transfert optique ), comme sRGB. Cependant, l'OETF sRGB a une pente linéaire pour les basses lumières et une puissance supérieure, ce qui brouille un peu la dispersion.

Mais en vérité, si vous vous demandez dans quel espace afficher un histogramme, vous ne savez probablement pas comment le lire, alors ne vous donnez pas la peine de le cacher et regardez plutôt l'image.

Surtout sur les forums open source, où la foule a tendance à être geek par nature, les gens réfléchissent tellement à la portée et aux chiffres qu'ils finissent par retoucher des chiffres au lieu de photos. Conclusion

Restez analytique, évaluez ce que vous voyez et critiquez-le. Mais n'allez pas trop loin et n'inventez pas de problèmes en vous basant sur des préoccupations théoriques que vous ne comprenez qu'à moitié.

Assurez-vous que vos applications sont correctement gérées sur le plan des couleurs, c'est-à-dire qu'elles effectuent une cartographie de la gamme (colorimétrie perceptuelle ou relative) et une compensation du point noir lors de la conversion vers d'autres espaces (BTW, darktable ne fait pas de point noir).

Vérifiez les hypothèses de vos applications : certains pilotes ont des LUT intégrées pour faire l'intention perceptive qui attend des images d'entrée sauvegardées en sRGB ou Adobe RGB, donc l'exportation directe de votre éditeur brut vers l'espace d'impression peut entraîner des états indéfinis (veuillez harceler votre fournisseur d'imprimante/de pilote pour qu'il fournisse ce genre d'informations et lui dire que les boîtes noires ne sont pas cool tant qu'il ne les a pas obtenues).


Espace de couleurs REC2020

Discussion

Tout d'abord, merci pour ce poste ! C'est très utile et très nécessaire.

Deux choses immédiates :

  1. Faut-il expliquer ce qu'est un espace/représentation de couleur adverse et comment les rgb-primaires forment le triangle dans le fer à cheval de la CIE, mais que la couleur pourrait techniquement se situer en dehors de ce triangle (que cela ait un sens ou non pour l'affichage, ce serait de l'écrêtage ou du recalage de gamme) ? J'ai l'impression que vous avez laissé cela de côté par souci de clarté.
  2. Ceci
De plus, nous ne savons pas à quoi ressemble la lumière UV saturée dans la vie réelle, par rapport aux UV désaturés, mais nous savons à quoi elle ressemble en image : des taches bleues plates à l'émission bleue maximale. Ou pire : des gradients bleus qui se déplacent vers le cyan en passant par l'indigo.

Il faut sans doute en discuter davantage. Mais peut-être pas ici ! Parce qu'il

a) touche une région spectrale qui, pour de nombreux modèles de couleur, n'est pas encore transformée. Cela affecte probablement la “performance” ou la “qualité” de la compression des gamuts/du mappage. Et

b) il dépend essentiellement de ce que vous appelez l'UV (380 nm est bien sur le fer à cheval de la CIE, semble violet dans la vie réelle comme le suggère le fer à cheval et ne devrait certainement pas s'échapper d'une LED bleue. Actuellement, les LED bleues ont au pire une longueur d'onde centrale de 405 nm, et non moins, et sont généralement des sources lumineuses à bande étroite de 450 nm très très brillantes. 380-450nm est exactement la région spectrale qui est…uhm…intéressante dans de nombreux modèles de couleurs). Les sources UV en dessous de 380nm ont tendance à paraître très faibles et bleu pâle à l'oeil, presque blanches et vous ne devriez jamais regarder avec votre oeil dedans ! Je serais un peu surpris si des LEDs 380nm étaient vendues en ce moment…mais leur couleur devrait être représentée comme une teinte violette et non pas bleu nucléaire. Sur les capteurs ccd ou cmos, si le verre est transmissible pour ces longueurs d'onde UV inférieures à 380 nm (toutes les variantes de verre et tous les revêtements antireflets ne le sont pas), il peut avoir toutes sortes de couleurs de contamination, pas nécessairement seulement le bleu. Tout comme la contamination par l'infrarouge ne présente parfois “que” d'étranges changements de couleur.

Et puis, j'ai dû rire du jaune rat-piss-jaune ! :


Aurélien Pierre

Faut-il expliquer ce qu'est un espace/représentation de couleur adverse et comment les rgb-primaires forment le triangle dans le fer à cheval de la CIE, mais que la couleur pourrait techniquement se situer en dehors de ce triangle (que cela ait un sens ou non à des fins d'affichage, ce serait de l'écrêtage ou du recalage de gamme) ? J'ai l'impression que vous avez laissé cela de côté par souci de clarté.

Pour ce qui nous intéresse, la chrominance est la distance entre une couleur et la couleur achromatique (“blanc”) ayant la même luminance. La chroma maximale qu'un espace couleur peut supporter dépend de la teinte, de la luminance et des primaires de l'espace couleur. Apporter la représentation de l'adversaire est un peu hors sujet pour quelque chose que j'ai écrit surtout pour rassurer les utilisateurs plutôt que pour être un cours sur la gestion des couleurs pour les développeurs.

Cela dépend essentiellement de ce que vous appelez l'UV (380nm est bien sur le fer à cheval de la CIE, semble violet dans la vie réelle comme le suggère le fer à cheval et ne devrait certainement pas fuir d'une LED bleue. Actuellement, les LED bleues ont au pire une longueur d'onde centrale de 405 nm, et non moins, et sont généralement des sources lumineuses à bande étroite de 450 nm très très brillantes. 380-450nm est exactement la région spectrale qui est…uhm…intéressante dans de nombreux modèles de couleurs). Les sources UV en dessous de 380nm ont tendance à paraître très faibles et bleu pâle à l'oeil, presque blanches et vous ne devriez jamais regarder avec votre oeil dedans ! Je serais un peu surpris si des LEDs 380nm étaient vendues en ce moment…mais leur couleur devrait être représentée comme une teinte violette et non pas bleu nucléaire.

N'oubliez pas que le capteur RGB est décodé en XYZ en utilisant une matrice 3×3 de profil d'entrée qui est un ajustement au moindre carré d'échantillons à faible saturation. Comme vous le voyez sur le graphique ci-dessus pour le Nikon D810, les coefficients ajustés envoient les valeurs dans la zone UV, que le capteur les ait enregistrées ou non. De plus, le métamérisme du capteur ne correspond pas au métamérisme humain (puisque la division du spectre → tristimulus n'est pas une bijection dans les deux cas, donc 2 spectres peuvent produire le même tristimulus sur certains capteurs et pas sur d'autres). Donc, dans tous les cas, la merde va se produire dans la région de l'indigo bleu et, étant donné les circonstances, la plus grande priorité est d'obtenir des gradients lisses qui ne croisent pas plusieurs teintes plutôt que de viser une correspondance précise des couleurs.


Soupeux Tim

Mais la luminance du noir est également définie par le support (luminosité rémanente du panneau LED ou densité de l'encre pour le papier), et cette luminance n'est jamais nulle. Les valeurs RVB ne doivent donc pas non plus être inférieures à ce seuil de noir, qui est traité par la compensation du point noir dans certaines applications correctement gérées, mais qui est moins connu et mis en œuvre de manière aléatoire.
Assurez-vous que vos applications sont correctement gérées, c'est-à-dire qu'elles effectuent une cartographie de la gamme (colorimétrie perceptuelle ou relative) et une compensation du point noir lors de la conversion vers d'autres espaces (BTW, darktable ne fait pas de point noir).

Compte tenu de la première citation, quelle est la raison pour laquelle darktable n'applique pas la compensation du point noir ?

En outre, si la compression du gamut dans la calibration des couleurs est brillante pour les gradients lisses dans le profil maître/travail, est-il prévu d'ajouter une compression du gamut pour le profil de sortie ?

Réponse

Aurélien Pierre

Compte tenu de la première citation, quel est le raisonnement qui explique que darktable n'applique pas la compensation du point noir ?

Aucun raisonnement, c'est juste qu'elle n'est pas appliquée. Il y a un commentaire dans le code disant qu'il devrait peut-être être exposé à l'interface utilisateur. De plus, il est activé sans vous dire si vous activez l'épreuvage par ordinateur.

De plus, alors que la compression du gamut dans le calibrage des couleurs est brillante pour les gradients lisses dans le profil maître/travail, est-il prévu d'ajouter une compression du gamut pour le profil de sortie ?

Il y a une certaine “gaine de sécurité” de gamut dans les films, mais les exportations sont alors traitées par Little CMS2, qui fait la carte de perception du gamut. Donc, pas de compression manuelle.


Bonjour Aurélien,

Merci pour l'article détaillé. Comme c'est moi qui l'ai déclenché (du moins, j'en avais une partie et je me sens concerné par certaines des remarques), permettez-moi de dire que je n'ai jamais été un “maniaque de l'alerte gamut” - j'ai juste regardé votre vidéo sur le module d'étalonnage des couleurs, où vous en parlez, et je l'ai utilisé, et j'ai remarqué que les réglages n'étaient pas ceux par défaut ; c'est pourquoi j'ai demandé.

Je conteste l'argument “tout”, car les captures d'écran que j'ai publiées en utilisant vos espaces suggérés (PQ Rec2020, HGL Rec2020 et sRGB) sont radicalement différentes.

Ou peut-être que je ne comprends pas ce que vous entendez par “propagation”.

Et une note personnelle : j'admets que vous et moi ne jouons pas dans la même cour en ce qui concerne la science des couleurs et le traitement des images, mais comprenez que des phrases comme “si vous vous demandez dans quel espace montrer un histogramme, vous ne savez probablement pas comment le lire, alors ne vous donnez pas la peine” me semblent condescendantes et offensantes.

Kofa : Et une note personnelle : j'admets que vous et moi ne jouons pas dans la même cour lorsqu'il s'agit de science des couleurs et de traitement des images, mais comprenez bien que des phrases comme “si vous vous demandez dans quel espace montrer un histogramme, vous ne savez probablement pas comment le lire, alors ne vous donnez pas la peine” me semblent condescendantes et offensantes.

Eh bien, désolé, mais à un moment donné, il faut commencer par le début… À quoi sert un histogramme ? Qu'est-ce que vous essayez de voir là-dedans ? Une fois que vous avez répondu à ces questions, le choix de l'espace est pratiquement fait. Le but n'est pas d'être condescendant, mais simplement de rappeler aux utilisateurs de ne pas tenir compte des portées qu'ils ne comprennent pas parce qu'ils n'en ont pas besoin. Retouchez l'image, et peut-être que si vous voyez quelque chose qui ne va pas dans l'image, alors les oscilloscopes peuvent vous aider à résoudre le problème et à repérer l'origine de la mauvaise conduite. Mais tant que l'image est bonne, n'inventez pas de problèmes.

La seule utilité d'un histogramme est de voir comment l'image s'inscrit dans la gamme disponible, entre le noir moyen et le blanc moyen. Vous ne vous souciez donc que de l'espace disponible à gauche et à droite, s'il y a de la place du tout, ou cherchez un pic à des intensités min/max qui suggérerait un écrêtage.

N'importe quel espace fera l'affaire. Maintenant, le sRGB, à cause du gamma/puissance 2.4 mettra le gris moyen au milieu de l'histogramme, si c'est ce que vous voulez, mais n'aura pas un étalement uniforme car il a en fait 2 gammas (un pour les tons moyens + les hautes lumières, un pour les tons foncés). La courbe PQ de Rec 2020 PQ dilate beaucoup les ombres et comprime les hautes lumières, donc elle vous donne une meilleure lisibilité près du noir et moins bien près des blancs. Mais c'est toujours la même portée, mais avec un zoom différent. La courbe HLG est plus équilibrée.

Quel que soit l'espace que vous choisissez, cela ne change pas la signification de la portée de l'histogramme : vous avez une certaine marge entre le blanc et le noir, vous voulez voir comment les images s'inscrivent dans cette marge, point. La forme de l'histogramme changera avec l'OETF de l'espace que vous choisissez, mais la forme n'a aucune signification, donc cela n'a pas d'importance.


wiegemalt

Les valeurs RGB ne devraient donc pas non plus être inférieures à ce seuil de noir, qui est traité par la compensation du point noir dans certaines applications correctement gérées, mais qui est moins connu et mis en œuvre de manière aléatoire.

Salut @aurelienpierre, merci pour l'explication, j'apprécie !

Quand je trouve des valeurs RVB inférieures à zéro, cela signifie-t-il que la conversion initiale de l'espace caméra à l'espace de travail a échoué ?

Comment gérer des valeurs RVB négatives dans une table noire ?

Réponse

Le point noir est lu à partir des pixels sombres, une zone spéciale du capteur qui ne capte pas la lumière, et extrait par Rawspeed. Vous le trouverez dans le module de point noir/blanc brut. Parfois, il est trop agressif.

Vous pouvez corriger cela soit dans le module de point noir/blanc brut, soit dans le module d'exposition, avec le niveau de noir. En gros, vous ajoutez une constante jusqu'à ce que toute votre gamme devienne positive.

Cependant, le seuil de noir moyen dont je parle n'est pas de zéro, mais beaucoup plus élevé. Donc, même sans RVB négatif dans le pipeline, si vous n'avez pas de compensation du point noir, vous aurez toujours un écrêtage du noir sur l'impression.


Elle est longue, désolé.

Ce n'est pas ce que vous avez dit, c'est la façon dont vous l'avez dit. Mais je comprends que vous et les autres personnes bien informées sur le forum recevez beaucoup de questions ; certaines répétées, et sûrement la plupart bien en dessous du niveau qui vous intéresse. De plus, il m'arrive de ne pas être patient lorsque les gens me posent des questions ou de faire des erreurs stupides, alors je peux aussi comprendre votre version de la situation.

Quoi qu'il en soit, je vous suis reconnaissant pour votre travail : tant pour le développement que pour l'enseignement (j'ai également enseigné à des ingénieurs en logiciel, et je sais combien de temps et d'énergie sont consacrés aux démonstrations les plus simples, sans parler des didacticiels vidéo). Je pense que je comprends à quoi sert un histogramme ; mais, comme d'autres, pendant longtemps, j'ai simplement édité des JPG dans Gimp et des outils similaires, où je n'avais jamais à penser aux espaces de couleur. Même dans RawTherapee (qui a été mon premier développeur brut, à l'époque de Gábor Horváth, qui a lancé le projet), on ne pouvait pas (à l'époque, on n'en est pas sûr aujourd'hui) changer l'espace de couleur pour des histogrammes. En fait, c'est une caractéristique relativement nouvelle dans darktable, aussi.

C'est précisément parce que je ne suis pas un “maniaque du gamut” (et que je n'utilise que sRGB et l'écran pour la sortie, jamais pour l'impression), que je n'ai jamais vraiment vérifié les options d'épreuvage écran et de vérification de la gamme (mon attitude générale étant “utilisez les valeurs par défaut définies par les experts, à moins de savoir ce qu'ils font et de savoir pourquoi et comment les modifier”). Puis est venue votre vidéo sur le nouveau module d'étalonnage des couleurs (“shiny new stuff” - et oui, je l'ai utilisé sur certaines guirlandes de Noël, donc je l'apprécie beaucoup !) Lorsque vous avez combattu le tapis rouge (https://youtu.be/U4CEN0JPcoM?t=2081 1), je n'ai pas vu d'artefacts à la surface du tapis (c'est peut-être moi, peut-être Youtube, peut-être mon moniteur), mais vous avez activé la vérification de la gamme et changé le profil soft-proof du sRGB par défaut (vous avez expliqué cela de https://youtu.be/U4CEN0JPcoM?t=2135 jusqu'à environ 36:50). J'ai revu cela et relu le test de calibrage des couleurs et quelques réflexions (“les profils de couleur et l'adaptation chromatique peuvent pousser les couleurs hors du spectre visible”), et le test de calibrage des couleurs et quelques réflexions (“nous ne traitons la cartographie de la gamme dans le calibrage des couleurs que pour nettoyer après l'adaptation chromatique car nous savons qu'elle poussera les couleurs hors de la gamme visible”) où vous répondez parfaitement à la question. Cette partie est donc maintenant claire.

Je suis toujours perplexe quant à la validité (ou peut-être l'applicabilité/pertinence pour mon cas d'utilisation) de l'histogramme PQ Rec2020, même avec le commentaire “La courbe PQ de PQ Rec 2020 dilate beaucoup les ombres et comprime les hautes lumières, donc elle vous donne une meilleure lisibilité près du noir”, car il semble indiquer que la photo n'utilise pas les tons les plus sombres, alors que l'histogramme HLG indique en fait un écrêtage dans les tons sombres (il y a un pic mineur à l'extrémité gauche). Les deux espaces ont-ils des points noirs différents, ou ai-je mal compris quelque chose ? (Je vais continuer à utiliser le sRGB par défaut, je pense).

Merci, Kofa

glossaire/gamut/espace_couleurs.txt · Dernière modification: 2022/03/20 18:43 de virgilek