Il adaptera la valeur de luminance en utilisant les métadonnées et par rapport à ses caractéristiques propres. Cela peut affecter la couleur et doit être fait proprement par le constructeur. Le plus simple pour eux étant le clipping des valeurs de luminances (saturation de la valeur à la luminance c...
Mais la courbe de "luminosité" n'est-elle pas non linéaire en HDR, ce qui provoquerait une diminution de la luminosité globale des images ? Non, l'afficheur doit reproduire la luminance correspondante à ce qui est codé comme valeur une fois l'EOTF appliquée et en HDR 10 elle est exactemen...
Salut Ragnarsson, Je copié également ton message dans "HDR (High Dynamic Range), HFR (High Frame Rate) et espaces colorimétriques étendus (DCI-P3 et Rec2020)" . Merci de poursuivre la discussion specifique au HDR sur le sujet indiqué ci dessus. OK, tu as raison il ...
Pour le HDR il manque dans ce projo le support du format HLG (Hybrid Log gamma, format BBC/NHK, inclus dans l'ITU-R BT.2100) qui devrait (voir plus bas, nous connaitrons bientôt les choix du standard DVB) permettre de regarder des contenus live de la TV. Des mises à jours firmware devraient apparait...
Merci Emmanuel pour ce lien. J'ai regardé la vidéo en entier (Elles font une heure de durée chaque il faut un peu de temps), plutôt didactique et je n'ai pas relevé d'erreurs. Le seul point à souligner est que la technologie de conversion SDR + metadata vers HDR, proposée par Technicolor ne fait pas...
La vidéo composante se limite à 1080i60, ce qui ne permettra pas de diffuser une source PCHC généralement plutôt de base en 1080p60. Si c'est pour avoir comme source un lecteur BluRay, bien vérifier le support du HDCP par le convertisseur. Sinon trouver un lecteur Bluray d'occasion car ils avaient a...
On pourrait filmer des mires, afin de connaître a priori la "vérité" qui est capturée, non ? Je suis étonné que ça n'apparaisse pas + ds ce type de publies. En robotique de manipulation basée sur la vision, on utilise en général des mires (qui peuvent être certifiées métrologiquement) pou...
L'utilisation d'un Kernel ne diffère pas des filtres, qui peuvent eux aussi se calculer à n'importe quelle position, tout comme un bicubique ou lancsoz.... Le filtre a aussi un Kernel calculable de façon analogique. Lors de l'opération d'upscaling on peu en profiter pour augmenter la quantification ...
La limitation de la méthode par déconvolution réside dans l'exactitude du modèle de PSF utilisé. Il faudrait pouvoir disposer du modèle combinant l'ensemble de la chaine de capture et traitement depuis la caméra de cinéma (depuis les caractéristiques de l'optique) jusqu'à la post-prod pour essayer d...
L'upscaling standard par filtrage ne créé pas d'information supplémentaire par contre quand on upscale il se trouve de l'information entre 0,25 et 0,5. C'est la raison pour laquelle il faut filtrer, ce qui floute l'image dans sa bande d'origine en dessous de 0,25. Et en plus du flou si on ne filtre ...
Cela dépend des filtres d'upscaling et de downscaling utilisés. En upscaling avec un filtre qui ne filtre pas complètement ce qu'il y a au dessus de la fréquence max en 2K, il va y avoir de l'information repliée spectralement, atténuée mais présente, en plus de générer un flou dans la bande haute d...
Le motion jpeg2000 est assez semblable au mjpeg qui l'a précédé mais avec un codec intraframe bcp plus efficace (ondelettes à la place de DCT). les limitations connues du jpeg sont contournées, ce qui permet d'avoir bien moins d'artefact de compression (ringing sur les HF, blocks sur les BF, ...). ...
Désolé thxrd la premiere version de JPEG2000 date de mars 2001. H.264 a été finalisé en avril 2003. La DCI a adopté JPEG2000 en juin 2004. Les travaux de standardisation étaient terminés pour les deux codec. Le chip adv202 de Analog Devices était disponible depuis peu (2003 il me semble) et les cara...