hichlibedis
|
hichanbis
04 Jul 2017
Ah j'ignorais |
l'haleine
|
Fetide
04 Jul 2017
➔ thefakeproutofprogress - 03 Jul 2017 Regarde la doc aussi de ta TV, il peut arriver qu'un port HDMI puisse recevoir un signal avec HDR mais pas les autres. |
J'ai pris cher man !
|
sherman
04 Jul 2017
➔ hichanbis - 04 Jul 2017 ➔ Fetide - 04 Jul 2017 |
Le niveau en dessus Jojo?
|
thefakeproutofprogress
04 Jul 2017
J'ai en effet acheté ma télé il y a un an environ Merci à tous, je vais essayer de retrouver la doc, et peut-être changer le câble HDMI si c'est ça qui bloque. |
|
Squarealex
04 Jul 2017
C'est la première fois que j'entends cette histoire de câble HDMI 2.0. EDIT : Tin, mais 40€ le câble quoi... vous êtes sûr que c'est pas une connerie de marketeux ? Edit par Squarealex (04 Jul 2017) |
Le niveau en dessus Jojo?
|
thefakeproutofprogress
04 Jul 2017
Il l'est, mais c'est possible qu'un câble 1.1 voire 1.3 (je sais plus à quelle version on est, pas sûr que ce soit 2.0) ne gère pas le HDR. Enfin je ne fais que supposer. Le port en lui-même n'a en effet pas changé, il conserve la forme et peut accueillir tout type de câble HDMI, mais peut-être que les plus anciens ne supportent pas certaines normes modernes ? |
l'haleine
|
Fetide
04 Jul 2017
Préparez vous, fin d'année prochaine premières TV HDMI 2.1 |
|
Squarealex
04 Jul 2017
➔ thefakeproutofprogress - 04 Jul 2017 Ba en fait, le câble est le même, seul la norme d'entrée/sortie change. Je sais juste qu'il y a deux norme HDMI 2.0, la plus récente HDMI 2.0a et b gère le HDR. EDIT : Je m'avance peu, mais d'après le Wiki US, il y a bien plusieurs câble... C'est juste tellement mal branlé comme système, aucun repérage (couleur, numéro, RIEN). Pour les câbles 4k 60Hz + HDR, c'est des câbles "Premium"
C'est d'ailleurs lui qui devrait s'appeler HDMI 2.0. Vu les nouveautés (10k à 120Hz max, HDR Dynamic (frame par frame) FreeSync maison pour les jeux, meilleur traitement pour DTS:X/ Dolby Atomos) Mais c'est tellement débile que là aussi ils t'annoncent un quatrième type de câble HDMI... Edit par Squarealex (04 Jul 2017) |
Invité(e)
|
Invite
04 Jul 2017
une image 4k, en 60hz et du hdr necessite bcp de bande passante L usb a connu la meme evo T as le displayport qui commence à arriver en standard qui offre encore plus de bande passante |
La Triforce de la sudation
|
TS_JBG
04 Jul 2017
➔ Invite - 04 Jul 2017 |
Invité(e)
|
Invite
04 Jul 2017
Le petit avantage de ces evolutions qd on s en branle du hdr par exemple moi je suis pas hdr man et je vais justement partir sur une 4k "low cost" pour deja voir la diff par rapport a du 1080p aa8x sur les jeux pc Jai du mal à imaginer visuellement la diff |
|
Squarealex
04 Jul 2017
Normalement si, tout comme le DVI. Juste que sur PC, l'audio passe toujours sur la carte mère en sortie analogique. Peach a écrit :
C'est plus dans la vidéo que le HDR a son utilité. Pour les jeux, il faudra attendre de vrai jeu qui ont été conçue en Rec2020 et pas en sRGB, mais tant que l'industrie PC ne bouge pas, ça viendra très très lentement, les consoles sont déja paré... reste juste les OS, Nvidia, AMD fabriquant d'écran et cie.... Edit par Squarealex (04 Jul 2017) |
Invité(e)
|
Invite
04 Jul 2017
rappelons aussi que le cout du usb 2.0a est reel a tel point que sony en a pas foutu dabs le boitier du psvr donc si t as une ps4 pro et un psvr sur une tele 4k hdr à 2000 balles Ba t as pas de hdr Faut debrancher le boitier et pluger ditect la ps4 sur la tv |
|
Squarealex
04 Jul 2017
Ça passe le HDR sur PSVR ? |
Invité(e)
|
Invite
04 Jul 2017
C est la 4k versus du 1080p 16x que je visualise mal Je dis ça mais deja à l'epoque en downsamplant du 1440p sur un ecrzn 1080 ca m avait mis une claque sur gta4, la surplus de densité de pixels tu le sentais vraiment Faut vraiment que j aille me cherche une 4k Le hdr j'ai jms été fan, c est un effet qui nuit à la visibilité, si je veux me cramer les yeux je regarde le soleil Edit par Peach (04 Jul 2017) |
l'haleine
|
Fetide
04 Jul 2017
Squarealex a écrit :
Je comprend pas trop, j'ai une CG sur mon pc avec sortie HDMI et le son passe bien par l'HDMI. |
|
Squarealex
04 Jul 2017
Ça faut dire aux constructeurs de CG. Edit par Squarealex (04 Jul 2017) |
étron
|
turon
04 Jul 2017
Peach a écrit :
C'est pas la 1ère fois que j'entends ça, et je ne comprends pas la cohérence du truc. ça défie toute logique. |
dem (en minuscules)
|
Dem
04 Jul 2017
C'est le principe de l'antialiasing. |
étron
|
turon
04 Jul 2017
Je veux bien d'avantages d'explications. Déjà, si je me base sur ta phrase, on est d'accord que ça ne concerne QUE le jeux vidéo? Pour de la photo ou de la vidéo : 1080p = 4k sur un écran 1080p? |
|
Squarealex
04 Jul 2017
Nope les film et photo aussi. |
étron
|
turon
04 Jul 2017
Alors là je pige pas du tout... Que sur du jeu, ça fasse office de AA amélioré OK. Et encore, y'a des méthodes de AA tellement puissantes que je pense que c'est sup à de la 4K sans AA, mais si en plus ça marche aussi sur de la photo je suis perdu. . Je cherche sur l'internet des explication ou des exemples qui soient autres choses que du marketing pipo et je trouve pas. Si vous pouvez m'envoyer des liens ou exemples. Ça m'intéresse beaucoup. Je suis pas sûr que 1 pixel noir en 1080p ce soit moins bien que 4 pixels en 4k dont 2 noirs et 2 blancs dowmnsamplé en 1pixel gris en 1080p. Je demande à voir.
Edit par turon (04 Jul 2017) |
La Triforce de la sudation
|
TS_JBG
04 Jul 2017
C'est exactement le principe de l'AA pourtant, t'as pas plus de pixels affichés par ton image mais tout apparait plus "lié" |
étron
|
turon
04 Jul 2017
Ok, je suis déjà plus convaincu; même avec un exemple aussi simpliste sous les yeux. C'est plus doux au regard, mais le côté flou me dérange un peu. |
|
Squarealex
04 Jul 2017
Avec le DSR de Nvidia tu peux augmenter la netteté en plein downsample. Genre, cette vidéo : Juste en 720p, tu sent déjà que c'est bourré de détail, pas besoin de coché la 8k pour voir la différence. |
Invité(e)
|
Invite
04 Jul 2017
|
étron
|
turon
04 Jul 2017
je dormirais moins bête ce soir. Thx |