annulla
Visualizzazione dei risultati per 
Cerca invece 
Intendevi dire: 

Iscriviti adesso. Entra a far parte della nostra community!

TV 4K dichiara risoluzione nativa 1080p su HDMI1

profile.country.IT.title
colemarc
Membro

TV 4K dichiara risoluzione nativa 1080p su HDMI1

KD-43X8309C

 

Uso il mio TV 4K come monitor per il PC collegando quest'ultimo all'ingresso HDMI1 tramite un cavo HDMI che Amazon dichiara con "specifiche HDMI 1.4" (tuttavia funziona benissimo anche a 4K 60 Hz, che in teoria richiede HDMI 2.0).

L'ingresso HDMI1 è impostato in modo "avanzato" e "gioco" sul televisore.

 

Tutto bene, tranne che il control panel di Nvidia sul PC, pur consentendo di impostare "3840x2160 60 Hz RGB 8 bit", dice che il display ha una risoluzione nativa 1920x1080.

Fin'ora questo non mi comportava alcun problema, poiché è sufficiente impostare manualmente 3840x2160 sul control panel.

 

Tuttavia di recente ho notato che tramite il control panel Nvidia si può attivare una funzione detta "rescaling GPU", la quale farebbe in modo di poter visualizzare un immagine 1920x1080 (per esempio un gioco in fullscreen) mandandola all'uscita video con un segnale 3840x2160. In sostanza in questo modo è la scheda video (GPU) che fa upscaling dell'immagine anziché lasciare che lo faccia il display (in questo caso il TV).

Peccato che non funziona: se lancio un gioco a 1920x1080 (Fallout 4) vedo comunque comparire sul televisore per qualche secondo il banner 1920x1080, quando invece dovrebbe rimanere a 3840x2160 come col desktop di Windows.

Se invece lancio il gioco a 2560x1440 allora non compare il banner, segno che il TV continua a ricevere un segnale 3840x2160 (la scheda video del PC sta facendo upscaling).

 

Secondo un ragionamento abbastanza logico, sembra che il driver Nvidia, sapendo che il display è nativamente 1920x1080, rinunci a fare l'upscaling se l'immagine è anch'essa 1920x1080.

 

Con qualche ricerca sul web ho trovato qualcuno che dice che i televisori Sony 4K (almeno alcuni) riportano una risoluzione nativa 1920x1080 sul collegamento HDMI, dove per esempio i Philips riportano giustamente una risoluzione nativa 3840x2160.

 

Si tratta di una svista dei programmatori del firmware Sony o di una scelta voluta?

Comunque non sembra corretto, dato che il pannello del TV è ovviamente 3840x2160.

 

P.S. tutta questa storia perché quando uso ALT-TAB per passare dal gioco al desktop e poi di nuovo ALT-TAB per tornare al gioco, quest'ultimo risulta sballato (i menù entrano nel quadro solo per 1/4), cosa che non succede quando l'upscaling GPU funziona. Inoltre l'upscaling del TV quando riceve un segnale 1920x1080 non è di buona qualità (perlomeno non va bene per la grafica del PC) poiché il desktop Windows non è nitido e si nota una sorta di aberrazione cromatica. Suppongo che l'upscaling della scheda video sarebbe in grado di fare meglio, se funzionasse.

 

 

12 RISPOSTE 12
profile.country.IT.title
rooobb
Expert

Ma se intanto cominciassi ad usare un cavo hdmi adatto? Hdmi 1.4 supporta già il 4k ma a frequenze e banda inferiore...   https://it.m.wikipedia.org/wiki/High-Definition_Multimedia_Interface
profile.country.IT.title
Michelasso
Collaboratore


colemarc ha scritto:

Se invece lancio il gioco a 2560x1440 allora non compare il banner, segno che il TV continua a ricevere un segnale 3840x2160 (la scheda video del PC sta facendo upscaling).

 

Secondo un ragionamento abbastanza logico, sembra che il driver Nvidia, sapendo che il display è nativamente 1920x1080, rinunci a fare l'upscaling se l'immagine è anch'essa 1920x1080.


Scusa, ma se funziona a 1440p (e quindi con un segnale a 2160p - cosa dice il banner se premi "i+" sul telecomando?), non vedo perché alla TV dovrebbe dare fastidio un segnale 2160p "nativo".

 

A me pare di capire che sia il driver Nvidia a rifiutarsi di fare l'upscaling da 1080p a 2160p. Che non è molto logico visto che da 1440p a 2160p sembra funzionare. Probabilmente c'è un modo per forzare l'upscaling. È il driver a decidere la risoluzione. Poi se la TV non la supporta o il cavo non è adeguato semplicemente o non vedi niente o vedi immagini di rumore.

profile.country.IT.title
colemarc
Membro

@rooobb

Ho già ordinato il cavo HDMI 2.0 e mi arriverà martedì 31/10.

Tuttavia non credo che il "problema" si risolverà poichè per quanto ne so i cavi HDMI 1.4 e 2.0 non differiscono nella struttura ma solamente per la qualità della costruzione e dei materiali impiegati.  Sarebbe a dire che per trasmettere segnali con banda più larga (spettro di frequenze più ampio verso l'alto) è necessario migliorare l'omogeneità del cavo (impedenza uniforme) e la qualità del dielettrico (ridotto assorbimento alle alte frequenze).

Escludo che il software del PC o del TV possano rilevare la differente qualità del cavo e quindi segnalare per questo una risoluzione nativa ridotta a 1080p.

 

profile.country.IT.title
colemarc
Membro

@Michelasso

 


Michelasso ha scritto:

Scusa, ma se funziona a 1440p (e quindi con un segnale a 2160p - cosa dice il banner se premi "i+" sul telecomando?), non vedo perché alla TV dovrebbe dare fastidio un segnale 2160p "nativo".

 

A me pare di capire che sia il driver Nvidia a rifiutarsi di fare l'upscaling da 1080p a 2160p. Che non è molto logico visto che da 1440p a 2160p sembra funzionare. Probabilmente c'è un modo per forzare l'upscaling. È il driver a decidere la risoluzione. Poi se la TV non la supporta o il cavo non è adeguato semplicemente o non vedi niente o vedi immagini di rumore.



Non ho capito la prima domanda... alla TV non dà fastidio, è il driver della scheda video che non collabora pienamente, forse a causa del fatto che pensa che la TV abbia un pannello LCD da 1080 righe.

Il driver della scheda video è in grado di rilevare la risoluzione nativa del device che sta all'altro capo del cavo, in quanto il protocollo HDMI prevede una fase iniziale di "handshake" nella quale i due device si scambiano le relative capacità e si accordano sui formati compatibili per entrambi.

Quindi suppongo che se sul PC vedo la "risoluzione nativa" 1080p allora è il TV che manda questa informazione.

Per essere più preciso, a giudicare da quanto si vede nella finestra Nvidia, sembra che il TV dica al PC: "Sono un display con 1920x1080 pixel ma accetto anche segnali con risoluzione fino a 3840x2160".

Il mio sospetto è che gli sviluppatori Sony si siano basati sul firmware di un TV full HD dimenticandosi di aggiornare la risoluzione nativa dichiarata in fase di handshake.

profile.country.IT.title
colemarc
Membro

Ieri ho fatto una richiesta al Customer Support tramite il sito Sony e già in serata un operatore con accento spiccatamente napoletano mi ha ricontattato telefonicamente dalla sede di Berlino.

 

Da lodare la velocità con la quale si sono messi in contatto e anche l'atteggiamento molto volonteroso dell'operatore. Peccato che costui capisse poco di quanto avevo scritto nel ticket... quando ha cominciato a sproloquiare di HDR dicendo persino che il mio TV non supporta il 4K ho rinunciato alla discussione.

Non pretendo che il primo dipendente (se tale è) che risponde sia esperto di tecnica digitale, ma almeno vorrei che si renda conto che l'argomento supera le sue competenze e che mi faccia parlare con un tecnico qualificato.

 

profile.country.IT.title
Michelasso
Collaboratore


colemarc ha scritto:

 

Per essere più preciso, a giudicare da quanto si vede nella finestra Nvidia, sembra che il TV dica al PC: "Sono un display con 1920x1080 pixel ma accetto anche segnali con risoluzione fino a 3840x2160".


Che era quello che intendevo io. Quindi, se possibile, bisognerebbe obbligare il driver a fare l'upscale da 1080p a 2160p. Solo che non conosco i driver Nvidia, uso un Mac quindi non saprei esserti molto utile su questo punto (e immagino che tu abbia già aggiornato i driver all'ultima versione).

 

Invece, per quanto riguarda l'upscale del TV, fai attenzione che (almeno nel mio 49XD8099 con Android 7.0) ci sono dei parametri delle Opzioni Immagine che modificano l'upscaling. Più precisamente dovrebbero essere "Nitidezza" e, soprattutto, "Reality Creation". Con la mia PS4, ma solo in modalità "Grafica", agendo su quelli l'immagine cambia come dal giorno alla notte. Nel senso che spariscono i pixel a 1080p e l'immagine ottiene una sorta di anti-aliasing (l'upscaling). In modalità "Gioco" non sono riuscito a ottenere differenze così drastiche (cioè, non riesco a ottenere l'immagine con i pixel a 1080p. Solo l'alta qualità).

 

Comunque, come confronto, ho l'AVR Yamaha che fa l'upscaling in uscita a 2160p. E facendo lo switch hell'AVR "Uscita a 2160p/Uscita a 1080p" (quindi in questo ultimo caso con la TV che fa l'upscaling), sempre usando la PS4, non noto particolari differenze. Ma sono televisori diversi, quindi ovviamente quanto dico potrebbe non valere nel tuo caso. Però smanettando su quei valori nella TV magari ottieni una buona immagine, bypassando l'upscaling della scheda video (quindi mantendendo l'uscita a 1080p nella scheda).

profile.country.IT.title
colemarc
Membro

Il cavo HDMI 2.0 non cambia nulla.

Ora sto scaricando l'aggiornamento firmware TV uscito il 25 ottobre.

 

profile.country.IT.title
colemarc
Membro

Nemmeno l'aggiornamento firmware del TV ha cambiato qualcosa.

Windows 10 con driver Nvidia dice sempre che la risoluzione nativa del TV è 1920x1080.

 

Ora vado a stressare il supporto Nvidia ...

 

profile.country.IT.title
Michelasso
Collaboratore

@colemarc Una cosa che potresti fare è provare con un altro computer. Un MacBook o un laptop Windows abbastanza recente (magari di qualche amico se non ne hai a casa). I Mac con macOS Sierra o High Sierra riconoscono perfettamente la mia TV (con tanto di nome e ovviamente risoluzione a 2160p). Se da un altro computer funziona allora sicuramente sono i driver Nvidia.