Apprezzo davvero tanto l'approccio "freddo" ed oggettivo con cui tratti gli argomenti, portando per ciascuno tesi ben discusse ed ampie. Posso solo immaginare il grande lavoro dietro ogni video... Continua così!!! 😉
Ma oggettivo de che! Video senza senso! Parlare del DLSS senza manco citare il ray tracing. Serve a quello il DLSS, in combo con RTX senno logico che è quasi inutile.
@@FixLuke Visto che nel video sminuisce il DLSS facendo notare perdite microscopiche di dettaglio con lo zoom ti rispondo dicendo l'ovvio, ovvero che è il ray tracing che ti alza la resa visiva e non è una perdita minima di dettagli sullo sfondo (sottolineo insignificanti) che ti fa dire ohhh adesso cyberpunk me lo gioco in 4k nativo senza ray tracing, perchè è 100 volte più bello da vedere con RTX attivo.
il nostro marco non se la tira come altri. devo dargli atto che sia stato se non il primo ,comunque uno dei primi ad apprezzare le rx 6600 e ad insistere con la gente che era un affare acquistarle. acquistata rtx 2070 super pagata 500 euro all'epoca per poi scoprire che l'rtx è solo pubblicità.soldi buttati.
@@massimocivita7288 ti rendi che quanto dici non ha un gran senso cioè per compensare un algoritmo di calcolo illuminazione che pesa come un macigno e non fa manco tutti sti miracoli faccio un sistema che illude la gente che la propria gpu fa i miracoli in 4k la realtà è che quello che fa il dlss lo puoi fare anche tu abbassando la risoluzione per sommi capi... poi tutti stanno andando in quella direzione perchè amd con fsr e intel con xess ma è un prendersi in gir per dire io con una 2060 (mettici qualsiasi altra scheda se vuoi) gioco in 4k 60-100fps con rt on a cyberpunk...
Ciao Marco, video ben analizzato in modo chiaro e con immagini esplicative. Bello anche il tuo esempio da operatore di diagnostica per immagini, dove una sfocatura o meno fa la differenza per la vita di una persona! Certo è che, come detto, mentre giochi, nella confusione, i dettagli non ti puoi soffermare a vederli (o giochi o guardi) e quindi nell'insieme il risultato è gradevole, sempre con le dovute riduzioni da parte del software.
Finalmente un video che mostra in modo chiaro e semplice cosa è a tutti gli effetti il dlss. Dsll/Fsr etc sono strumenti software per creare l'illusione che le schede siano più potenti di quanto in realtà non siano, io Uso Fsr in qualità Ultra in Horizon 5 solo per un motivo: perché ho visto che la mia 6800 consuma la metà e Horizon non è un gioco che ti cambia la vita in 4 k nativo
IL video chiaro di cosa è a tutti gli effetti il DLSS non è sicuramente questo XD Vatti a vedere quello di Alex Battaglia di DF che è davvero un altra pasta,su dai siamo seri per una volta. Ne ha fatto pure uno per il dlss3 della serie 4000 ( a prescindere dalla bontà o meno di dlss all'immagine sia chiaro ) Chi lo usa da tempo su monitor 4k sa benissimo cosa fa e quali sono i piccoli difetti a fronte degli enormi guadagni prestazionali. Chi nn ce l'ha e nn lo usa o magari gioca su monitor 1080p e si aspetta mirabolanti risultati eh beh... parla e basta.
@@Sanosuke-Sagara ovviamente un video chiaro per un approccio adatto alla maggioranza degli utenti TH-cam i quali si confrontano con dei video che già perdonò di qualità a causa della compressione che ne viene fatta, certamente ci sono video ( come quello che tu citi) con un taglio più professionale e approfondito, che più tardi mi accingerò a vedere
Tu e saddy siete gli unici a portare contenuti fuori dal coro. Questo video in cui parli di immagini rumorose per quando riguarda la diagnostica tipo RMN è top. Con le basse dosi ..... molti ospedali non hanno neanche la possibilità di usare basse dosi. Ne so qualcosa!!! Per me siete i migliori!!
Ciao Marco sono un tuo collega Tsrm e mi e piaciuta molto l' analogia con le immagini in diagnostica. E per di più gli algoritmi su sistemi Tac costano 20000 €. Un mio vecchio primario guardando queste immagini si compiaceva che riusciva a ridurre la dose del 60-70% ottenendo la stessa qualità delle immagini, fino a quando su una piccola emoraggia subarcacnoidea falsava talmente tanto l' immagine che non era possibile fare diagnosi. Morale della favola nel complesso le immagini trattate con algoritmi macroscopicamente vanno anche bene, ma quando vai nel dettaglio trovi le magagne. Ciao Marco
Basta usarle quando non cerchi roba critica, come appunto un'emorragia nel cervello :p C'è cmq da dire che gli artefatti mica li introducono solo gli algoritmi di processazione, c'è una marea di fonti di rumore in un esame radiologico :p
@@donizettilorenzo si e giusto quello che dici però non mi puoi "vendere" un algoritmo che ti migliora l immagine come un miglioramento effettivo dell' immagine. La stessa cosa nei gaming. E marketing ingannevole, stai pagando 20000 € in radiologia un programma che ti prende per i fondelli. La stessa cosa la fa Nvidia vendendoti la 4070 ti a 1000€ con dlss 3 dicendoti che e 3 volte più potente di una 3090ti in ray tracing.
@@leuciosavoia3971 C?è da considerare che l'immagine è "migliorata" RISPETTO al temporal antialiasing "ignorantone" che blurra a manetta :p Una delle cose che è difficile cmq far passare è che si tratta di una soluzione TEMPORALE e non solo spaziale, ed esiste apposta per eliminare jittering e shimmering legato alla SUCCESSIONE dei frame, non tanto l'aliasing del SINGOLO frame. Per il singolo frame la soluzione migliore resta l'MSAA (ma non è sempre possibile implementarlo, tipo nel deferred rendering sarebbe pesantissimo) oppure il classico downsampling da risoluzione ancora più elevata......
@@leuciosavoia3971 il fatto è che bisogna trovare un trade off. Non si possono bombardare i pazienti con dosi astronomiche, ed inoltre se il sensore non ha una elevata risoluzione spaziale i dettagli neanche con dosi astronomiche li becchi, dato che la dose aumenta il contrasto dell'immagine. Quindi ai limiti tecnologici, quali l'impossibilità di ridurre le celle dei sensori e l'impossibilità di aumentare la dose, necessariamente devono essere introdotti stratagemmi software. Come sono introdotti proprio nella ricostruzione originale dell'immagine. In tac per esempio, senza la parte software di ricostruzione immagine, quello che arriverebbe ai sensori sarebbe illeggibile così com'è. Per quanto riguarda le azioni di post processing dell'immagine, lì il software dovrebbe presentare sia l'immagine originale sia quella processata e poi sta alla sensibilità del radiologo/tecnico di radiologia utilizzare il software come adeguato strumento di supporto.
Vedo che qui è nata una discussione molto interessante! Ovviamente non confondiamo le due cose, il DLSS nel gaming ha poco a che fare con i limiti delle metodiche che usiamo noi a lavoro. Il mio era solo un esempio per spiegare un concetto fondamentale quando si parla di immagini, in qualsiasi campo di applicazione. Il concetto è semplice: se l'informazione non c'è perché l'immagine è quella...qualsiasi stratagemma per migliorare l'immagine è fine a se stesso. Nel caso del DLSS a mio avviso è palese: le immagini vengono migliorate a partire da risoluzioni inferiori e questo crea delle "simil immagini" che hanno una risoluzione di contrasto tale da emulare un 4k...ma 4k non sono. Quindi sebbene è uno stumento che può tornare utile...chiunque mi venga a dire che il risultato di un upscaling (sia pur con super sampling) sia "migliore" del 4k nativo, commette un errore concettuale di base.
Le differenze ci sono, come deve essere. Se acquisisci una immagine a 1080 e poi la ingrandisci, anche se utilizzi tecniche di interpolazione per aumentare artificialmente il numero di pixel, inevitabilmente l'immagine non potrà essere come una 4k nativa e sarà più sfocata. È ammirevole come con dlss quality le differenze con nativo siano davvero minime, mentre più marcate con dlss performance. Il lavoro fatto da nvidia è gigante, ed in ambito gaming in cui le scene sono molto movimentate è difficile accorgersi delle differenze se non ci si sofferma. Da dottorando in intelligenza artificiale applicate alle immagini mediche non posso che apprezzare il lavoro di nvidia, e capisco bene che la perdità di dettagli nell'effettuare una diagnosi sia pericolosa in ambito clinico.
Facciamo quasi lo stesso lavoro, nel senso che io faccio istallazioni manutezione ect ect di apparecchiature ray x ospedaliera , tu sei un tecnico :) :) ecco perche sei cosi intelligente , complimeti sei uno dei pochi a dire la verita' ed a dare consigli utili ....io oggi mi chiedo tra due anni continuando su questa strada quanti ancora avranno voglia di farsi un pc da game , la vedo dura ....sei un grande
ciao,mio ragionamento,se' abbiamo un processore "blasonato" sul tv,non possiamo demandare a lui l'upscaling?.possiedo un oled 120 hz 4k preso x fare da monitor.
Completamente d’accordo e aggiungerei una cosa: la differenza si vede soprattutto con le immagini in movimento, anche se la qualità a telecamera ferma sembra uguale poi quando ti muovi finisce tutta la magia con aloni e sbavature varie. Poi ovviamente ci sono giochi che lo sfruttano meglio di altri, però in media per la mia esperienza e gusto devo dire che non mi piace, preferisco abbassare un po’ i dettagli e giocare a risoluzione nativa.
5:40 Allora ho una domanda,ho un laptop 4060 con schermo 1080p,quindi vuol dire che è inutile che uso il dlls? Sul fatto dei frame per quanto siano generati io personalmente vedo un margine di miglioramento anche in termini di lag,tipo non ricordo se si chiamano spikes,comunque senza dlls su alcuni titoli andavo a 120 e di botto calo a 30 per poi risalire a 120,con il dlls no,quindi un minino miglioramento lo vedo Poi sul fatto che migliora l'immagine,no non è vero io con uno schermo 1080p vedo la sfocatura del terreno se uso il dlls
Non per fare il professorino ma il ghosting è un fenomeno che si vede in MOVIMENTO (è legato al campo di spostamento e all'inseguimento di parti dell'immagine) :p Quello mostrato in UN singolo frame è appunto normalissimo blurring legato alla bassa risoluzione. Cmq qualsiasi AA (anche il classico MSAA 8x che non va a toccare la risoluzione dell'immagine ma fa subsampling prelevando luminanza e crominanza dei pixel a "griglia" ) introduce inevitabilmente del blurring, dato che sono tutti filtri passa-basso per loro stessa natura. Non può esistere nessun tipo di AA che "migliori" il dettaglio, semplicemente rende più dolce l'immagine. Però può capitare il caso che PRIMA di applicare il filtro venga abbassato il grado di mipmap delle texture (cioè usi la texture a maggiore dettaglio) e questo "pareggi" in qualche modo il degrado dell'immagine legato al blurring. Infatti uno dei problemi delle VECCHIE tecniche di AA (quelle di 20 anni fa come il primordiale FSAA/SSAA ma che nulla vieta di usare ancora oggi) era dover forzare questo passaggio e non era possibile a volte senza introdurre problemi nel rendering. Cmq è ben difficile che il DLSS sfumi di più dell'FXAA (nato per XBox).....il vero problema è che alcune parti "generate" dell'immagine dall'AI sono proprio insensate, anche se in Nvidia sono stati bravi a minimizzare la cosa entro limiti accettabili.
Fortunatamente durante un gioco le immagini sono in movimento. Detto questo ho notato che la perdita di qualità dipende molto anche dal singolo videogioco, in alcuni si ha più perdita di dettaglio, in altri meno... Detto questo, quando lo uso riesco solo ad usarlo in modalità qualità (e, nonostante abbia un 13900k + 4090 e gioco a 3440x1440, in alcuni giochi "devo" usarlo, dato che, soprattutto gli fps, sotto i 100 fps mi creano una sensazione di nausea 🤢... Inoltre, con le. Schede attuali, se si vuole usare RT è, purtroppo, indispensabile per avere performance sufficienti )
I difetti del dlss, si notano oltretutto nelle zone di fitta e dettagliata vegetazione minuziosa, dove è più marcato l'effetto sharpening e il flickering. Il dlss è, e rimane, uno strumento per migliorare le prestazioni... nasce per questo.
Se non ci si fa mangiare dal marketing Nvidia si capisce perfettamente che è uno strumento da utilizzare solo in 2/4k e solo per avere più FPS senza avere lo stesso downgrade grafico di un upscaler qualsiasi. Non fa miracoli ma fra tutti gli upscaler disponibili non credo di dire una boiata dicendo che è il migliore. Personalmente l'ho provato su uno schermo in 2k su un paio di giochi e per quanto sia evidente se ci si ferma a fissare un punto devo dire che funziona abbastanza bene.
Sempre stato convinto che il DLSS non possa migliorare la qualità di immagine a parità di risoluzione finale , il confronto va fatto stabilendo due cose 1: numero uguale di FPS degni di essere usati magari tipo 60fps, 2: un dettaglio di sfuocatura accettabile come hai mostrato sul fondo dato da un 1080P, paragonabile ad un 4K con DLSS Una volta che hai queste due variabili alla pari , se quest'ultimo (DLSS+Raytracing) ti permette di maxare ed accendere il raitracing ed ogni grazia diddio, be il tuo bel guadagno grafico lo hai nell'impatto generale della scena realismo e mazzi e caghzi.. Sempre pungente Marco ti adoriamo!
Ma il problema cambia in base a come lo.sviluppatore del.gioco implementa il.dlss nel proprio gioco o una volta che è implementato il dlss l' ottimizzazione non c'entra nulla ?
La pura verità!...ci hanno fatto diventare ossessionati dall' fps e dalla risoluzione!! Per non parlare che a monte della realizzazione grafica dei giochi, si utilizzano Software 3d per modelling e texturing, che utilizzano tecniche di surfacing multy texures con annessi i loro filtri per ogni layer di tutte le superfici 3D in scena. Immaginate quante volte questi pixel vengono filtrati con algoritmi specifici e poi Renderizzati sottoforma di immagine 3D in movimento. E' alla fine della catena, c'è il Deep Learning Super Sampling (DLSS)... che ingrandisce tutto come dei cartelloni stradali ;D
Grazie, chiarissimo, mi ha aiutato tanto a capire qualcosa che non avevo considerato e a puntare più su una GPU performante rispetto a una più tecnologica, 3070 vs 4060 ti.
La chiave della qualità del DLSS2 è l' antialiasing: si sostituisce a quello originale dell'applicazione. Se ti sembra meglio un'immagine col DLSS2 è perché nativamente, il filtro AA è scarso (FXAA, MSAA o peggio). Anche un upscaler spaziale (FSR,NIS) dà un buon risultato se nativamente c'è un'immagine "pulita" (es con l'ottimo filtro TSR). A ruota anche FSR2 e XESS sostituiscono l'AA nativo.
Difficile che QUALSIASI implementazione anche idiota (quella base) dell'MSAA sia "peggio". FXAA e SMAA introducono pure loro artefatti - si chiamano filtri morfologici per quello - come il DLSS. Mi raccomando non confondene MSAA con SMAA, sono 2 cose completamente diverse (ma tanto tanto diverse :D ). Al massimo l'MSAA è conveniente qualitativamente solo dal 4x in su, cosa che lo rende pesantissimo all'atto pratico e inutilizzabile a 4K (ma se uno prende un monitor 24" 4K non ha bisogno di AA di nessun tipo......basterebbe fare le scelte giuste a monte a volte :p ). FXAA e SMAA sono ancora buoni se non c'è troppo aliasing temporale (detto anche shimmering), il DLSS infatti nasce per sostituirsi al TAA e non agli AA legati al singolo frame. Considerate che a risoluzione alte funzionano molto bene entrambi (ma ovviamente pesano di più e si finisce quasi per perdere il vantaggio sull'MSAA almeno quando viene usato il forward rendering)
Esatto, magari la qualità non è la stessa di quella nativa ma l'antialiasing usato nella maggior parte dei giochi, soprattuto se in full HD, mi da' l'impressione che crei una netta separazione fra le texture, mentre abilitando FSR2 si ottiene una maggiore "uniformità" nell'immagine. Nei giochi supportati terrei attivo L'FSR2 anche senza l'aumento delle prestazioni che comporta.,
E non solo ci sono problemi di definizione, in giro ho visto delle immagini di spiderman ricostruite dal dlss a cazzo di cane contenenti veri e propri artefatti ... certo l'occhio umano in gaming verra' ingannato e avremo l'illusione di un miglioramento, ma questa tecnologia deve essere ancora migliorata e comunque e' ovvio che una copia non potra' mai rivaleggiare con l'originale (il 4k nativo). Chiaro e esaustivo come sempre ... bravo Marco.
Ciao marco,io nn ho mai avuto un pc gaming,ma semmai lo comprero' ci mettero' una bella gpu di amd,ma con una 7900xtx o xt posso giocare in 4k tutto ultra senza problemi?
Ho una domanda sto aspettando che si trovino più castom delle 7000 e che magari scendano un po' i prezzi!! Ma posso tenermi il 5600x so che cambiando avrei delle prestazioni migliori ma il costo non è indifferente non penso ci sia così tanta differenza cambiando con la nuova gen sia Intel che AMD e solo una gen!! Mi confermi magari vedo come va e poi la faccio in un secondo momento
Ho appena ordinato una 4070ti in sostituzione della mia 1080ti, proprio per provare RTX e DLSS3. Considerando che gioco in 2K, forse la qualità dell'immagine non calerà moltissimo con il DLSS, ma con il Raytracing attivo sarà difficile tenerlo spento. Penso che con il tempo miglioreranno sempre di più il DLSS ma la qualità di una risoluzione nativa è inarrivabile come dettagli.
@Jacopo Accogli si la qualità di un immagine in 4k è sicuramente superiore, ma il dlss usa un immagine in fullhd come origine, per poi upscalarla alla risoluzione del monitor, migliorandola con l' IA. Se la risoluzione del monitor è 2k, dovrà upscalare meno rispetto al 4k e dovrebbe guadagnarne in prestazioni no? Anche se la qualità dell'immagine è sicuramente inferiore ad una in 4k, per me la risoluzione 2k è un ottimo compromesso tra qualità e numero maggiore di fps rispetto al 4k
@Jacopo Accogli ho capito, quindi su un monitor 2k attivando il dlss la qualità calerà di sicuro, ma la risoluzione rimarrà la stessa, quindi non essendoci un eleborazione per doverla adattare al 4k, il numero di fps dovrebbe essere maggiore
@Jacopo Accogli ok quindi su un monitor 2k, il DLSS fa un upscaling usando una risoluzione fullHD come sorgente. Mentre su un monitor 4k, il DLSS usa una sorgente qhd (2k) quindi con più dettagli da elaborare per l'upscaling verso il 4k. Grazie per la spiegazione
concordo pienamente!! il dlss peggiora sempre la qualità, in alcuni giochi la perdita di qualità è molto alta...anche se si sceglie la modalità qualità. Chi si ostina del contrario sa benissimo di mentire. spesso a supporto vengono mostrate immagini statiche, ma la perdita di qualità si nota molto in movimento. Per esempio in MW2 anche in modalità qualità si nota molto. Ho una 3080 pertanto non attivo mai il dlss salvo cyberpunk... farebbero meglio ad essere sinceri. Questo non vuol dire che il dlss non sia una tecnologia valida, ma che a scpito della qualità permette anche a schede meno potenti di godersi comunque giochi pesanti con frame rate ottimi.... ciao e sempre molto chiaro e preparato!! ciao
Ma mentire cosa, prova red dead 2 qualità DLSS qualità su un oled poi ne riparliamo. Prova the witcher 3 e dimmi che cazzo cambia dal 4k nativo se imposti il dlss qualità e dlss 3 frame generation. Quasi non lo distingui e faccio 100 e rotti fps con una 4090 + ray tracing che già di suo ti migliora tanto la qualità visiva! Mettersi li con la lente notando dettagli che in game non noti non dimostra nulla. Sto video dimostra che anzi devi andare con lo zoom per notare differenze reali. Fa passare il DLSS che è una grande innovazione tecnologica come un becero upscaling quindi video evitabile per me.
questa è una disamina molto professionale delle immagini, veramente complimenti del lavoro, queste si che sono valutazioni obbiettive dei risultati ottenuti da questa tecnologia
Una domanda mi viene: Se attivo il dlss e i rendering sono in 1080p ci può essere collo di bottiglia da parte del processore ( cpu)? Mi spiego meglio farei gli stessi fps che può raggiungere la cpu in 1080p? Grazie
Io avrei una domanda :quando si va ad utilizzare il DLSS nei giochi on-line, (essendo una post elaborazione) c'è un aumento Dell imput lag nei comandi rispetto a giocare a risoluzione nativa? Grazie per la risposta.
Hai ragione, nvidia sta puntando molto sul dlss e non sulla potenza di calcolo effettiva di ogni scheda... Gioco in 2k con una rtx 3070 e se disattivo il dlss in qualche tripla a scendo al di sotto dei 60fps. Mi chiedo... Ma è possibile che una scheda come la 3070 non riesce a gestire il 2k nativo anche nei titoli piu esigenti?, Forse era meglio restare in Full HD nativo con la stessa scheda così almeno ti dogevi la risoluzione nativa con prestazioni elevate.
E' il discorso dell'uovo e della gallina che facevamo pari pari ai tempi delle prime GTX (le 8800 nel 2006): "perchè diavolo hanno inventato 1920x1080, si stava così bene a 1024x768" :D (infatti le 8800 non riuscivano a fare miracoli in FullHD con i titoli del 2006, però prima o poi il salto andava fatto, non fosse altro che la produzione dei pannelli dei monitor veniva così unificata fra PC e TV riducendone parecchio il costo)
Si un grande, è una vita che lo ripeto ai fan boy nvidia, e io sono un felice possessore di una 2060 che proprio grazie al dlss passo dai 90 ai 140 fps su cod in 2k, ma è palese che sto perdendo dettaglio, cosa che nel multi mi interessa poco o niente, conta di più la fluidità, ma oggi come oggi spendere tanto per avere una scheda che va forte grazie al dlss non ha davvero senso. Bisogna preferire sempre la qualità originale dell'immagine, il resto è solo un accessorio in più e basta.
Ciao Marco, grazie per il video, magari servirà a qualcuno per accendere un po' il cervello soprattutto in fase d'acquisto. Personalmente gioco in 1080p su un 24 pollici a 144 Hz con Freesync e non sento assolutamente il bisogno ne di salire di risoluzione ne di utilizzare metodi di upscaling dell'immagine. Ho una rx580 ed ho avuto modo di provare sia FSR 1.0 che 2.0/2.1. Trovo praticamente del tutto inutile utilizzare questa funzionalità perché in FULL HD la perdita di qualità è evidente e l'aumento di framerate è marginale se si tiene l'FSR su qualità. I giochi su cui ho provato FSR sono Hellblade: Senua's Sacrifice, Red Dead Redemption 2 e Uncharted 4. In tutti e 3 i giochi ho fatto screenshot a risoluzione nativa confrontandoli con i medesimi screenshot con FSR e le differenze si notano eccome. Magari il DLSS è un po' meglio, ma per chi come me gioca in FULL HD dovrebbe lasciar del tutto perdere queste features perché basta una buona GPU per gestire i giochi al massimo dettaglio avendo un'ottima fluidità. Nel mio caso la rx580 ormai è alla frutta, a breve cambierò configurazione, ma come sempre comprerò la miglior GPU in relazione al mio budget indipendentemente da che algoritmo di upscaling supporti. Ma anche avendo la rx580 non ho utilizzato mai FSR in quanto se proprio necessito di un po' di frame in più a quel punto tanto vale abbassare qualche dettaglio grafico del gioco piuttosto che impastare tutto avendo una qualità dell'immagine nettamente inferiore.
Attivare un filtro di upscaling per ARRIVARE a 1080p significa immagine nativa sotto il fullhd...a questo punto meglio una PS4 su un TV con uno scaler di qualità
Sono passato da un monitor Ultragear 2K a un oled C2 da 42" 4K. Grazie alla sua densità per pixel spropositata ho avuto finalmente modo di apprezzare il DLSS. Prima (con l'Ultragear) la perdita di dettagli era già evidente in qualità, ma con l'Oled ha cambiato totalmente comportamento. La differenza è abissale e dire che il DLSS degradi troppo la qualità è vero ma fino a un certo punto: dipende da quale dispositivo d'uscita video si utilizza. Prima lo tenevo sempre disattivato, adesso invece è un obbligo, per assurdo in termini di aliasing e qualità complessiva l'immagine è migliorata (su preset Qualità e Bilanciato). Purtroppo in molti investono su rig costosi e utilizzano monitor che annullano di fatto qualsiasi qualità intrinseca dell'hardware. Il DLSS funziona in maniera efficace su pannelli (ahimé) costosi, non è assolutamente solo marketing, ma nel 90% dei casi il degrado è evidente.
Per me l frs/dlss è un modo per innalzare la vita della propria scheda video, il gioco X va a 50 ma se attivo frs/dlss arrivo a 70 cambio la gpu tra un anno; oppure per chi, di tanto in tanto, usa un tv 4k e deve far girare qualcosa ogni tanto, ad esempio il Spiderman l'ho giocato a 1440p su monitor e su Tv 4k ho attivato l frs, uno perde qualcosa di qualità però niente di trascendentale.
grandissimo marco una spiegazione con i controcazzi e nonostante ciò vedo nei commenti che ci sono tanti idioti che non hanno capito. Capiamo ora perchè invidia punti tutto su questi giochi di prestigio il mercato è pieno di polli incompetenti e allora sai che si fa? evviva i polli che strapagano per queste illusioni e vedere la pipì del cane più lucida. Che beoti continua così e non ti curare di loro non valgono nulla....
E certo perchè il ray tracing è la pipi del cane più lucida certo! Il DLSS serve per quello è, per il ray tracing e sto video manco lo dice ma preferisce fare lo zoom sulle immagini dimostrando differenze quasi nulle. Si si sei mejo te, siamo tutti polli!
@@massimocivita7288 ma scusami io vorrei farti una domanda, ma tu ci giochi sul pc o guardi i documentari? perchè nel primo caso se giochi sei concentrato su quello e tutte ste cagate di dettagli manco ti sogni di vederle, differenze sugli sfondi o altro. se invece vedi un film o un documentario seduto comodo apprezi ogni minimo dettaglio. Quindi il succo è avere un gioco ultra lucido con RT attivo che abbassa di brutto gli FPS e poi avere il magheggio del DLSS che riduce la qualità per aumentare nuovamente gli FPS non ti senti preso per il culo? Sei sicuro che sta buffonata giustifica i prezzi fatti da NVIDIA? Se vi accontentate di buttare i soldi per avere questi effetti padronissimi ma se volete far passare tutto ciò come una strabiliante innovazione tecnologica mi sa che siete fuori strada. Con tutto rispetto ogniuno spende i soldi come vuole ma la realtà non si può nascondere..
Totalmente d’accordo con l’analisi, e credimi secondo me è praticamente e matematicamente ovvio (anche se non conosco l’algoritmo da cui nasce il tutto). Io gioco in QHD e posso dirti che però in modalità qualità è davvero difficile notare le differenze. Per il resto “applausi” 😊
Finalmente qualcuno che dice che il DLSS non è così una manna, ho un monitor WHQD e sinceramente dove posso il DLSS lo disattivo perchè rende l'immagine più nitida e meno blurry rispetto agli Anti Aliasing tradizionali ma a livello di dettaglio si perde moltissimo. Ad esempio cyberpunk 2077 l'ho giocato tutto DLSS off perchè su on si perdono un sacco di dettagli, probabilmente su un monitor 1080p si noterebbe di meno, boh non sono un esperto di imaging ma solo sensazioni personali.
Mi sono accorto sin dalla prima volta in cui ho attivato un algoritmo di AA di questa tipologia che alla fine è come se fossi diventato miope all’improvviso.
Per esempio su un video gioco come warzone 2 se attivi il dlss che sia qualità prestazioni bilanciato ecc si è vero ti dà qualcosa in fps ma inizi a vedere veramente sgranato (uso il 1080) perciò forse il dlss è raccomandato solo su 2k in questo caso, in altri giochi non so
Anche io utilizzo un monitor 1080p - 360 hrz abbinato ad una MSI 3080 suprim X. Chiedo per poca conoscenza: come sostenuto da Marco, dato per certo che l'immagine peggiori rispetto a quella nativa, avrebbe comunque senso attivare il DLSS per compensare gli hrz del monitor ed avere una percezione di maggior fluidità?
@@nKsealtierone giocando in 1080 ed usando il dlss andresti a peggiorare Ancora di più l'immagine, io consiglio in questo caso quindi su Cod di usare il dlss solo se si gioca in 2k in su perché anche se vai a peggiorare l'immagine non è così pesante come facendolo con il 1080, io prenderei un 2k se fossi in te tanto la tua gpu te lo permette tranquillamente, nel tuo caso per giocare competitivo senza perdere qualità userei fidelityfx cas come upscaling (perdi un po' di fps ma ti migliora un sacco la nitidezza dell'immagine) qualita texture BASSA qualità streaming NORMALE e tutto il resto mettilo basso e ciò che puoi disattivare disattivalo e soprattutto tu con una 3080 non usare si+boost ma solamente si... Non ti rende più fluido attivando il dlss anche se fai più FPS perché tanto hai una GPU potentissima che giocando con fidelityfx cas hai comunque fps alti ed una grafica ottima a mio avviso.. poi dipende sempre da che cpu hai dato che questo Cod lavora molto di più con la CPU rispetto al capitolo vecchio se hai ottimizzato Windows per il gaming come hai settato il pannello di controllo Nvidia ecc, sto aprendo un canale discord proprio per aiutare le persone su queste cose ed altre inerenti a Cod
@@k.of.d9449 Ciao. Possiedo un 10700k montato su una mobo asus Rog strix z490 e-gaming, con ram Vengeance 32 gd 3600 mhz. Attualmente, su COD, senza DLSS e tutto ad Ultra, riesco a raggiungere tra i 150 e i 170 fps, poi molto dipende dalla complessità della mappa. Se attivo il DLSS guadagno qualche fps ma gli oggetti in lontananza, quindi anche i nemici, sono leggermente sgranati
@@Tonksino Beh se per te far passare l'idea che è il DLSS è fuffa ingrandendo le immagini e notando il micro dettaglio nella pozzanghera che non ti cambia un cazzo mentre giochi contento tu!
@@massimocivita7288 ma neanche far passare l'idea che un 4k dlss è uguale al nativo. perché allora lo stesso discorso lo si può fare su monitor 2k da 27/32.. tanto nell'azione non te ne accorgi....Semplicemente l'intento del video è un altro
@@Tonksino L'intento del video è sbagliato in partenza. Per parlare di DLSS devi parlare per forza di ray tracing. Un cyberpunk che porta pure come esempio è 100 volte più bello da vedere con il ray tracing + dlss rispetto al nativo 4k senza DLSS, quindi sticazzi di micro dettagli da notare con la lente. Nasce per stare in combo con il ray tracing il DLSS ci arriviamo? E aggiungo che funziona alla grandissima mentre sto video non fa altro che sminuirlo.
Premesso che io invece uso il Dldsr con un 32:9 in 1080p e che i risultati, come antialias/oversampling, mi sembrano decisamente sbalorditivi (come costruzione di una nuova immagine piú nitida e senza scalettature)... Sicuramente il dlss 2 "inganna" sufficientemente in movimento e non puó essere efficace per immagini statiche e/o zoommate. Non é un caso se al momento AMD non riesce ad ottenere gli stessi risultati. DLSS 3, invece, appare invece come un mezzo bluff, proprio perchê vuole ingannare pure sul movimento.
Dlss su una immagine statica non ha senso, se stai fermo la scheda ha tutto il tempo di elborare tutta l'immagine al massimo della capacità di calcolo. La differenza di dettaglio tra la parte centrale dello schermo e verso la periferia, quella specie di effetto gelatina durante i movimenti... Lo trovo veramente sgradevole. Del resto per guadagnare fps da qualche parte bisogna economizzare
Secondo me può essere un buon espediente come compromesso per raggiungere i 40/60fps su alcuno giochi dove la propria scheda anche abbassando i settaggi non riesce. Spingerlo nelle presentazioni sulle top di gamma, come la 4090 da 2500€, mi farà sempre ridere 😂
Se si compra un componente non adeguato alle performance necessarie, si buttano i soldi. Non si può sperare in qualche algoritmo, se serve il 4k ma poi bisogna mediare sulla qualità... C'è qualcosa di sbagliato. Come cercare i 100fps o più... Ed avere un monitor 60hz
Alla tua perfetta analisi aggiungerei anche qualche immagine catturata in movimento. Soprattutto in alcuni giochi (e Cyberpunk è l'esempio perfetto dato il suo level design) è super evidente il pass di sharpening sui materiali emissivi, che con il DLSS attivo appaiono più luminosi quando si sta muovendo la visuale. Ovviamente non aumenta davvero l'emissività, ma lo sharpening sui bordi dell'oggetto luminoso aumenta il contrasto percepito rispetto allo sfondo, e si nota parecchio. In ogni caso, anche l'aumento di performance non è scontato e dipende fortemente dalla build, dalla risoluzione e dai dettagli grafici. Nel mio caso su Cyberpunk, con una RTX 3080 e un 5800X, a parità di settaggi grafici (personalizzati, indicativamente medio-alti, RTX off), faccio più FPS in 2k nativo che in 2k con DLSS qualità, perché nel secondo caso la GPU arriva ad un load massimo del 70-75% (giustamente, dato che renderizza a 960p e sposta molto carico sulla CPU).
Fermo restando che dlss da una grossa mano ad alte risoluzioni ( 4k ) e in presenza di rtx pesante. Nel tuo caso la cpu però e un collo di bottiglia e lo vedi di più perché la fai renderizzare iln dlss in 1080p praticamente,contro i 2k reali senza nulla. PS giocare cp senza rtx è un delitto. Se avessi voluto giocare senza rtx mi sarei prezo la 6900xt che in raster va decisamente meglio della 3080. Ma magari parli solo di questo singolo gioco ( resta cmq un delitto ) Lo sai poi che c'è un regolatore per lo sharp del dlss vero?
Molto chiare e competente come sempre. Io ho sempre avuto nvidia come vga per sfruttare appunto il dlss. Per esempio ora con una tuf 3080 in 1440 dettagli alti e dlss ottengo a fatica 180fps su mw2. Se disabilito il dlss arrivo a malapena 130. La mia domanda è, se prendessi una ATI 7900xtx ovviamente senza dlls opterei performance migliori?
Io penso che il "miglioramento dell'immagine" è principalmente da intendersi così: se uno ha un monitor 2K ma la scheda video in modo nativo regge 1080p/60fps con DLSS si riesce a giocare a risoluzione piena raggiungendo i 2k "camuffati" ma sempre a 60 fps. Ovviamente chi dice che il DLSS restituisce un'immagine UGUALE alla risoluzione nativa ha bisogno di occhiali: è come dire, in fotografia digitale, che il JPG è uguale al RAW 😁😄.
Il DLSS andrebbe solo lodato perché permette di avere più fps nei giochi dove la qualità grafica può passare in secondo piano, tipo negli sparatutto multiplayer.
Grazie della tua attenta analisi, in effetti qualcosa non tornava... Mi chiedevo come fosse possibile raddoppiare le prestazioni senza pagarne il costo, oltre al fatto che ad alcune schede 40 hanno abbassato il bus rispetto alle generazioni precedenti... A questo punto ti faccio una domanda, dato che attualmente sono interessato al full HD, il Dlss dovrebbe essere una buona scelta per questa risoluzione anche in termini di qualità, dato che non andrà a generare immagini a risoluzione differenti?
Il problema sta nel fatto che molta gente pensa e crede che il DLSS sia come un boost di potenza mentre nella realtà non è per niente così, quello che fa il DLSS è alleggerire il carico sulla scheda (quindi fargli fare più fps) degradando l'immagine. È un buon compromesso solo se ti servono tanti fps perché giochi competitivo o perché magari è uscito un nuovo mattone e non raggiungi un minimo di fps per potertelo godere con la tua attuale scheda, allora sì, altrimenti è controproducente per qualità soprattutto in quei giochi dove la grafica è il punto forte.
Devo dire che ho provato (avendo una "semplice 2060 max q") sia Cyberpunk che Control ... soprattuto nel secondo addirittura con il 4k girava attorno ai 60fps e dai miei screenshot questa differrenza cosi' grande non lho notata ... ma in generale penso che le tecnologie vadano prese per quel che danno e a chi servono ... ovvio se hai un'azienda con 10 4080 e 3 4090 per recensioni si vedano anche le differenze nei dettagli con il microscopio, ma salvano situazioni in cui una buona fascia di utenza verrebbe spinta fuori da carenza di performance. Rimango comunque d'accordo su eventuali differenza dal nativo (anche se sognare che le A.i. superino i loro insegnanti nativi molto presto... ehehhe) ma che queste differenze vadano prese per quel che sono... in ogni caso buon divertimento sia con che senza DLSS ehhehe
semplicemente il dlss non rende in egual modo in tutti i giochi. Solo che il "sapientone" fa di "tutta l'erba un fascio". Tra l'altro come mai parla male di DLSS e non di FSR che è indubbiamente meglio? E se, come dice lui, Nvidia non ha fatto altro che "copiare" cose che già esistevano, come mai AMD non riesce a farlo? io non sono un fanboy nvidia, semplicemente compro ciò che è meglio. Attualmente Nvidia, per quanto sia bugiarda e ladra, fa schede video migliori ed il DLSS è stata e continua ad essere una rivoluzione. Hai notato che gli esempi li fa senza RT? Giusto....per lui il ray tracing è inutile e quindi non lo abilita. Quindi io, secondo lui, dovrei giocare in risoluzione nativa e senza RT perchè è così che si fa da 20 anni. Quindi buttiamo nel cesso tutta la ricerca che sta facendo Nvidia, AMD, Intel per cercare di tirar fuori il massimo delle prestazioni e delle possibilità dalle nostre schede video. Un tempo era semplice parlare di grafica, prestazioni e videogiochi, oggi un pò meno e questo video ne è la dimostrazione
Temo che di questi passo le presentazioni delle prossime GPU saranno sempre più mendaci, e verranno sbandierate performances omettendo di specificare se ottenute con l'ausilio di DLSS e altri escamotage di questo tipo.
Complimenti! Super interessante questo argomento! Finalmente anche chi non ha troppo "occhio", potrà dire che il DLSS non migliora l'immagine. Il paragone è come una persona che guarda la TV con o senza occhiali indossati 😂
Ciao, diamo una premessa il dlss (ma vale anche per le controparti Amd Intel) sono strumenti utili per compensare mancaza di performans in alcuni giochi ma non devono essere lo standard di partenza....Cioè prendo la scheda giusta per esempio, per giocare in qhd 60fps, ci sono quei 4/5 mattoni e usiamo il dlss.... E' palese che se con la stessa "potenza" dobbiamo renderizzare una minor quantita di pixel avremo più frame generati è il concetto base dell'upscaling..... Nel caso del dlss l'immagine renderizza ad una risoluzione minore viene poi aggiustata dalla IA che compensa la mancanza di pixel. I livelli da qualità a prestazioni, in poche parole differenziano per la risoluzione dell'immagine di partenza, utilizzzando risoluzioni intermedie. Il dlss3 tanto publicizzato, prende il dlls2 ed aggiunge delle novità tra le quali frame generator, che di fatto aggiunge un frame tra uno e l'altro imparando e copiando dal primo e prevedendo quello dopo (questo si basa sul fatto che analizzando il frame esistente e il movimento si "cosa ci si aspetta nell'immediato"). Capiamo ed è facile intuire come potenzialmente si possano fare il doppio dei frame del dlls2 avendo tra un e l'altro 1 inventato, questo lavoro oltretutto non intacca il lavoro del resto dell'hardware che continua a fare il sui soliti compiti ma intacca il lavoro della scheda. Per compensare questo lavoro in più dell' upscaling hanno integrato nel pacchetto dlss3 il reflex per ridurre i ritardi ma comunque più lento del dlss2 con reflex ed a seconda dei giochi più o meno marcato..... Per compensare il dlls3 lato ray tracing hanno aggiunto l'optical flow acceleration che sostanzialmente serve per ridurre gli artefatti... Dopo tutto sto pippone si capisce il concetto base e che nel dlss3 c'è più roba per compensare quel frame inventato che altro e è facile capire come questo se non fatto bene possa portare più problemi... Oltretutto il dll3 ad oggi è disponibile per poco più di una decina di giochi. Tornando al punto base di qualsiasi sistema di uspcaling è palese che se si prende un immagine e la si allarghi bisogni compensare per coprire le "smagliature" che si vengono a creare... Detto ciò sono mezzi sbagliati??? assolutamente no, ma non devono essere lo standard o metro per un acquisto o per le performans. Devono essere un in più solo quando e SE serve......si fa fatica ad accorgersi della perdita perchè abbiamo immagini in movimento, ma la perdita c'è ed è indiscutibile.... Noi abbiamo il potere di dire quanto questa perdita sia percepibile in gioco e ci cambi l'esperienza di gioco.... Sono ottime features ed utili ma devono essere supportate di gioco in gioco e con i driver....
Per me ha più senso giocare a risoluzione nativa, abbassando se è il caso quel paio di effetti che pesano come macigni e manco si notano. "Maxare" e poi perdere dettagli con un algoritmo? Preferisco scegliere io dove/cosa mediare. Poi io sono un caso particolare, dlss mi dà fastidio, mi dà un senso di mal d'auto perché l'effetto di perdita di dettaglio è più evidente verso la cornice, questa differenza mi disturba
@@giuliolenzoni428 Concordo,la mia era una panoramica per rendersi conto di cosa sono questo sistemi upscaling e del perchè non potranno mai essere come il nativo..... Detto questo per esempio i miei acquisti sono sempre votati per un traguardo prefissato. Per esempio un 1440p 60fps maxato e normalmente prendo una scheda con margine che abbia una media almeno 75/80 fps. Ovviamente parliamo di medie ma sappiamo tutti che abbiamo titoli ottimizzati meglio per Nvidia e altri per Amd, poi infine arrivano i mattoni ottimizzati con le chiappe.... Ed è propio li che un sistema di upscaling prende maggior valore nei mattoni, perchè il solo abbassare i dettagli non basta se non passare da ultra a minimo/medio e in tal caso la differenza è maggiore che non utilizzando il sistema upscaling....
Ottimo lavoro, io uso Flightgear con un G91R1B che ho sviluppato per schermi 4K, fatto necessario per poter vedere i dettagli degli strumenti analogici presenti nel l'aereo... Quindi con una compressione del genere sarebbe faticosa la lettura dell'immagine. Non so però se il DLSS sceglie solo determinate aree, ad esempio quelle di sfondo, ma come fa a sapere cosa è lo sfondo?
Esattamente come hai detto. Le zone perimetrali sono più degradate rispetto al punto di maggiore attenzione del giocatore . Io gioco su un 32:9 e quindi mi è molto più facile percepirlo. Come faccia esattamente non lo so , credo sia merito del machine learning che implementa algoritmi diversi gioco x gioco.
Vabbè per una 4090 gratis e qualche soldino anche io posso venirti a dire che il pezzo della nuova line up è la cosa più giusta che potrebbe mai esserci e che dovremmo essere noi i primi a voler pagare di più. Ormai anche il giornalismo specializzato è finito nel baratro
Già, la verità e che nei giochi il 1080p è bastevole per la maggior parte degli utenti. Tutta sta corsa al 4k soesso giustificare l.acquisto di hardware superiore più che una necessità reale. Poi per carità io gioco su uno dei PC gioco in 2k a 144hz la differenza la noto, ma con la 3060ti riesco solo su giochi fatti bene. Se dovessi usare il dlss giocherei in 1080p e sarei comunque soddisfatto.
La verità è che il dlss serve solo per POTER attivare RT...e dopo averlo visto... disattivarlo perché ci si rende conto che la spesa (in prestazioni) non vale la resa
@@bubis976 no, be'... Su Minecraft è essenziale per non stare appresso agli shaderds su Java. Per il resto dei giochi concordo, anche se su fortnite è carino ma certo non essenziale.
@@giuseppemusumeci5146 non ho detto che sia brutto...ma che sia totalmente sconveniente. Se devo giocare a Fortnite e scegliere tra 100fps o 60fps con RT...non ho dubbi su quale sia la scelta sensata.
Con DLSS è diventato così possibile offrire grafica in 4K con Ray Tracing, mantenendo un elevato frame rate e con un livello di dettaglio praticamente indistinguibile da un rendering in risoluzione nativa. Domanda : è veramente indistinguibile la differenza? Perchè gli FPS sono indiscutibilmente circa il doppio ma la qualità ? E' veramente la stessa? Senza difetti distinguibili?
Troppo spesso si sentono dire follie. E' ovvio che all' aumentare dei frame la percezione del gioco nel complesso può sembrare migliore. Il dettaglio però è tutt' altra cosa appunto. Per notarlo bisogna fermarsi e osservare attentamente. Motivo per cui io ritengo che l' eccesso di qualità grafica per giochi in movimento spesso è quasi inutile. In un FPS il raytracing serve davvero a poco. Magari meglio in un avventura lenta ma alla fine mentre si gioca contano spesso di più i frame.
Ciao marco. per quanto mi riguarda, nei giochi che me lo permettono, utilizzo solo DLAA e Framegeneration. L’upscaling no perchè avendo una 4090 io voglio il massimo dalla qualità
Non so esattamente come funzioni il DLSS ma so come funzionano i modelli di intelligenza artificiale nel campo delle immagini, visto che sono uno sviluppatore. Sarebbe molto utile capire cosa cambi davvero quando si cambia la qualità del DLSS. La prima cosa che mi viene in mente è che cambi la risoluzione di rendering dei frames, quindi per esempio in modalità prestazioni, i frames renderizzati dal gioco sono a 720p, e poi vengono upscalati dall'intelliggenza artificiale. Se l'architettura del modello è basata sulla tipologia GAN/ Style-GAN, significa che il modello letteralmente ha la capacità (ed è quello che fa di norma) di creare pixel, ovvero può inventare degli elementi nell'immagine che normalmente non esistono. Basta pensare ai modelli per il restauro/enhancing dei volti. Se l'immagine non è abbastanza chiara alcune caratteristiche il modello se le inventerà semplicemente. Il punto è che questi elementi inventati possono corrispondere o non corrispondere alla verità. Quindi nell'esempio che hai mostrato della palma, il problema principale è che il fumo che nel frame nativo è solamente chiaramente fumo, quando attivi il DLSS a prestazioni, il frame a bassa risoluzione rende difficile al modello capire cosa ci sia li e ricostruirlo, quindi fondamentalmente inventa roba. In questo caso, nella zona delle finestre, è riuscito a ricostruire qualcosa che fosse simile geometricamente alle finestra ma senza inserire dei dettagli quindi fondamentalmente si vedrà solamente un quadrato nero. Stessa cosa per la palma. Dubito che quando si cambia lo slider fra qualità e prestazioni, si vada a cambiare l'incidenza del modello sull'immagine originale, piuttosto forse si vanno a cambiare o la risoluzione del frame nativo renderizzato (molto plausibile visto che è l'operazione più pesante per la scheda video) e/o si vanno a cambiare dei parametri più algoritmici di analisi dell'immagine che quindi offrono un output migliore dal modello.
Su modern warfare 2 nel benchmark ti dice la risoluzione di partenza del dlss, tipo su monitor 4k usando qualità viene utilizzato il 1440p mentre su bilanciato il 1080p è via dicendo.. fatto sta che avendo 2 monitor uno 4k e uno 1440p ti garantisco che giocando sul 4k con dlss qualità si ha comunque un'immagine superiore a quella che vedrei sul monitor 1440p in nativo perciò io la reputo una buona tecnologia, che poi l'immagine sia peggiore del nativo del monitor stesso era ovvio si vede anche sè gli ultimi aggiornamenti del dlss camuffano ancora meglio la cosa.. Io preferisco giocare 4k nativo nei tripla A e disattivare raytracing dato che non mi sembra tutta sta roba visivamente visto che è applicato in minima parte su cose che manco te ne accorgi, l'unica cosa che ti accorgi e come vengono ammazzate le performance quello si😅
ciao Marco sono d'accordo con te sul fatto che il dlss non migliori l'immagine.. ma lo promuoverei comunque come validissimo strumento da utilizzare per snellire un po' il carico grafico a colpo d'occhio non è possibile notare differenze soprattutto con un' immagine in movimento. tranne per qualche particolare come hai fatto notare tu, a grandi linee differenze non ce ne sono..(ci sono oggetti e scene del tutto identiche tra immagine nativa e con DLSS attivato) nonostante tutto l'esperienza visiva rimane comunque ottima per cui direi che va bene cosi... se vogliamo giocare in 4k. perchè se vogliamo bocciare il DLSS definendolo una "presa in giro" per giocare in 4k maxato..significa che il 4k nel gaming rimane tutt'ora uno scoglio insormontabile.. e lo è ancor di piu' se si vogliono sperimentare tecniche come RT.. diciamo che per giocare in 4k sia AMD che Nvidia hanno creato questi strumenti per aumentare il frame rate..e dobbiamo considerarli come parte integrante del gaming in 4k.. se su questo aspetto non siamo tutti d'accordo, allora dobbiamo porre attenzione anche sull'acquisto di monitor di monitor 4k per il gaming e considerare il QHD la miglior risoluzione per giocare al giorno d'oggi. non ha senso spingerci sul 4k perchè le gpu attuali non permettono alti frame rate a dettagli maxati..a meno che non compri la 4090. usare dei trucchi come FSR e DLSS di fatto non significa giocare veramente in 4k e andrebbero esclusi a priori.. io ad esempio gioco a 3440x1440p in 21:9 perchè da sempre ho preferito non spingermi sul 4k...per questi motivi.. la longevità della GPU è compromessa e sei costretto a comprare schede costose per avere prestazioni diciamo sufficienti
Infatti ad oggi soprattutto se si vuole giocare in competitivo, il 4k è da escludere a prescindere per diverse ragioni sia di costi, poche ottimizzazioni, bassa longevità ecc. Le scelte migliori sono ancora oggi il 2k per grafica estrema e godibile anche a distanza di qualche anno con hardware più recente di fascia abbastanza alta e 1080 p per il competitivo.
Verissimo quasi tutto. Prima vorrei fare una premessa... ...per fortuna c'è MVhardware che dice cose che non solo il marketing Nvidia, ma anche l'informazione specializzata (soprattutto qui in Italia) non dicono. Purtroppo mi sà che Nvidia paga tanti (compresi youtuber italiani specializzati) che ci capiscono (quindi ancora peggio perchè sanno come stanno le cose e mentono) per dire cose a favore di Nvidia e portare avanti il suo marketing in maniera vergognosa. E questa è quella cosa che in altri campi viene chiamata disinformazione. Fine premessa. È vero che non ci sono ancora schede video che gestiscono bene (ad alti FPS) il 4k nativo (almeno sui mattoni come cyberpunk 2077) ma quindi come si fà ad aspettarsi che un algoritmo che aumenta gli FPS (le prestazioni) contemporaneamente migliori anche i poligoni/il dettaglio grafico (la qualità). Che fà riesce a fare diventare una scheda video da 10 Tflops (è un esempio meglio precisare) da 20 Tflops? O comunque gli raddoppia la potenza di calcolo? Ma il punto è che visto che ancora non è tempo per il 4k nativo 120 FPS tutto ad ultra (e c'è già chi parla di 8k perchè ha visto pubblicità o notizie sui TV 8k)(non sapendo che ogni volta che raddoppiano i pixel devono raddoppiare i poligoni e quindi raddoppiare la potenza di calcolo o pure di più) perchè ci si fissa sul fatto di giocare in 4k (perchè si ha una TV 4k)? Si continua a giocare in FHD che comunque non fà schifo neanche su schermi da tanti pollici e si aspetta (meglio ancora se non comprando fino a quando non ci sono miglioramenti più netti ed evidenti a prezzi più bassi) quando ci sarà l'hardware che lo permette a basso prezzo (300-350 max 400€ di scheda video no 2000€ o più solo per una scheda video come Nvidia) anche i 1000€ di AMD sono tanti ma Nvidia è proprio vergognosa come atteggiamento. Per tornare al discorso che ancora non si può giocare ad alti FPS a 4k nativo se poi si aggiunge il discorso Ray tracyng che mangia un sacco di risorse e serve a poco è ancora più valida la domanda sul perchè ci si fissa a giocare a risoluzione 4k. Ed infatti molti su steam giocano ancora in FHD e non credo che abbiano una brutta grafica. Io gioco ancora in FHD 1080p da notebook (certe volte collegato a proiettore 1080p) e mi trovo bene anzi molto bene. E come ultima cosa se non smettiamo di comprare tutte le cose che fanno le grandi aziende anche pagandole care ci daranno sempre meno miglioramenti e a prezzo più alto. Gli dobbiamo fare abbassare le pretese e i prezzi.
@@jackuesdemolay8615 premesso che non ho mai detto che dlss migliora l'immagine..ma diciamo la rende a prima vista identica .. Le differenze le devi vedere con i fermo immagine e oltretutto anche minime.. savo rari casi. Quindi è una magia che permette di giocare in 4k a dettaglio maxato ad alti FPS.. avendo la percezione di un'immagine praticamente identica o quasi al 4k nativo Considerando appunto l'impossibilità per le GPU di giocare in 4k nativi ad alti FPS credo che sia una possibilità per la quale essere contenti o perlomeno ritenerci soddisfatti .. Mi riferisco non solo ad Nvidia ma anche AMD con il suo FSR. Cioè è giusto chiarire che il dlss non migliora l immagine .. Ma manco farlo passare per una tecnica subdola per fottere i poveri consumatori.. Perché se così fosse, allora andrebbe condannata in toto la frontiera del 4k nel PC gaming..e non solo i produttori di GPU
@@marcosantilli6944 d'accordissimo solo con l'ultima frase infatti secondo me è da condannare in toto la ricerca della risoluzione sempre più alta a tutti i costi, almeno per adesso, che si ormai i TV che sfruttano bene il 4k 120hz con freesync ci sono a bassi prezzi (tipo certi nanocell LG che posso definirsi veramente dei TV da gaming o quasi) ma uno non può spendere 500-600€ di TV da gaming più tutto quello che servirebbe all'altezza spenderebbe 2000€ circa di scheda video. Più tutto il resto all'altezza arriverebbe a 3000€ o più e se 4k nativo (senza il trucchetto del supersampling) neanche raggiungerebbe adesso i 120 FPS ADESSO (appena uscito) figurati fra 3-4-5 anni, quanto dovrebbe durare un PC se non provassero a spennarci come polli più volte possibile a comprare sempre hardware nuovo ad un prezzo sempre più alto e che cambia poco in prestazioni rispetto al precedente. Si dovrebbe andare avanti per grandi upgrade a basso prezzo, cioè che con 1000€ devi avere tutte le cose migliori (scheda madre, RAM, processore, gpu e tutto il resto che serve) o almeno quelle che bastano per giocare a tutto ad ultra a 120 FPS almeno, o massimo 1600€ se ci devi mettere una smart TV da gaming. No che per una cosa sola spendi 1000€ o esageratamente peggio il doppio 2000€ (come fà Nvidia) o più. Già c'è chi non si può permettere di spendere 750€ di configurazione con tutto quasi figurati se costa da sola solo la scheda video 2000€ se se la possono permettere tutti. Ed i videogiochi non devono essere una passione per pochi ricchi se la dovrebbero permettere tutti o quasi. Poi questi prezzi secondo loro li dovremmo pagare tutti gli anni o quasi (o senò ci dobbiamo accontentare di abbassare la risoluzione il dettaglio grafico per non giocare al rallentatore con i giochi usciti dopo solo 2-3 anni da quando abbiamo comprato l'hardware) o comunque tra un pezzo da cambiare per aggiornare la configurazione/fare l'upgrade e l'altro dovremmo sempre stare a spendere e sempre di più. Guarda io non sono tirchio ma ho imparato che si dovrebbe dare a tutto il giusto valore a tutto anche alle passioni. tipo per un PC 1000€ non sono tanti ma neanche pochi per una TV 600€ non sono tanti ma non sono pochi per uno smartphone 450€ già sono veramente tanti per SOLO la GPU/scheda video 2000€ sono un esagerazione enorme chi accetta questi prezzi o è ricco o comunque può sprecare soldi. Mala cosa peggiore e che non fà solo male a se stesso al suo portafoglio ma anche agli altri che non se lo possono permettere perchè se le aziende vedono che vendono anche a quel prezzo visto che non c'è nessuna legge che vieta l'avidità chi glielo fa fare di vendere a di meno per chi non se lo può permettere.
Si vede ad occhio nudo che sia con l'FSR che con il DLSS l'immagine cala di qualità rispetto al nativo, tuttavia qualcosa per tamponare l'enorme calo di prestazioni dovuto al Ray Tracing dovevano farla ed ecco il DLSS...la cosa più grave è spacciare una scheda video non capace di dominare una determinata risoluzione a dettagli ultra e 60 FPS per una scheda capace di farlo xD
@@bubis976 Diciamo che uno degli obiettivi, per quanto riguarda il gaming, è stato sempre quello di puntare a migliorare sempre di più la grafica fino ad arrivare, ad oggi, grazie alle moderne tecnologie, ad un tipo di grafica molto vicina al fotorealismo, quindi ci sta implementare tecnologie che aiutino a raggiungere tale scopo come il Ray Tracing, inoltre il DLSS come l'FSR sono utili ad evitare comunque di scalare del tutto risoluzione per raggiungere i 30 o i 60 FPS, utile sopratutto per schede video un pò datate (sopratutto l'FSR), ma che l'abbiano buttata troppo sul marketing sono assolutamente d'accordo...non ha senso implementare il Ray Tracing su schede che a malapena riescono a far girare a 60 FPS un gioco come Cyberpunk a determinate risoluzioni (vedasi la RTX 3050), quindi si...era meglio evitare l'implementazione per il momento o quantomeno evitare di ridurrre il tutto ad una semplice manovra di marketing.
@@csgamer928 però RT allo stato attuale è l'esatto contrario del fotorealismo. Sarà un grande giorno quando le interazioni tra materiali e luci saranno rese in maniera naturale, al momento la considero una tecnologia interessante, perché da qualche parte si deve pur cominciare, ma ancora molto, molto acerba
@@giuliolenzoni428 Senza dubbio, al momento si tratta più che altro di rendere principalmente l'acqua uno specchio (il che di reale non ha nulla), ma appunto da qualche parte bisogna pur iniziare come hai detto anche tu 😁
@@csgamer928 il problema è che ti stanno vendendo come un plus una cosa che ammazza le prestazioni...e come un plus del plus una toppa a questo problema. Non so se ti rendi conto che Nvidia sta vendendo le 40XX dicendoti che il plus rispetto alle generazioni precedenti e la toppa più bella
Finalmente!! Qualcuno che parla chiaro! 👍🍾🥂🇮🇹 Lo dico sempre che questa è l'epoca del 1440p che deve ancora essere sfruttato a fondo! Il 4K in gaming oggi è SOLTANTO MARKETING!! Io gioco in 1440p tutto stramaxato con RTX e sto da dio con una 2070 SUPER: le 4000 sono inutili, come il 4K.
AHAHAHAA si infatti devo aver sognato visto che gioco in 4k 120 fissi e oltre con una 4090! nativi eh! Il DLSS serve in combo con il ray tracing geni! Sto video è senza senso. Con il ray tracing il gioco è già più bello di suo da vedere.
Il punto è che se io riesco a giocare maxato 1440p con una 2979 Super, tutta la questione 4K-8K-16.000K ( e chi più ne ha più ne metta) di Nvidia è principalmente marketing ultra spinto. Questi vogliono farci credere che pure Prato Fiorito abbia assolutamente bisogno di una 4090 Ti Super Ultra Mega OC !
@@clode721972 certo, e lo uso anche. Però con la consapevolezza che non è una marcia in più per la qualità (che, invece, viene peggiorata), ma per le prestazioni secche.
Ovviamente non sono mai stato convinto che migliora l'immagine, anzi, la peggiora, purtroppo... ora con il 3 si spera un po' meno. Sarebbe interessante un confronto tra il 2 e il 3 nelle stesse identiche condizioni.
Palese che peggiora l'immagine, chi crede il contrario è gonfio di propaganda. Se la capacità tecnica di una scheda è quella... La copertina è corta, o privilegi la qualità o i frames/s, non sarebbe neanche impossibile da capire. Pensare che si possano aumentare sia la qualità che i fps è da creduloni
@@giuliolenzoni428 io non sono un esperto e non sono un tecnico come Marco o altre persone, ho studiato economia ma non è che ci voglia tanto a capire la cosa eh... Basta ragionarci un attimo e Marco l'ha reso comprensibile a tutti. Purtroppo il marketing è uno strumento potente e le persone meno sveglie si lasciano abbindolare facilmente.
Ma chi lo ha mai detto che migliora l'immagine? é la prima volta che sento sta cosa. Lo sanno tutti che è uno strumento di upscaling quindi proprio per definizione non può essere migliore. Ovviamente, come dici anche tu, nella visione di insieme, senza zoomare o fermarsi a fare le pulci, con DLSS Qualità la differenza non si nota. Ingame nessuno noterebbe differenze. Poi se vuoi vedere dettagliatamente dove il dlss degrada i dettagli Digital Foundry fa video continuamente. Non usare il DLSS è uno spreco di energia e di risorse INUTILE!
L'unico utilizzo utile che mi viene in mente è per sfruttare una GPU quando inizia a non stare al passo coi requisiti minimi, già su una 3060 ora come ora mi tengo 60fps e sto contento (sempre usato vsync perché gli fps illimitati per me stressano solo la macchina più di quanto mi serva)
Ti ringrazio davvero per il tuo modo oggettivo e razionale nel trattare gli argomenti, girerò questo video a tutti i miei amici che non sono riuscito a convincere della, a mio parere "inutilità" di questa famigerata features del DLSS. A mio parere non ha nessun senso spendere migliaia di euro di monitor gaming 4K e hardware potente per poi non godere della risoluzione nativa. Se devo guardare un'immagine in 1080p, continuo ad usare il monitor Full HD.
Non c'è nulla di oggettivo in questo video. Totalmente soggettivo. Non si può parlare di DLSS senza menzionare il ray tracing. Un gioco già con il ray tracing è più bello da vedere. Pensi che cyberpunk sia più bello in 4k nativo senza ray tracing o con DLSS e ray tracing? La seconda fidati! Non è qualche inutile perdita di dettaglio in lontananza che ti fa preferire rinunciarci e non attivare il DLSS. Il DLSS serve in combo con il ray tracing ma ci arrivate?
@@massimocivita7288 Veramente il DLSS ed il Ray Tracing sono due caratteristiche che possono essere attivate e disattivate singolarmente, è una tua considerazione il fatto che dipendano l'una dall'altra, cmq mi piace il fatto che tiri in ballo il Ray Tracing e poi sottolinei l'inutile perdita di dettaglio nel DLSS, sono due cose che si accomunano molto. Cmq da appassionato di PC da oltre 20 anni ti posso dire che nel gioco ho sempre puntato ad aumentare la qualità, la risoluzione, il DLSS serve a chi non ancora non si rende conto che per giocare ad alte risoluzioni e qualità, serve solo Hardware che può permetterlo.
@@cristianzuccari4737 Attivare il ray tracing singolarmente non ha alcun senso e metti in difficoltà anche una 4090. Non è una mia considerazione, nasce per quello il DLSS, per aiutare con il ray tracing che se vi ricordate con le 2000 all'inizio era ingestibile se non a 30 fps in 1080p! Poi che si possa attivare da solo è un altro conto. La qualità visiva te l'aumenta il ray tracing per tutto quello che vedi. Non conta solo la risoluzione ragazzi. Per farti l'esempio il ray tracing che hanno aggiunto su the witcher ti aggiunge pure l'occlusione ambientale in RT e ti assicuro che ti migliora la grafica eccome. L'importante è che il DLSS non ti faccia crollare la risoluzione ma non mi pare che giochi a 720p.
@@massimocivita7288 Quando vi renderete conto che alcune features che vengono spacciate per nuove tecnologie sono solo operazioni di marketing, ne usciranno altre nuove e più interessanti che serviranno solo per convincervi a comprare un'altra scheda video che casomai stavolta supererà i 3000 euro.
@@massimocivita7288 sicuramente senza RT, vivi forse in un mondo di luci sparate e superfici lisce e lucide? Praticamente queste condizioni le trovi solo in un autosalone!! Non ti devi giustificare se hai speso quasi 2k di sola VGA, se a te non dispiace niente di male. Ma non far passare gli altri per fessi se non vedono niente di eclatante in una tecnologia che al momento, di fatto, impatta in modo determinante sulla qualità, a margine di aumenti di fps marginali.
Dipende anche da gioco a gioco. In genere dlss renderizza l immagine a una risoluzione inferiore e la upscala... (fortnite su quality gira a 66percento di risoluzione, bilanciato al 57 e performance al 50) Ma se provi a giocare davvero a risoluzione inferiore e inguardabile l immagine... Invece col dlss risulta molto godibile, soprattutto su qualità, e in movimento non si notano proprio quei piccoli dettagli che perdi. Quindi per me e utile per aver piu performance piuttosto che abbassare troppo i dettagli o risoluzione. Lo stesso vale per i settaggi estremi, che semplicemente abbassandoli di un pelo l immagine risulta praticamente uguale e si han molti piu fps
Sono d'accordo con te. Il DLSS è sicuramente uno strumento utile, ma non migliora l'immagine, anzi, la peggiora, magari non troppo ma la peggiora. Io per esempio cerco di evitarlo quando posso e devo dire che fin ora ho dovuto abilitarlo solo su Cyberpunk, avendo una RTX2060 se abilito il ray tracing, pur giocando in full hd devo usare il DLSS su questo gioco. Per il resto mai avuto bisogno, anche perché non mi interessa avere per forza più di 60 FPS, mi basta un'esperienza di gioco fluida. Ho giocato Metro Exodus in 1080p ultra con ray tracing attivo, senza DLSS, stando tranquillamente sempre sopra i 40 FPS, arrivando certi momenti anche a toccare i 60. Stesso dicasi per Control, anche quello dettagli al massimo e ray tracing attivo. Su questi giochi, personalmente, fare 40 FPS anziché 80 non mi interessa, preferisco godermi la bellezza delle immagini, che in effetti col DLSS un po' si perde. Su un gioco pesante come Cyberpunk mi ha permesso di giocare perfettamente fluido con i settaggi ultra sia di impostazioni grafiche che di ray tracing, facendo una media di 40 FPS, e qui, devo dire, si vede la sua utilità. Anche perché, ho confrontato la qualità delle immagini con il 720P ed è decisamente migliore con il DLSS quality in 1080p. Quindi, fra un 720p nativo e un 1080p con DLSS quality, personalmente preferisco il secondo. Tant'è vero che sono riuscito ad avere una bella esperienza di gioco lo stesso, una volta che ti immergi, ti lasci coinvolgere e non ti soffermi sui dettagli dell'immagine, il godimento c'è! E l'importante è questo! Indi per cui, ok al DLSS in alcuni casi in cui non posso farne a meno, apprezzabilissimo che NVidia lo abbia brevettato e messo a disposizione dei suoi clienti, ottimo lavoro di sviluppo da parte loro (come sempre su questo fronte), ma da qui a dire che migliora le immagini, manco per sogno e se lo dicono alle conferenze, allora sì, senza dubbio, si tratta di puro e semplice marketing. Almeno, la penso così e mi trovo d'accordo con Marco a riguardo.
La peggiora? Su qualità è praticamente identico. Sto video non ha senso! Da come parla sembra che si passa a giocare a cubetti! La resa visiva generale se lo usi in 4k + ray tracing è fantastica e lo vedi anche da questo video in cui va con la lente di ingrandimento a notare differenze.
@@massimocivita7288 ovviamente non si tratta di un grande peggioramento, a livello di resa alla fine è ottimo, specialmente se si gioca in 4k, in full HD già si vede di più la differenza, in 4k quasi no. Ma dire che la migliora no però.
@@gianlucag2466 Migliora no, però mi sembra abbastanza senza senso notare certi dettagli con lo zoom quando poi mentre giochi non li noterai mai. In 4k + ray tracing il dlss qualità tipo cyberpunk è pazzesco come resa! Nei giochi in cui vale la pena mettere il ray tracing al massimo il DLSS è tanta roba ecco.
@@massimocivita7288 ma infatti il DLSS è un'ottima tecnologia, soprattutto alle risoluzioni più alte e con il ray tracing. È sul "migliorare"che non sono d'accordo :)
Apprezzo davvero tanto l'approccio "freddo" ed oggettivo con cui tratti gli argomenti, portando per ciascuno tesi ben discusse ed ampie. Posso solo immaginare il grande lavoro dietro ogni video... Continua così!!! 😉
Ma oggettivo de che! Video senza senso! Parlare del DLSS senza manco citare il ray tracing. Serve a quello il DLSS, in combo con RTX senno logico che è quasi inutile.
@@massimocivita7288 ? RayTracing per l'illuminazione, DLSS per il dettaglio...Non sono collegate le 2 cose
@@FixLuke Visto che nel video sminuisce il DLSS facendo notare perdite microscopiche di dettaglio con lo zoom ti rispondo dicendo l'ovvio, ovvero che è il ray tracing che ti alza la resa visiva e non è una perdita minima di dettagli sullo sfondo (sottolineo insignificanti) che ti fa dire ohhh adesso cyberpunk me lo gioco in 4k nativo senza ray tracing, perchè è 100 volte più bello da vedere con RTX attivo.
il nostro marco non se la tira come altri. devo dargli atto che sia stato se non il primo ,comunque uno dei primi ad apprezzare le rx 6600 e ad insistere con la gente che era un affare acquistarle. acquistata rtx 2070 super pagata 500 euro all'epoca per poi scoprire che l'rtx è solo pubblicità.soldi buttati.
@@massimocivita7288 ti rendi che quanto dici non ha un gran senso cioè per compensare un algoritmo di calcolo illuminazione che pesa come un macigno e non fa manco tutti sti miracoli faccio un sistema che illude la gente che la propria gpu fa i miracoli in 4k la realtà è che quello che fa il dlss lo puoi fare anche tu abbassando la risoluzione per sommi capi... poi tutti stanno andando in quella direzione perchè amd con fsr e intel con xess ma è un prendersi in gir per dire io con una 2060 (mettici qualsiasi altra scheda se vuoi) gioco in 4k 60-100fps con rt on a cyberpunk...
Ciao Marco, video ben analizzato in modo chiaro e con immagini esplicative.
Bello anche il tuo esempio da operatore di diagnostica per immagini, dove una sfocatura o meno fa la differenza per la vita di una persona!
Certo è che, come detto, mentre giochi, nella confusione, i dettagli non ti puoi soffermare a vederli (o giochi o guardi) e quindi nell'insieme il risultato è gradevole, sempre con le dovute riduzioni da parte del software.
Finalmente un video che mostra in modo chiaro e semplice cosa è a tutti gli effetti il dlss. Dsll/Fsr etc sono strumenti software per creare l'illusione che le schede siano più potenti di quanto in realtà non siano, io Uso Fsr in qualità Ultra in Horizon 5 solo per un motivo: perché ho visto che la mia 6800 consuma la metà e Horizon non è un gioco che ti cambia la vita in 4 k nativo
IL video chiaro di cosa è a tutti gli effetti il DLSS non è sicuramente questo XD
Vatti a vedere quello di Alex Battaglia di DF che è davvero un altra pasta,su dai siamo seri per una volta.
Ne ha fatto pure uno per il dlss3 della serie 4000
( a prescindere dalla bontà o meno di dlss all'immagine sia chiaro )
Chi lo usa da tempo su monitor 4k sa benissimo cosa fa e quali sono i piccoli difetti a fronte degli enormi guadagni prestazionali.
Chi nn ce l'ha e nn lo usa o magari gioca su monitor 1080p e si aspetta mirabolanti risultati eh beh... parla e basta.
@@Sanosuke-Sagara ovviamente un video chiaro per un approccio adatto alla maggioranza degli utenti TH-cam i quali si confrontano con dei video che già perdonò di qualità a causa della compressione che ne viene fatta, certamente ci sono video ( come quello che tu citi) con un taglio più professionale e approfondito, che più tardi mi accingerò a vedere
Tu e saddy siete gli unici a portare contenuti fuori dal coro.
Questo video in cui parli di immagini rumorose per quando riguarda la diagnostica tipo RMN è top.
Con le basse dosi ..... molti ospedali non hanno neanche la possibilità di usare basse dosi.
Ne so qualcosa!!!
Per me siete i migliori!!
Ciao Marco sono un tuo collega Tsrm e mi e piaciuta molto l' analogia con le immagini in diagnostica. E per di più gli algoritmi su sistemi Tac costano 20000 €. Un mio vecchio primario guardando queste immagini si compiaceva che riusciva a ridurre la dose del 60-70% ottenendo la stessa qualità delle immagini, fino a quando su una piccola emoraggia subarcacnoidea falsava talmente tanto l' immagine che non era possibile fare diagnosi. Morale della favola nel complesso le immagini trattate con algoritmi macroscopicamente vanno anche bene, ma quando vai nel dettaglio trovi le magagne. Ciao Marco
Basta usarle quando non cerchi roba critica, come appunto un'emorragia nel cervello :p C'è cmq da dire che gli artefatti mica li introducono solo gli algoritmi di processazione, c'è una marea di fonti di rumore in un esame radiologico :p
@@donizettilorenzo si e giusto quello che dici però non mi puoi "vendere" un algoritmo che ti migliora l immagine come un miglioramento effettivo dell' immagine. La stessa cosa nei gaming. E marketing ingannevole, stai pagando 20000 € in radiologia un programma che ti prende per i fondelli. La stessa cosa la fa Nvidia vendendoti la 4070 ti a 1000€ con dlss 3 dicendoti che e 3 volte più potente di una 3090ti in ray tracing.
@@leuciosavoia3971 C?è da considerare che l'immagine è "migliorata" RISPETTO al temporal antialiasing "ignorantone" che blurra a manetta :p Una delle cose che è difficile cmq far passare è che si tratta di una soluzione TEMPORALE e non solo spaziale, ed esiste apposta per eliminare jittering e shimmering legato alla SUCCESSIONE dei frame, non tanto l'aliasing del SINGOLO frame. Per il singolo frame la soluzione migliore resta l'MSAA (ma non è sempre possibile implementarlo, tipo nel deferred rendering sarebbe pesantissimo) oppure il classico downsampling da risoluzione ancora più elevata......
@@leuciosavoia3971 il fatto è che bisogna trovare un trade off. Non si possono bombardare i pazienti con dosi astronomiche, ed inoltre se il sensore non ha una elevata risoluzione spaziale i dettagli neanche con dosi astronomiche li becchi, dato che la dose aumenta il contrasto dell'immagine. Quindi ai limiti tecnologici, quali l'impossibilità di ridurre le celle dei sensori e l'impossibilità di aumentare la dose, necessariamente devono essere introdotti stratagemmi software. Come sono introdotti proprio nella ricostruzione originale dell'immagine. In tac per esempio, senza la parte software di ricostruzione immagine, quello che arriverebbe ai sensori sarebbe illeggibile così com'è. Per quanto riguarda le azioni di post processing dell'immagine, lì il software dovrebbe presentare sia l'immagine originale sia quella processata e poi sta alla sensibilità del radiologo/tecnico di radiologia utilizzare il software come adeguato strumento di supporto.
Vedo che qui è nata una discussione molto interessante! Ovviamente non confondiamo le due cose, il DLSS nel gaming ha poco a che fare con i limiti delle metodiche che usiamo noi a lavoro. Il mio era solo un esempio per spiegare un concetto fondamentale quando si parla di immagini, in qualsiasi campo di applicazione. Il concetto è semplice: se l'informazione non c'è perché l'immagine è quella...qualsiasi stratagemma per migliorare l'immagine è fine a se stesso. Nel caso del DLSS a mio avviso è palese: le immagini vengono migliorate a partire da risoluzioni inferiori e questo crea delle "simil immagini" che hanno una risoluzione di contrasto tale da emulare un 4k...ma 4k non sono. Quindi sebbene è uno stumento che può tornare utile...chiunque mi venga a dire che il risultato di un upscaling (sia pur con super sampling) sia "migliore" del 4k nativo, commette un errore concettuale di base.
Bravissimo OTTIMO VIDEO...argomento che andava trattato 👍...
Il DLSS crea dettagli tirando a indovinare, quindi meglio una bella sega! Però ha i suoi vantaggi, tanto sempre di computer grafica si tratta.
Le differenze ci sono, come deve essere. Se acquisisci una immagine a 1080 e poi la ingrandisci, anche se utilizzi tecniche di interpolazione per aumentare artificialmente il numero di pixel, inevitabilmente l'immagine non potrà essere come una 4k nativa e sarà più sfocata. È ammirevole come con dlss quality le differenze con nativo siano davvero minime, mentre più marcate con dlss performance. Il lavoro fatto da nvidia è gigante, ed in ambito gaming in cui le scene sono molto movimentate è difficile accorgersi delle differenze se non ci si sofferma. Da dottorando in intelligenza artificiale applicate alle immagini mediche non posso che apprezzare il lavoro di nvidia, e capisco bene che la perdità di dettagli nell'effettuare una diagnosi sia pericolosa in ambito clinico.
Facciamo quasi lo stesso lavoro, nel senso che io faccio istallazioni manutezione ect ect di apparecchiature ray x ospedaliera , tu sei un tecnico :) :) ecco perche sei cosi intelligente , complimeti sei uno dei pochi a dire la verita' ed a dare consigli utili ....io oggi mi chiedo tra due anni continuando su questa strada quanti ancora avranno voglia di farsi un pc da game , la vedo dura ....sei un grande
Semplicemente , Complimenti !!! se avevo dei dubbi sul DLSS con questo tuo video mi hai tolto tutti i dubbi. Grazie mille
ciao,mio ragionamento,se' abbiamo un processore "blasonato" sul tv,non possiamo demandare a lui l'upscaling?.possiedo un oled 120 hz 4k preso x fare da monitor.
Ottime osservazioni. Grazie mille per la spiegazione.
Completamente d’accordo e aggiungerei una cosa: la differenza si vede soprattutto con le immagini in movimento, anche se la qualità a telecamera ferma sembra uguale poi quando ti muovi finisce tutta la magia con aloni e sbavature varie. Poi ovviamente ci sono giochi che lo sfruttano meglio di altri, però in media per la mia esperienza e gusto devo dire che non mi piace, preferisco abbassare un po’ i dettagli e giocare a risoluzione nativa.
5:40
Allora ho una domanda,ho un laptop 4060 con schermo 1080p,quindi vuol dire che è inutile che uso il dlls?
Sul fatto dei frame per quanto siano generati io personalmente vedo un margine di miglioramento anche in termini di lag,tipo non ricordo se si chiamano spikes,comunque senza dlls su alcuni titoli andavo a 120 e di botto calo a 30 per poi risalire a 120,con il dlls no,quindi un minino miglioramento lo vedo
Poi sul fatto che migliora l'immagine,no non è vero io con uno schermo 1080p vedo la sfocatura del terreno se uso il dlls
Non per fare il professorino ma il ghosting è un fenomeno che si vede in MOVIMENTO (è legato al campo di spostamento e all'inseguimento di parti dell'immagine) :p Quello mostrato in UN singolo frame è appunto normalissimo blurring legato alla bassa risoluzione. Cmq qualsiasi AA (anche il classico MSAA 8x che non va a toccare la risoluzione dell'immagine ma fa subsampling prelevando luminanza e crominanza dei pixel a "griglia" ) introduce inevitabilmente del blurring, dato che sono tutti filtri passa-basso per loro stessa natura. Non può esistere nessun tipo di AA che "migliori" il dettaglio, semplicemente rende più dolce l'immagine. Però può capitare il caso che PRIMA di applicare il filtro venga abbassato il grado di mipmap delle texture (cioè usi la texture a maggiore dettaglio) e questo "pareggi" in qualche modo il degrado dell'immagine legato al blurring. Infatti uno dei problemi delle VECCHIE tecniche di AA (quelle di 20 anni fa come il primordiale FSAA/SSAA ma che nulla vieta di usare ancora oggi) era dover forzare questo passaggio e non era possibile a volte senza introdurre problemi nel rendering. Cmq è ben difficile che il DLSS sfumi di più dell'FXAA (nato per XBox).....il vero problema è che alcune parti "generate" dell'immagine dall'AI sono proprio insensate, anche se in Nvidia sono stati bravi a minimizzare la cosa entro limiti accettabili.
Fortunatamente durante un gioco le immagini sono in movimento.
Detto questo ho notato che la perdita di qualità dipende molto anche dal singolo videogioco, in alcuni si ha più perdita di dettaglio, in altri meno... Detto questo, quando lo uso riesco solo ad usarlo in modalità qualità (e, nonostante abbia un 13900k + 4090 e gioco a 3440x1440, in alcuni giochi "devo" usarlo, dato che, soprattutto gli fps, sotto i 100 fps mi creano una sensazione di nausea 🤢... Inoltre, con le. Schede attuali, se si vuole usare RT è, purtroppo, indispensabile per avere performance sufficienti )
I difetti del dlss, si notano oltretutto nelle zone di fitta e dettagliata vegetazione minuziosa, dove è più marcato l'effetto sharpening e il flickering. Il dlss è, e rimane, uno strumento per migliorare le prestazioni... nasce per questo.
Se non ci si fa mangiare dal marketing Nvidia si capisce perfettamente che è uno strumento da utilizzare solo in 2/4k e solo per avere più FPS senza avere lo stesso downgrade grafico di un upscaler qualsiasi. Non fa miracoli ma fra tutti gli upscaler disponibili non credo di dire una boiata dicendo che è il migliore. Personalmente l'ho provato su uno schermo in 2k su un paio di giochi e per quanto sia evidente se ci si ferma a fissare un punto devo dire che funziona abbastanza bene.
@@massimovolpe1343 Non si butta niente, però effettivamente non si può dire che migliori o rispecchi fedelmente l'immagine a risoluzione nativa.
Sempre stato convinto che il DLSS non possa migliorare la qualità di immagine a parità di risoluzione finale , il confronto va fatto stabilendo due cose
1: numero uguale di FPS degni di essere usati magari tipo 60fps,
2: un dettaglio di sfuocatura accettabile come hai mostrato sul fondo dato da un 1080P, paragonabile ad un 4K con DLSS
Una volta che hai queste due variabili alla pari , se quest'ultimo (DLSS+Raytracing) ti permette di maxare ed accendere il raitracing ed ogni grazia diddio, be il tuo bel guadagno grafico lo hai nell'impatto generale della scena realismo e mazzi e caghzi..
Sempre pungente Marco ti adoriamo!
Ma il problema cambia in base a come lo.sviluppatore del.gioco implementa il.dlss nel proprio gioco o una volta che è implementato il dlss l' ottimizzazione non c'entra nulla ?
Grazie finalmente una spiegazione del DLSS all'altezza di chi non è del settore.
ragazzi ma con ryzen 3900x e 6950xt possibile che si possa fare 125 fps su wrz2.0 3440x1440. a me sembra strano.....(dettagli tutto basso)
La pura verità!...ci hanno fatto diventare ossessionati dall' fps e dalla risoluzione!! Per non parlare che a monte della realizzazione grafica dei giochi, si utilizzano Software 3d per modelling e texturing, che utilizzano tecniche di surfacing multy texures con annessi i loro filtri per ogni layer di tutte le superfici 3D in scena. Immaginate quante volte questi pixel vengono filtrati con algoritmi specifici e poi Renderizzati sottoforma di immagine 3D in movimento. E' alla fine della catena, c'è il Deep Learning Super Sampling (DLSS)... che ingrandisce tutto come dei cartelloni stradali ;D
Grazie, chiarissimo, mi ha aiutato tanto a capire qualcosa che non avevo considerato e a puntare più su una GPU performante rispetto a una più tecnologica, 3070 vs 4060 ti.
La chiave della qualità del DLSS2 è l' antialiasing: si sostituisce a quello originale dell'applicazione.
Se ti sembra meglio un'immagine col DLSS2 è perché nativamente, il filtro AA è scarso (FXAA, MSAA o peggio).
Anche un upscaler spaziale (FSR,NIS) dà un buon risultato se nativamente c'è un'immagine "pulita" (es con l'ottimo filtro TSR).
A ruota anche FSR2 e XESS sostituiscono l'AA nativo.
Difficile che QUALSIASI implementazione anche idiota (quella base) dell'MSAA sia "peggio". FXAA e SMAA introducono pure loro artefatti - si chiamano filtri morfologici per quello - come il DLSS. Mi raccomando non confondene MSAA con SMAA, sono 2 cose completamente diverse (ma tanto tanto diverse :D ). Al massimo l'MSAA è conveniente qualitativamente solo dal 4x in su, cosa che lo rende pesantissimo all'atto pratico e inutilizzabile a 4K (ma se uno prende un monitor 24" 4K non ha bisogno di AA di nessun tipo......basterebbe fare le scelte giuste a monte a volte :p ). FXAA e SMAA sono ancora buoni se non c'è troppo aliasing temporale (detto anche shimmering), il DLSS infatti nasce per sostituirsi al TAA e non agli AA legati al singolo frame. Considerate che a risoluzione alte funzionano molto bene entrambi (ma ovviamente pesano di più e si finisce quasi per perdere il vantaggio sull'MSAA almeno quando viene usato il forward rendering)
Esatto, magari la qualità non è la stessa di quella nativa ma l'antialiasing usato nella maggior parte dei giochi, soprattuto se in full HD, mi da' l'impressione che crei una netta separazione fra le texture, mentre abilitando FSR2 si ottiene una maggiore "uniformità" nell'immagine. Nei giochi supportati terrei attivo L'FSR2 anche senza l'aumento delle prestazioni che comporta.,
complimenti per la spiegazione dettagliata.bella recensione.
Unico video sensato sul DLSS, complimenti.♥️
E non solo ci sono problemi di definizione, in giro ho visto delle immagini di spiderman ricostruite dal dlss a cazzo di cane contenenti veri e propri artefatti ... certo l'occhio umano in gaming verra' ingannato e avremo l'illusione di un miglioramento, ma questa tecnologia deve essere ancora migliorata e comunque e' ovvio che una copia non potra' mai rivaleggiare con l'originale (il 4k nativo). Chiaro e esaustivo come sempre ... bravo Marco.
Il dlss non mi aveva mai convinto preferivo abbasare il livello grafico mantenere la risoluzione nativa
Parole sante, non ha senso "maxare" o cercare i 4k e poi farsi abbassare la risoluzione (male) da un algoritmo
Ciao marco,io nn ho mai avuto un pc gaming,ma semmai lo comprero' ci mettero' una bella gpu di amd,ma con una 7900xtx o xt posso giocare in 4k tutto ultra senza problemi?
ottima descrizione ... come sempre ... continua così!
Ho una domanda sto aspettando che si trovino più castom delle 7000 e che magari scendano un po' i prezzi!! Ma posso tenermi il 5600x so che cambiando avrei delle prestazioni migliori ma il costo non è indifferente non penso ci sia così tanta differenza cambiando con la nuova gen sia Intel che AMD e solo una gen!! Mi confermi magari vedo come va e poi la faccio in un secondo momento
hahahahaaha come sempre GRANDE!!! con queste che ho visto sono ancora più contento di aver scelto la mia rx 6650xt hehehe
Ho appena ordinato una 4070ti in sostituzione della mia 1080ti, proprio per provare RTX e DLSS3. Considerando che gioco in 2K, forse la qualità dell'immagine non calerà moltissimo con il DLSS, ma con il Raytracing attivo sarà difficile tenerlo spento. Penso che con il tempo miglioreranno sempre di più il DLSS ma la qualità di una risoluzione nativa è inarrivabile come dettagli.
@Jacopo Accogli si la qualità di un immagine in 4k è sicuramente superiore, ma il dlss usa un immagine in fullhd come origine, per poi upscalarla alla risoluzione del monitor, migliorandola con l' IA. Se la risoluzione del monitor è 2k, dovrà upscalare meno rispetto al 4k e dovrebbe guadagnarne in prestazioni no? Anche se la qualità dell'immagine è sicuramente inferiore ad una in 4k, per me la risoluzione 2k è un ottimo compromesso tra qualità e numero maggiore di fps rispetto al 4k
@Jacopo Accogli ho capito, quindi su un monitor 2k attivando il dlss la qualità calerà di sicuro, ma la risoluzione rimarrà la stessa, quindi non essendoci un eleborazione per doverla adattare al 4k, il numero di fps dovrebbe essere maggiore
@Jacopo Accogli ok quindi su un monitor 2k, il DLSS fa un upscaling usando una risoluzione fullHD come sorgente. Mentre su un monitor 4k, il DLSS usa una sorgente qhd (2k) quindi con più dettagli da elaborare per l'upscaling verso il 4k. Grazie per la spiegazione
concordo pienamente!! il dlss peggiora sempre la qualità, in alcuni giochi la perdita di qualità è molto alta...anche se si sceglie la modalità qualità. Chi si ostina del contrario sa benissimo di mentire. spesso a supporto vengono mostrate immagini statiche, ma la perdita di qualità si nota molto in movimento. Per esempio in MW2 anche in modalità qualità si nota molto. Ho una 3080 pertanto non attivo mai il dlss salvo cyberpunk... farebbero meglio ad essere sinceri. Questo non vuol dire che il dlss non sia una tecnologia valida, ma che a scpito della qualità permette anche a schede meno potenti di godersi comunque giochi pesanti con frame rate ottimi.... ciao e sempre molto chiaro e preparato!! ciao
Ma mentire cosa, prova red dead 2 qualità DLSS qualità su un oled poi ne riparliamo. Prova the witcher 3 e dimmi che cazzo cambia dal 4k nativo se imposti il dlss qualità e dlss 3 frame generation. Quasi non lo distingui e faccio 100 e rotti fps con una 4090 + ray tracing che già di suo ti migliora tanto la qualità visiva! Mettersi li con la lente notando dettagli che in game non noti non dimostra nulla. Sto video dimostra che anzi devi andare con lo zoom per notare differenze reali. Fa passare il DLSS che è una grande innovazione tecnologica come un becero upscaling quindi video evitabile per me.
Difatti io su mw2 ci gioco con un 3200g con fsr
@@massimocivita7288 provato, sia in rdr2, che CP2077 che horizon zero dawn. Fa cagare rispetto la nativa. Punto.
questa è una disamina molto professionale delle immagini, veramente complimenti del lavoro, queste si che sono valutazioni obbiettive dei risultati ottenuti da questa tecnologia
Una domanda mi viene:
Se attivo il dlss e i rendering sono in 1080p ci può essere collo di bottiglia da parte del processore ( cpu)?
Mi spiego meglio farei gli stessi fps che può raggiungere la cpu in 1080p?
Grazie
Se renderizza internamente in 1080p la cpu avrà il carico di un 1080p
Ma onestamente sotto al 4k di destinazione nn lo userei mai il dlss.
Bellissimo video Marco davvero complimenti perfettamente spiegato e dettagliato continua così 🔝🔝💪🏻
In questo periodo ho fatto non so quante risonanze a saperlo chiedevo al tecnico se usavano il dlls
Io avrei una domanda :quando si va ad utilizzare il DLSS nei giochi on-line, (essendo una post elaborazione) c'è un aumento Dell imput lag nei comandi rispetto a giocare a risoluzione nativa? Grazie per la risposta.
Sì, ma dipende da gioco a gioco.
Hai ragione, nvidia sta puntando molto sul dlss e non sulla potenza di calcolo effettiva di ogni scheda... Gioco in 2k con una rtx 3070 e se disattivo il dlss in qualche tripla a scendo al di sotto dei 60fps. Mi chiedo... Ma è possibile che una scheda come la 3070 non riesce a gestire il 2k nativo anche nei titoli piu esigenti?, Forse era meglio restare in Full HD nativo con la stessa scheda così almeno ti dogevi la risoluzione nativa con prestazioni elevate.
E' il discorso dell'uovo e della gallina che facevamo pari pari ai tempi delle prime GTX (le 8800 nel 2006): "perchè diavolo hanno inventato 1920x1080, si stava così bene a 1024x768" :D (infatti le 8800 non riuscivano a fare miracoli in FullHD con i titoli del 2006, però prima o poi il salto andava fatto, non fosse altro che la produzione dei pannelli dei monitor veniva così unificata fra PC e TV riducendone parecchio il costo)
Bel video davvero, complimenti!
Ma è cosi anche per il 3.0 o solo 2.0? Questo problema è meno visibile a risoluzioni inferiori?
Ottimo video, grazie!
Si un grande, è una vita che lo ripeto ai fan boy nvidia, e io sono un felice possessore di una 2060 che proprio grazie al dlss passo dai 90 ai 140 fps su cod in 2k, ma è palese che sto perdendo dettaglio, cosa che nel multi mi interessa poco o niente, conta di più la fluidità, ma oggi come oggi spendere tanto per avere una scheda che va forte grazie al dlss non ha davvero senso. Bisogna preferire sempre la qualità originale dell'immagine, il resto è solo un accessorio in più e basta.
Ciao Marco, grazie per il video, magari servirà a qualcuno per accendere un po' il cervello soprattutto in fase d'acquisto.
Personalmente gioco in 1080p su un 24 pollici a 144 Hz con Freesync e non sento assolutamente il bisogno ne di salire di risoluzione ne di utilizzare metodi di upscaling dell'immagine.
Ho una rx580 ed ho avuto modo di provare sia FSR 1.0 che 2.0/2.1. Trovo praticamente del tutto inutile utilizzare questa funzionalità perché in FULL HD la perdita di qualità è evidente e l'aumento di framerate è marginale se si tiene l'FSR su qualità.
I giochi su cui ho provato FSR sono Hellblade: Senua's Sacrifice, Red Dead Redemption 2 e Uncharted 4.
In tutti e 3 i giochi ho fatto screenshot a risoluzione nativa confrontandoli con i medesimi screenshot con FSR e le differenze si notano eccome.
Magari il DLSS è un po' meglio, ma per chi come me gioca in FULL HD dovrebbe lasciar del tutto perdere queste features perché basta una buona GPU per gestire i giochi al massimo dettaglio avendo un'ottima fluidità.
Nel mio caso la rx580 ormai è alla frutta, a breve cambierò configurazione, ma come sempre comprerò la miglior GPU in relazione al mio budget indipendentemente da che algoritmo di upscaling supporti.
Ma anche avendo la rx580 non ho utilizzato mai FSR in quanto se proprio necessito di un po' di frame in più a quel punto tanto vale abbassare qualche dettaglio grafico del gioco piuttosto che impastare tutto avendo una qualità dell'immagine nettamente inferiore.
Attivare un filtro di upscaling per ARRIVARE a 1080p significa immagine nativa sotto il fullhd...a questo punto meglio una PS4 su un TV con uno scaler di qualità
Sono passato da un monitor Ultragear 2K a un oled C2 da 42" 4K. Grazie alla sua densità per pixel spropositata ho avuto finalmente modo di apprezzare il DLSS. Prima (con l'Ultragear) la perdita di dettagli era già evidente in qualità, ma con l'Oled ha cambiato totalmente comportamento. La differenza è abissale e dire che il DLSS degradi troppo la qualità è vero ma fino a un certo punto: dipende da quale dispositivo d'uscita video si utilizza. Prima lo tenevo sempre disattivato, adesso invece è un obbligo, per assurdo in termini di aliasing e qualità complessiva l'immagine è migliorata (su preset Qualità e Bilanciato).
Purtroppo in molti investono su rig costosi e utilizzano monitor che annullano di fatto qualsiasi qualità intrinseca dell'hardware. Il DLSS funziona in maniera efficace su pannelli (ahimé) costosi, non è assolutamente solo marketing, ma nel 90% dei casi il degrado è evidente.
Per me l frs/dlss è un modo per innalzare la vita della propria scheda video, il gioco X va a 50 ma se attivo frs/dlss arrivo a 70 cambio la gpu tra un anno; oppure per chi, di tanto in tanto, usa un tv 4k e deve far girare qualcosa ogni tanto, ad esempio il Spiderman l'ho giocato a 1440p su monitor e su Tv 4k ho attivato l frs, uno perde qualcosa di qualità però niente di trascendentale.
grandissimo marco una spiegazione con i controcazzi e nonostante ciò vedo nei commenti che ci sono tanti idioti che non hanno capito. Capiamo ora perchè invidia punti tutto su questi giochi di prestigio il mercato è pieno di polli incompetenti e allora sai che si fa? evviva i polli che strapagano per queste illusioni e vedere la pipì del cane più lucida. Che beoti continua così e non ti curare di loro non valgono nulla....
E certo perchè il ray tracing è la pipi del cane più lucida certo! Il DLSS serve per quello è, per il ray tracing e sto video manco lo dice ma preferisce fare lo zoom sulle immagini dimostrando differenze quasi nulle. Si si sei mejo te, siamo tutti polli!
@@massimocivita7288 ma scusami io vorrei farti una domanda, ma tu ci giochi sul pc o guardi i documentari? perchè nel primo caso se giochi sei concentrato su quello e tutte ste cagate di dettagli manco ti sogni di vederle, differenze sugli sfondi o altro. se invece vedi un film o un documentario seduto comodo apprezi ogni minimo dettaglio. Quindi il succo è avere un gioco ultra lucido con RT attivo che abbassa di brutto gli FPS e poi avere il magheggio del DLSS che riduce la qualità per aumentare nuovamente gli FPS non ti senti preso per il culo? Sei sicuro che sta buffonata giustifica i prezzi fatti da NVIDIA? Se vi accontentate di buttare i soldi per avere questi effetti padronissimi ma se volete far passare tutto ciò come una strabiliante innovazione tecnologica mi sa che siete fuori strada. Con tutto rispetto ogniuno spende i soldi come vuole ma la realtà non si può nascondere..
Perdona la considerazione: non potevi sapere prima il prezzo e i cuda core nvidia.
E da quel che ho visto la 6800xt costava di piu di una 7800xt oggi
Totalmente d’accordo con l’analisi, e credimi secondo me è praticamente e matematicamente ovvio (anche se non conosco l’algoritmo da cui nasce il tutto). Io gioco in QHD e posso dirti che però in modalità qualità è davvero difficile notare le differenze. Per il resto “applausi” 😊
Finalmente qualcuno che dice che il DLSS non è così una manna, ho un monitor WHQD e sinceramente dove posso il DLSS lo disattivo perchè rende l'immagine più nitida e meno blurry rispetto agli Anti Aliasing tradizionali ma a livello di dettaglio si perde moltissimo.
Ad esempio cyberpunk 2077 l'ho giocato tutto DLSS off perchè su on si perdono un sacco di dettagli, probabilmente su un monitor 1080p si noterebbe di meno, boh non sono un esperto di imaging ma solo sensazioni personali.
Bravissimo, mi sono iscritto e ho commentato con un like a questo video, che spiega la pura verità MOSTRANDO LE IMMAGINI in modo perfetto!
Mi sono accorto sin dalla prima volta in cui ho attivato un algoritmo di AA di questa tipologia che alla fine è come se fossi diventato miope all’improvviso.
Per esempio su un video gioco come warzone 2 se attivi il dlss che sia qualità prestazioni bilanciato ecc si è vero ti dà qualcosa in fps ma inizi a vedere veramente sgranato (uso il 1080) perciò forse il dlss è raccomandato solo su 2k in questo caso, in altri giochi non so
Anche io utilizzo un monitor 1080p - 360 hrz abbinato ad una MSI 3080 suprim X. Chiedo per poca conoscenza: come sostenuto da Marco, dato per certo che l'immagine peggiori rispetto a quella nativa, avrebbe comunque senso attivare il DLSS per compensare gli hrz del monitor ed avere una percezione di maggior fluidità?
@@nKsealtierone che cpu hai? Quanti FPS fai al momento e come hai impostato la grafica ? Ovvero texture-qualita streming
@@nKsealtierone giocando in 1080 ed usando il dlss andresti a peggiorare Ancora di più l'immagine, io consiglio in questo caso quindi su Cod di usare il dlss solo se si gioca in 2k in su perché anche se vai a peggiorare l'immagine non è così pesante come facendolo con il 1080, io prenderei un 2k se fossi in te tanto la tua gpu te lo permette tranquillamente, nel tuo caso per giocare competitivo senza perdere qualità userei fidelityfx cas come upscaling (perdi un po' di fps ma ti migliora un sacco la nitidezza dell'immagine) qualita texture BASSA qualità streaming NORMALE e tutto il resto mettilo basso e ciò che puoi disattivare disattivalo e soprattutto tu con una 3080 non usare si+boost ma solamente si... Non ti rende più fluido attivando il dlss anche se fai più FPS perché tanto hai una GPU potentissima che giocando con fidelityfx cas hai comunque fps alti ed una grafica ottima a mio avviso.. poi dipende sempre da che cpu hai dato che questo Cod lavora molto di più con la CPU rispetto al capitolo vecchio se hai ottimizzato Windows per il gaming come hai settato il pannello di controllo Nvidia ecc, sto aprendo un canale discord proprio per aiutare le persone su queste cose ed altre inerenti a Cod
@@k.of.d9449 Ciao. Possiedo un 10700k montato su una mobo asus Rog strix z490 e-gaming, con ram Vengeance 32 gd 3600 mhz.
Attualmente, su COD, senza DLSS e tutto ad Ultra, riesco a raggiungere tra i 150 e i 170 fps, poi molto dipende dalla complessità della mappa. Se attivo il DLSS guadagno qualche fps ma gli oggetti in lontananza, quindi anche i nemici, sono leggermente sgranati
finalmente un video che spiega con immagini il DLSS! Bel lavoro
Lo spiega malissimo facendo passare un messaggio sbagliato ma OK!
@@massimocivita7288 ti hanno già risposto in altri commenti.. Non serve aggiungere altro 😂
@@Tonksino Beh se per te far passare l'idea che è il DLSS è fuffa ingrandendo le immagini e notando il micro dettaglio nella pozzanghera che non ti cambia un cazzo mentre giochi contento tu!
@@massimocivita7288 ma neanche far passare l'idea che un 4k dlss è uguale al nativo. perché allora lo stesso discorso lo si può fare su monitor 2k da 27/32.. tanto nell'azione non te ne accorgi....Semplicemente l'intento del video è un altro
@@Tonksino L'intento del video è sbagliato in partenza. Per parlare di DLSS devi parlare per forza di ray tracing. Un cyberpunk che porta pure come esempio è 100 volte più bello da vedere con il ray tracing + dlss rispetto al nativo 4k senza DLSS, quindi sticazzi di micro dettagli da notare con la lente. Nasce per stare in combo con il ray tracing il DLSS ci arriviamo? E aggiungo che funziona alla grandissima mentre sto video non fa altro che sminuirlo.
Grazie tantissimo per l'informazione top video secondo me dovrebbero vederlo tutti 👍
Premesso che io invece uso il Dldsr con un 32:9 in 1080p e che i risultati, come antialias/oversampling, mi sembrano decisamente sbalorditivi (come costruzione di una nuova immagine piú nitida e senza scalettature)... Sicuramente il dlss 2 "inganna" sufficientemente in movimento e non puó essere efficace per immagini statiche e/o zoommate. Non é un caso se al momento AMD non riesce ad ottenere gli stessi risultati. DLSS 3, invece, appare invece come un mezzo bluff, proprio perchê vuole ingannare pure sul movimento.
Dlss su una immagine statica non ha senso, se stai fermo la scheda ha tutto il tempo di elborare tutta l'immagine al massimo della capacità di calcolo. La differenza di dettaglio tra la parte centrale dello schermo e verso la periferia, quella specie di effetto gelatina durante i movimenti... Lo trovo veramente sgradevole. Del resto per guadagnare fps da qualche parte bisogna economizzare
mi ricorda il tutto il famosissimo ormai dimenticato g sync
Bello il GSync...se l'ho attivato 2 volte in vita mia è pure assai.
Secondo me può essere un buon espediente come compromesso per raggiungere i 40/60fps su alcuno giochi dove la propria scheda anche abbassando i settaggi non riesce.
Spingerlo nelle presentazioni sulle top di gamma, come la 4090 da 2500€, mi farà sempre ridere 😂
Infatti il dlss avrebbe senso su una 3050, o su una 1660...non su una 4090 spacciandolo addirittura come un "plus"
Se si compra un componente non adeguato alle performance necessarie, si buttano i soldi. Non si può sperare in qualche algoritmo, se serve il 4k ma poi bisogna mediare sulla qualità... C'è qualcosa di sbagliato. Come cercare i 100fps o più... Ed avere un monitor 60hz
Analisi tecnica molto precisa
Alla tua perfetta analisi aggiungerei anche qualche immagine catturata in movimento. Soprattutto in alcuni giochi (e Cyberpunk è l'esempio perfetto dato il suo level design) è super evidente il pass di sharpening sui materiali emissivi, che con il DLSS attivo appaiono più luminosi quando si sta muovendo la visuale. Ovviamente non aumenta davvero l'emissività, ma lo sharpening sui bordi dell'oggetto luminoso aumenta il contrasto percepito rispetto allo sfondo, e si nota parecchio.
In ogni caso, anche l'aumento di performance non è scontato e dipende fortemente dalla build, dalla risoluzione e dai dettagli grafici.
Nel mio caso su Cyberpunk, con una RTX 3080 e un 5800X, a parità di settaggi grafici (personalizzati, indicativamente medio-alti, RTX off), faccio più FPS in 2k nativo che in 2k con DLSS qualità, perché nel secondo caso la GPU arriva ad un load massimo del 70-75% (giustamente, dato che renderizza a 960p e sposta molto carico sulla CPU).
Fermo restando che dlss da una grossa mano ad alte risoluzioni ( 4k ) e in presenza di rtx pesante.
Nel tuo caso la cpu però e un collo di bottiglia e lo vedi di più perché la fai renderizzare iln dlss in 1080p praticamente,contro i 2k reali senza nulla.
PS giocare cp senza rtx è un delitto.
Se avessi voluto giocare senza rtx mi sarei prezo la 6900xt che in raster va decisamente meglio della 3080.
Ma magari parli solo di questo singolo gioco ( resta cmq un delitto )
Lo sai poi che c'è un regolatore per lo sharp del dlss vero?
Basta dare il controllo sulla passata di sharpening come è possibile nell'FSR 2.x :p
Molto chiare e competente come sempre. Io ho sempre avuto nvidia come vga per sfruttare appunto il dlss. Per esempio ora con una tuf 3080 in 1440 dettagli alti e dlss ottengo a fatica 180fps su mw2. Se disabilito il dlss arrivo a malapena 130. La mia domanda è, se prendessi una ATI 7900xtx ovviamente senza dlls opterei performance migliori?
mw2 è molto dipendente dalla cpu e dai timings della memoria
@@andrearosanova6550 grazie per la risposta. Ho un 1360kk e ddr5 6000mhz cl36.
Ad occhio avresti prestazioni sensibilmente superiori ma con risoluzione nativa. La 7900xtx va sensibilmente più di una 3080
@Lol Zd le Radeon volano su tutto senza RT attivo
Sei forte Ebbasta !!!
Il dlss a mio avviso ha senso quando vuoi giocare con ray tracing attivo, dato che è così pesante da azzoppare anche una 4090
Io penso che il "miglioramento dell'immagine" è principalmente da intendersi così: se uno ha un monitor 2K ma la scheda video in modo nativo regge 1080p/60fps con DLSS si riesce a giocare a risoluzione piena raggiungendo i 2k "camuffati" ma sempre a 60 fps.
Ovviamente chi dice che il DLSS restituisce un'immagine UGUALE alla risoluzione nativa ha bisogno di occhiali: è come dire, in fotografia digitale, che il JPG è uguale al RAW 😁😄.
Il DLSS andrebbe solo lodato perché permette di avere più fps nei giochi dove la qualità grafica può passare in secondo piano, tipo negli sparatutto multiplayer.
Grazie della tua attenta analisi, in effetti qualcosa non tornava... Mi chiedevo come fosse possibile raddoppiare le prestazioni senza pagarne il costo, oltre al fatto che ad alcune schede 40 hanno abbassato il bus rispetto alle generazioni precedenti... A questo punto ti faccio una domanda, dato che attualmente sono interessato al full HD, il Dlss dovrebbe essere una buona scelta per questa risoluzione anche in termini di qualità, dato che non andrà a generare immagini a risoluzione differenti?
porca miseria, sempre detto che il dlss scava gli occhi
Il problema sta nel fatto che molta gente pensa e crede che il DLSS sia come un boost di potenza mentre nella realtà non è per niente così, quello che fa il DLSS è alleggerire il carico sulla scheda (quindi fargli fare più fps) degradando l'immagine.
È un buon compromesso solo se ti servono tanti fps perché giochi competitivo o perché magari è uscito un nuovo mattone e non raggiungi un minimo di fps per potertelo godere con la tua attuale scheda, allora sì, altrimenti è controproducente per qualità soprattutto in quei giochi dove la grafica è il punto forte.
Usare il DLSS è come perdere via via 2 gradi di vista alla volta. Meglio di una s*ga!... Ah no asp
😁
Ottimo video come sempre👌
Devo dire che ho provato (avendo una "semplice 2060 max q") sia Cyberpunk che Control ... soprattuto nel secondo addirittura con il 4k girava attorno ai 60fps e dai miei screenshot questa differrenza cosi' grande non lho notata ... ma in generale penso che le tecnologie vadano prese per quel che danno e a chi servono ... ovvio se hai un'azienda con 10 4080 e 3 4090 per recensioni si vedano anche le differenze nei dettagli con il microscopio, ma salvano situazioni in cui una buona fascia di utenza verrebbe spinta fuori da carenza di performance. Rimango comunque d'accordo su eventuali differenza dal nativo (anche se sognare che le A.i. superino i loro insegnanti nativi molto presto... ehehhe) ma che queste differenze vadano prese per quel che sono... in ogni caso buon divertimento sia con che senza DLSS ehhehe
semplicemente il dlss non rende in egual modo in tutti i giochi. Solo che il "sapientone" fa di "tutta l'erba un fascio". Tra l'altro come mai parla male di DLSS e non di FSR che è indubbiamente meglio? E se, come dice lui, Nvidia non ha fatto altro che "copiare" cose che già esistevano, come mai AMD non riesce a farlo? io non sono un fanboy nvidia, semplicemente compro ciò che è meglio. Attualmente Nvidia, per quanto sia bugiarda e ladra, fa schede video migliori ed il DLSS è stata e continua ad essere una rivoluzione. Hai notato che gli esempi li fa senza RT? Giusto....per lui il ray tracing è inutile e quindi non lo abilita. Quindi io, secondo lui, dovrei giocare in risoluzione nativa e senza RT perchè è così che si fa da 20 anni. Quindi buttiamo nel cesso tutta la ricerca che sta facendo Nvidia, AMD, Intel per cercare di tirar fuori il massimo delle prestazioni e delle possibilità dalle nostre schede video. Un tempo era semplice parlare di grafica, prestazioni e videogiochi, oggi un pò meno e questo video ne è la dimostrazione
Ragazzi una domanda ma conviene farsi una build con ryzen 7 5800x? o spendere di meno e quindi optare per un ryzen 5 5600x?
vai di 5800x, ballano pochi euro
5800x3D
@@phoenix_9935 Ho una 1070 e per ora credo di abbinarci questa secondo te fa bottleneck?
@@pabloabbate9713 eeeh magari, non ci arrivo😅
@@pabloabbate9713 in questo caso se hai intenzione di andare avanti con il socket am4 ancora per qualche anno, vai di 5800x3d
Temo che di questi passo le presentazioni delle prossime GPU saranno sempre più mendaci, e verranno sbandierate performances omettendo di specificare se ottenute con l'ausilio di DLSS e altri escamotage di questo tipo.
Finalmente qualcuno lo dice! Complimenti! 100% d'accordo!
Complimenti! Super interessante questo argomento! Finalmente anche chi non ha troppo "occhio", potrà dire che il DLSS non migliora l'immagine.
Il paragone è come una persona che guarda la TV con o senza occhiali indossati 😂
Quindi marco in conclusione mi pare di capire che se si possiede una 4090 è meglio non attivare generazione frame?
Ciao, diamo una premessa il dlss (ma vale anche per le controparti Amd Intel) sono strumenti utili per compensare mancaza di performans in alcuni giochi ma non devono essere lo standard di partenza....Cioè prendo la scheda giusta per esempio, per giocare in qhd 60fps, ci sono quei 4/5 mattoni e usiamo il dlss....
E' palese che se con la stessa "potenza" dobbiamo renderizzare una minor quantita di pixel avremo più frame generati è il concetto base dell'upscaling.....
Nel caso del dlss l'immagine renderizza ad una risoluzione minore viene poi aggiustata dalla IA che compensa la mancanza di pixel.
I livelli da qualità a prestazioni, in poche parole differenziano per la risoluzione dell'immagine di partenza, utilizzzando risoluzioni intermedie.
Il dlss3 tanto publicizzato, prende il dlls2 ed aggiunge delle novità tra le quali frame generator, che di fatto aggiunge un frame tra uno e l'altro imparando e copiando dal primo e prevedendo quello dopo (questo si basa sul fatto che analizzando il frame esistente e il movimento si "cosa ci si aspetta nell'immediato").
Capiamo ed è facile intuire come potenzialmente si possano fare il doppio dei frame del dlls2 avendo tra un e l'altro 1 inventato, questo lavoro oltretutto non intacca il lavoro del resto dell'hardware che continua a fare il sui soliti compiti ma intacca il lavoro della scheda.
Per compensare questo lavoro in più dell' upscaling hanno integrato nel pacchetto dlss3 il reflex per ridurre i ritardi ma comunque più lento del dlss2 con reflex ed a seconda dei giochi più o meno marcato.....
Per compensare il dlls3 lato ray tracing hanno aggiunto l'optical flow acceleration che sostanzialmente serve per ridurre gli artefatti...
Dopo tutto sto pippone si capisce il concetto base e che nel dlss3 c'è più roba per compensare quel frame inventato che altro e è facile capire come questo se non fatto bene possa portare più problemi...
Oltretutto il dll3 ad oggi è disponibile per poco più di una decina di giochi.
Tornando al punto base di qualsiasi sistema di uspcaling è palese che se si prende un immagine e la si allarghi bisogni compensare per coprire le "smagliature" che si vengono a creare...
Detto ciò sono mezzi sbagliati??? assolutamente no, ma non devono essere lo standard o metro per un acquisto o per le performans.
Devono essere un in più solo quando e SE serve......si fa fatica ad accorgersi della perdita perchè abbiamo immagini in movimento, ma la perdita c'è ed è indiscutibile....
Noi abbiamo il potere di dire quanto questa perdita sia percepibile in gioco e ci cambi l'esperienza di gioco....
Sono ottime features ed utili ma devono essere supportate di gioco in gioco e con i driver....
Per me ha più senso giocare a risoluzione nativa, abbassando se è il caso quel paio di effetti che pesano come macigni e manco si notano. "Maxare" e poi perdere dettagli con un algoritmo? Preferisco scegliere io dove/cosa mediare. Poi io sono un caso particolare, dlss mi dà fastidio, mi dà un senso di mal d'auto perché l'effetto di perdita di dettaglio è più evidente verso la cornice, questa differenza mi disturba
@@giuliolenzoni428 La penso pure io così .
@@giuliolenzoni428 Concordo,la mia era una panoramica per rendersi conto di cosa sono questo sistemi upscaling e del perchè non potranno mai essere come il nativo.....
Detto questo per esempio i miei acquisti sono sempre votati per un traguardo prefissato.
Per esempio un 1440p 60fps maxato e normalmente prendo una scheda con margine che abbia una media almeno 75/80 fps.
Ovviamente parliamo di medie ma sappiamo tutti che abbiamo titoli ottimizzati meglio per Nvidia e altri per Amd, poi infine arrivano i mattoni ottimizzati con le chiappe....
Ed è propio li che un sistema di upscaling prende maggior valore nei mattoni, perchè il solo abbassare i dettagli non basta se non passare da ultra a minimo/medio e in tal caso la differenza è maggiore che non utilizzando il sistema upscaling....
Ottimo lavoro, io uso Flightgear con un G91R1B che ho sviluppato per schermi 4K, fatto necessario per poter vedere i dettagli degli strumenti analogici presenti nel l'aereo... Quindi con una compressione del genere sarebbe faticosa la lettura dell'immagine. Non so però se il DLSS sceglie solo determinate aree, ad esempio quelle di sfondo, ma come fa a sapere cosa è lo sfondo?
Esattamente come hai detto. Le zone perimetrali sono più degradate rispetto al punto di maggiore attenzione del giocatore . Io gioco su un 32:9 e quindi mi è molto più facile percepirlo.
Come faccia esattamente non lo so , credo sia merito del machine learning che implementa algoritmi diversi gioco x gioco.
@@Voklesh85 Quella era la VECCHIA soluzione, il DLSS 1.0. Il "nuovo" (2.x) usa un modello "unico" allenato sugli aspetti "comuni" del rendering.
Nella schermata prestazioni sembra essersi un velo davanti l'immagine come un velo
Vabbè per una 4090 gratis e qualche soldino anche io posso venirti a dire che il pezzo della nuova line up è la cosa più giusta che potrebbe mai esserci e che dovremmo essere noi i primi a voler pagare di più. Ormai anche il giornalismo specializzato è finito nel baratro
Già, la verità e che nei giochi il 1080p è bastevole per la maggior parte degli utenti. Tutta sta corsa al 4k soesso giustificare l.acquisto di hardware superiore più che una necessità reale. Poi per carità io gioco su uno dei PC gioco in 2k a 144hz la differenza la noto, ma con la 3060ti riesco solo su giochi fatti bene. Se dovessi usare il dlss giocherei in 1080p e sarei comunque soddisfatto.
La verità è che il dlss serve solo per POTER attivare RT...e dopo averlo visto... disattivarlo perché ci si rende conto che la spesa (in prestazioni) non vale la resa
@@bubis976 no, be'... Su Minecraft è essenziale per non stare appresso agli shaderds su Java. Per il resto dei giochi concordo, anche se su fortnite è carino ma certo non essenziale.
@@giuseppemusumeci5146 non ho detto che sia brutto...ma che sia totalmente sconveniente. Se devo giocare a Fortnite e scegliere tra 100fps o 60fps con RT...non ho dubbi su quale sia la scelta sensata.
grazie della spiegazione!
Con DLSS è diventato così possibile offrire grafica in 4K con Ray Tracing, mantenendo un elevato frame rate e con un livello di dettaglio praticamente indistinguibile da un rendering in risoluzione nativa.
Domanda : è veramente indistinguibile la differenza? Perchè gli FPS sono indiscutibilmente circa il doppio ma la qualità ? E' veramente la stessa? Senza difetti distinguibili?
Troppo spesso si sentono dire follie. E' ovvio che all' aumentare dei frame la percezione del gioco nel complesso può sembrare migliore. Il dettaglio però è tutt' altra cosa appunto. Per notarlo bisogna fermarsi e osservare attentamente. Motivo per cui io ritengo che l' eccesso di qualità grafica per giochi in movimento spesso è quasi inutile. In un FPS il raytracing serve davvero a poco. Magari meglio in un avventura lenta ma alla fine mentre si gioca contano spesso di più i frame.
Si perchè tu mentre giochi ti fermi a guardare le lattine?
@@massimocivita7288 Esattamente. Ray tracing in game spesso e volentieri è ridicolo. Più si gioca veloce e più diventa inutile.
Ciao marco. per quanto mi riguarda, nei giochi che me lo permettono, utilizzo solo DLAA e Framegeneration. L’upscaling no perchè avendo una 4090 io voglio il massimo dalla qualità
Non so esattamente come funzioni il DLSS ma so come funzionano i modelli di intelligenza artificiale nel campo delle immagini, visto che sono uno sviluppatore.
Sarebbe molto utile capire cosa cambi davvero quando si cambia la qualità del DLSS.
La prima cosa che mi viene in mente è che cambi la risoluzione di rendering dei frames, quindi per esempio in modalità prestazioni, i frames renderizzati dal gioco sono a 720p, e poi vengono upscalati dall'intelliggenza artificiale. Se l'architettura del modello è basata sulla tipologia GAN/ Style-GAN, significa che il modello letteralmente ha la capacità (ed è quello che fa di norma) di creare pixel, ovvero può inventare degli elementi nell'immagine che normalmente non esistono. Basta pensare ai modelli per il restauro/enhancing dei volti. Se l'immagine non è abbastanza chiara alcune caratteristiche il modello se le inventerà semplicemente. Il punto è che questi elementi inventati possono corrispondere o non corrispondere alla verità.
Quindi nell'esempio che hai mostrato della palma, il problema principale è che il fumo che nel frame nativo è solamente chiaramente fumo, quando attivi il DLSS a prestazioni, il frame a bassa risoluzione rende difficile al modello capire cosa ci sia li e ricostruirlo, quindi fondamentalmente inventa roba. In questo caso, nella zona delle finestre, è riuscito a ricostruire qualcosa che fosse simile geometricamente alle finestra ma senza inserire dei dettagli quindi fondamentalmente si vedrà solamente un quadrato nero. Stessa cosa per la palma.
Dubito che quando si cambia lo slider fra qualità e prestazioni, si vada a cambiare l'incidenza del modello sull'immagine originale, piuttosto forse si vanno a cambiare o la risoluzione del frame nativo renderizzato (molto plausibile visto che è l'operazione più pesante per la scheda video) e/o si vanno a cambiare dei parametri più algoritmici di analisi dell'immagine che quindi offrono un output migliore dal modello.
Su modern warfare 2 nel benchmark ti dice la risoluzione di partenza del dlss, tipo su monitor 4k usando qualità viene utilizzato il 1440p mentre su bilanciato il 1080p è via dicendo.. fatto sta che avendo 2 monitor uno 4k e uno 1440p ti garantisco che giocando sul 4k con dlss qualità si ha comunque un'immagine superiore a quella che vedrei sul monitor 1440p in nativo perciò io la reputo una buona tecnologia, che poi l'immagine sia peggiore del nativo del monitor stesso era ovvio si vede anche sè gli ultimi aggiornamenti del dlss camuffano ancora meglio la cosa..
Io preferisco giocare 4k nativo nei tripla A e disattivare raytracing dato che non mi sembra tutta sta roba visivamente visto che è applicato in minima parte su cose che manco te ne accorgi, l'unica cosa che ti accorgi e come vengono ammazzate le performance quello si😅
ciao Marco
sono d'accordo con te sul fatto che il dlss non migliori l'immagine.. ma lo promuoverei comunque come validissimo strumento da utilizzare per snellire un po' il carico grafico
a colpo d'occhio non è possibile notare differenze soprattutto con un' immagine in movimento.
tranne per qualche particolare come hai fatto notare tu, a grandi linee differenze non ce ne sono..(ci sono oggetti e scene del tutto identiche tra immagine nativa e con DLSS attivato)
nonostante tutto l'esperienza visiva rimane comunque ottima per cui direi che va bene cosi... se vogliamo giocare in 4k.
perchè se vogliamo bocciare il DLSS definendolo una "presa in giro" per giocare in 4k maxato..significa che il 4k nel gaming rimane tutt'ora uno scoglio insormontabile..
e lo è ancor di piu' se si vogliono sperimentare tecniche come RT..
diciamo che per giocare in 4k sia AMD che Nvidia hanno creato questi strumenti per aumentare il frame rate..e dobbiamo considerarli come parte integrante del gaming in 4k..
se su questo aspetto non siamo tutti d'accordo, allora dobbiamo porre attenzione anche sull'acquisto di monitor di monitor 4k per il gaming e considerare il QHD la miglior risoluzione per giocare al giorno d'oggi.
non ha senso spingerci sul 4k perchè le gpu attuali non permettono alti frame rate a dettagli maxati..a meno che non compri la 4090.
usare dei trucchi come FSR e DLSS di fatto non significa giocare veramente in 4k e andrebbero esclusi a priori..
io ad esempio gioco a 3440x1440p in 21:9 perchè da sempre ho preferito non spingermi sul 4k...per questi motivi..
la longevità della GPU è compromessa e sei costretto a comprare schede costose per avere prestazioni diciamo sufficienti
Infatti ad oggi soprattutto se si vuole giocare in competitivo, il 4k è da escludere a prescindere per diverse ragioni sia di costi, poche ottimizzazioni, bassa longevità ecc. Le scelte migliori sono ancora oggi il 2k per grafica estrema e godibile anche a distanza di qualche anno con hardware più recente di fascia abbastanza alta e 1080 p per il competitivo.
Verissimo quasi tutto. Prima vorrei fare una premessa...
...per fortuna c'è MVhardware che dice cose che non solo il marketing Nvidia, ma anche l'informazione specializzata (soprattutto qui in Italia) non dicono. Purtroppo mi sà che Nvidia paga tanti (compresi youtuber italiani specializzati) che ci capiscono (quindi ancora peggio perchè sanno come stanno le cose e mentono) per dire cose a favore di Nvidia e portare avanti il suo marketing in maniera vergognosa.
E questa è quella cosa che in altri campi viene chiamata disinformazione. Fine premessa.
È vero che non ci sono ancora schede video che gestiscono bene (ad alti FPS) il 4k nativo (almeno sui mattoni come cyberpunk 2077) ma quindi come si fà ad aspettarsi che un algoritmo che aumenta gli FPS (le prestazioni) contemporaneamente migliori anche i poligoni/il dettaglio grafico (la qualità).
Che fà riesce a fare diventare una scheda video da 10 Tflops (è un esempio meglio precisare) da 20 Tflops? O comunque gli raddoppia la potenza di calcolo?
Ma il punto è che visto che ancora non è tempo per il 4k nativo 120 FPS tutto ad ultra (e c'è già chi parla di 8k perchè ha visto pubblicità o notizie sui TV 8k)(non sapendo che ogni volta che raddoppiano i pixel devono raddoppiare i poligoni e quindi raddoppiare la potenza di calcolo o pure di più) perchè ci si fissa sul fatto di giocare in 4k (perchè si ha una TV 4k)? Si continua a giocare in FHD che comunque non fà schifo neanche su schermi da tanti pollici e si aspetta (meglio ancora se non comprando fino a quando non ci sono miglioramenti più netti ed evidenti a prezzi più bassi) quando ci sarà l'hardware che lo permette a basso prezzo (300-350 max 400€ di scheda video no 2000€ o più solo per una scheda video come Nvidia) anche i 1000€ di AMD sono tanti ma Nvidia è proprio vergognosa come atteggiamento. Per tornare al discorso che ancora non si può giocare ad alti FPS a 4k nativo se poi si aggiunge il discorso Ray tracyng che mangia un sacco di risorse e serve a poco è ancora più valida la domanda sul perchè ci si fissa a giocare a risoluzione 4k. Ed infatti molti su steam giocano ancora in FHD e non credo che abbiano una brutta grafica. Io gioco ancora in FHD 1080p da notebook (certe volte collegato a proiettore 1080p) e mi trovo bene anzi molto bene. E come ultima cosa se non smettiamo di comprare tutte le cose che fanno le grandi aziende anche pagandole care ci daranno sempre meno miglioramenti e a prezzo più alto. Gli dobbiamo fare abbassare le pretese e i prezzi.
@@jackuesdemolay8615 premesso che non ho mai detto che dlss migliora l'immagine..ma diciamo la rende a prima vista identica ..
Le differenze le devi vedere con i fermo immagine e oltretutto anche minime.. savo rari casi.
Quindi è una magia che permette di giocare in 4k a dettaglio maxato ad alti FPS.. avendo la percezione di un'immagine praticamente identica o quasi al 4k nativo
Considerando appunto l'impossibilità per le GPU di giocare in 4k nativi ad alti FPS credo che sia una possibilità per la quale essere contenti o perlomeno ritenerci soddisfatti ..
Mi riferisco non solo ad Nvidia ma anche AMD con il suo FSR.
Cioè è giusto chiarire che il dlss non migliora l immagine ..
Ma manco farlo passare per una tecnica subdola per fottere i poveri consumatori..
Perché se così fosse, allora andrebbe condannata in toto la frontiera del 4k nel PC gaming..e non solo i produttori di GPU
@@marcosantilli6944 d'accordissimo solo con l'ultima frase infatti secondo me è da condannare in toto la ricerca della risoluzione sempre più alta a tutti i costi, almeno per adesso, che si ormai i TV che sfruttano bene il 4k 120hz con freesync ci sono a bassi prezzi (tipo certi nanocell LG che posso definirsi veramente dei TV da gaming o quasi) ma uno non può spendere 500-600€ di TV da gaming più tutto quello che servirebbe all'altezza spenderebbe 2000€ circa di scheda video.
Più tutto il resto all'altezza arriverebbe a 3000€ o più e se 4k nativo (senza il trucchetto del supersampling) neanche raggiungerebbe adesso i 120 FPS ADESSO (appena uscito) figurati fra 3-4-5 anni, quanto dovrebbe durare un PC se non provassero a spennarci come polli più volte possibile a comprare sempre hardware nuovo ad un prezzo sempre più alto e che cambia poco in prestazioni rispetto al precedente. Si dovrebbe andare avanti per grandi upgrade a basso prezzo, cioè che con 1000€ devi avere tutte le cose migliori (scheda madre, RAM, processore, gpu e tutto il resto che serve) o almeno quelle che bastano per giocare a tutto ad ultra a 120 FPS almeno, o massimo 1600€ se ci devi mettere una smart TV da gaming. No che per una cosa sola spendi 1000€ o esageratamente peggio il doppio 2000€ (come fà Nvidia) o più. Già c'è chi non si può permettere di spendere 750€ di configurazione con tutto quasi figurati se costa da sola solo la scheda video 2000€ se se la possono permettere tutti. Ed i videogiochi non devono essere una passione per pochi ricchi se la dovrebbero permettere tutti o quasi. Poi questi prezzi secondo loro li dovremmo pagare tutti gli anni o quasi (o senò ci dobbiamo accontentare di abbassare la risoluzione il dettaglio grafico per non giocare al rallentatore con i giochi usciti dopo solo 2-3 anni da quando abbiamo comprato l'hardware) o comunque tra un pezzo da cambiare per aggiornare la configurazione/fare l'upgrade e l'altro dovremmo sempre stare a spendere e sempre di più. Guarda io non sono tirchio ma ho imparato che si dovrebbe dare a tutto il giusto valore a tutto anche alle passioni. tipo per un PC 1000€ non sono tanti ma neanche pochi per una TV 600€ non sono tanti ma non sono pochi per uno smartphone 450€ già sono veramente tanti per SOLO la GPU/scheda video 2000€ sono un esagerazione enorme chi accetta questi prezzi o è ricco o comunque può sprecare soldi. Mala cosa peggiore e che non fà solo male a se stesso al suo portafoglio ma anche agli altri che non se lo possono permettere perchè se le aziende vedono che vendono anche a quel prezzo visto che non c'è nessuna legge che vieta l'avidità chi glielo fa fare di vendere a di meno per chi non se lo può permettere.
@@jackuesdemolay8615 compra amd...nessuno te lo vieta ma anche un dissipatore adatto..
Si vede ad occhio nudo che sia con l'FSR che con il DLSS l'immagine cala di qualità rispetto al nativo, tuttavia qualcosa per tamponare l'enorme calo di prestazioni dovuto al Ray Tracing dovevano farla ed ecco il DLSS...la cosa più grave è spacciare una scheda video non capace di dominare una determinata risoluzione a dettagli ultra e 60 FPS per una scheda capace di farlo xD
Bastava semplicemente non spingere per una tecnologia inutile sotto tutti i punti di vista
@@bubis976 Diciamo che uno degli obiettivi, per quanto riguarda il gaming, è stato sempre quello di puntare a migliorare sempre di più la grafica fino ad arrivare, ad oggi, grazie alle moderne tecnologie, ad un tipo di grafica molto vicina al fotorealismo, quindi ci sta implementare tecnologie che aiutino a raggiungere tale scopo come il Ray Tracing, inoltre il DLSS come l'FSR sono utili ad evitare comunque di scalare del tutto risoluzione per raggiungere i 30 o i 60 FPS, utile sopratutto per schede video un pò datate (sopratutto l'FSR), ma che l'abbiano buttata troppo sul marketing sono assolutamente d'accordo...non ha senso implementare il Ray Tracing su schede che a malapena riescono a far girare a 60 FPS un gioco come Cyberpunk a determinate risoluzioni (vedasi la RTX 3050), quindi si...era meglio evitare l'implementazione per il momento o quantomeno evitare di ridurrre il tutto ad una semplice manovra di marketing.
@@csgamer928 però RT allo stato attuale è l'esatto contrario del fotorealismo. Sarà un grande giorno quando le interazioni tra materiali e luci saranno rese in maniera naturale, al momento la considero una tecnologia interessante, perché da qualche parte si deve pur cominciare, ma ancora molto, molto acerba
@@giuliolenzoni428 Senza dubbio, al momento si tratta più che altro di rendere principalmente l'acqua uno specchio (il che di reale non ha nulla), ma appunto da qualche parte bisogna pur iniziare come hai detto anche tu 😁
@@csgamer928 il problema è che ti stanno vendendo come un plus una cosa che ammazza le prestazioni...e come un plus del plus una toppa a questo problema. Non so se ti rendi conto che Nvidia sta vendendo le 40XX dicendoti che il plus rispetto alle generazioni precedenti e la toppa più bella
i link delle immagini?
Voi quando giocate mettete in pausa per zoommare degli specifici dettagli?
Finalmente!! Qualcuno che parla chiaro! 👍🍾🥂🇮🇹
Lo dico sempre che questa è l'epoca del 1440p che deve ancora essere sfruttato a fondo!
Il 4K in gaming oggi è SOLTANTO MARKETING!!
Io gioco in 1440p tutto stramaxato con RTX e sto da dio con una 2070 SUPER: le 4000 sono inutili, come il 4K.
AHAHAHAA si infatti devo aver sognato visto che gioco in 4k 120 fissi e oltre con una 4090! nativi eh! Il DLSS serve in combo con il ray tracing geni! Sto video è senza senso. Con il ray tracing il gioco è già più bello di suo da vedere.
Il punto è che se io riesco a giocare maxato 1440p con una 2979 Super, tutta la questione 4K-8K-16.000K ( e chi più ne ha più ne metta) di Nvidia è principalmente marketing ultra spinto.
Questi vogliono farci credere che pure Prato Fiorito abbia assolutamente bisogno di una 4090 Ti Super Ultra Mega OC !
@@clode721972 certo, e lo uso anche. Però con la consapevolezza che non è una marcia in più per la qualità (che, invece, viene peggiorata), ma per le prestazioni secche.
Ovviamente non sono mai stato convinto che migliora l'immagine, anzi, la peggiora, purtroppo... ora con il 3 si spera un po' meno. Sarebbe interessante un confronto tra il 2 e il 3 nelle stesse identiche condizioni.
il 3 peggiora ulteriormente l'immagine perchè genera interi frame da 0
Palese che peggiora l'immagine, chi crede il contrario è gonfio di propaganda. Se la capacità tecnica di una scheda è quella... La copertina è corta, o privilegi la qualità o i frames/s, non sarebbe neanche impossibile da capire. Pensare che si possano aumentare sia la qualità che i fps è da creduloni
@@giuliolenzoni428 io non sono un esperto e non sono un tecnico come Marco o altre persone, ho studiato economia ma non è che ci voglia tanto a capire la cosa eh... Basta ragionarci un attimo e Marco l'ha reso comprensibile a tutti. Purtroppo il marketing è uno strumento potente e le persone meno sveglie si lasciano abbindolare facilmente.
Grazie della spiegazione.
Ma chi lo ha mai detto che migliora l'immagine? é la prima volta che sento sta cosa. Lo sanno tutti che è uno strumento di upscaling quindi proprio per definizione non può essere migliore. Ovviamente, come dici anche tu, nella visione di insieme, senza zoomare o fermarsi a fare le pulci, con DLSS Qualità la differenza non si nota. Ingame nessuno noterebbe differenze.
Poi se vuoi vedere dettagliatamente dove il dlss degrada i dettagli Digital Foundry fa video continuamente.
Non usare il DLSS è uno spreco di energia e di risorse INUTILE!
Ne soffre anche con la 4090 il DLSS?
L'unico utilizzo utile che mi viene in mente è per sfruttare una GPU quando inizia a non stare al passo coi requisiti minimi, già su una 3060 ora come ora mi tengo 60fps e sto contento (sempre usato vsync perché gli fps illimitati per me stressano solo la macchina più di quanto mi serva)
Ti ringrazio davvero per il tuo modo oggettivo e razionale nel trattare gli argomenti, girerò questo video a tutti i miei amici che non sono riuscito a convincere della, a mio parere "inutilità" di questa famigerata features del DLSS. A mio parere non ha nessun senso spendere migliaia di euro di monitor gaming 4K e hardware potente per poi non godere della risoluzione nativa. Se devo guardare un'immagine in 1080p, continuo ad usare il monitor Full HD.
Non c'è nulla di oggettivo in questo video. Totalmente soggettivo. Non si può parlare di DLSS senza menzionare il ray tracing. Un gioco già con il ray tracing è più bello da vedere. Pensi che cyberpunk sia più bello in 4k nativo senza ray tracing o con DLSS e ray tracing? La seconda fidati! Non è qualche inutile perdita di dettaglio in lontananza che ti fa preferire rinunciarci e non attivare il DLSS. Il DLSS serve in combo con il ray tracing ma ci arrivate?
@@massimocivita7288 Veramente il DLSS ed il Ray Tracing sono due caratteristiche che possono essere attivate e disattivate singolarmente, è una tua considerazione il fatto che dipendano l'una dall'altra, cmq mi piace il fatto che tiri in ballo il Ray Tracing e poi sottolinei l'inutile perdita di dettaglio nel DLSS, sono due cose che si accomunano molto. Cmq da appassionato di PC da oltre 20 anni ti posso dire che nel gioco ho sempre puntato ad aumentare la qualità, la risoluzione, il DLSS serve a chi non ancora non si rende conto che per giocare ad alte risoluzioni e qualità, serve solo Hardware che può permetterlo.
@@cristianzuccari4737 Attivare il ray tracing singolarmente non ha alcun senso e metti in difficoltà anche una 4090. Non è una mia considerazione, nasce per quello il DLSS, per aiutare con il ray tracing che se vi ricordate con le 2000 all'inizio era ingestibile se non a 30 fps in 1080p! Poi che si possa attivare da solo è un altro conto. La qualità visiva te l'aumenta il ray tracing per tutto quello che vedi. Non conta solo la risoluzione ragazzi. Per farti l'esempio il ray tracing che hanno aggiunto su the witcher ti aggiunge pure l'occlusione ambientale in RT e ti assicuro che ti migliora la grafica eccome. L'importante è che il DLSS non ti faccia crollare la risoluzione ma non mi pare che giochi a 720p.
@@massimocivita7288 Quando vi renderete conto che alcune features che vengono spacciate per nuove tecnologie sono solo operazioni di marketing, ne usciranno altre nuove e più interessanti che serviranno solo per convincervi a comprare un'altra scheda video che casomai stavolta supererà i 3000 euro.
@@massimocivita7288 sicuramente senza RT, vivi forse in un mondo di luci sparate e superfici lisce e lucide? Praticamente queste condizioni le trovi solo in un autosalone!! Non ti devi giustificare se hai speso quasi 2k di sola VGA, se a te non dispiace niente di male. Ma non far passare gli altri per fessi se non vedono niente di eclatante in una tecnologia che al momento, di fatto, impatta in modo determinante sulla qualità, a margine di aumenti di fps marginali.
Dipende anche da gioco a gioco.
In genere dlss renderizza l immagine a una risoluzione inferiore e la upscala... (fortnite su quality gira a 66percento di risoluzione, bilanciato al 57 e performance al 50)
Ma se provi a giocare davvero a risoluzione inferiore e inguardabile l immagine...
Invece col dlss risulta molto godibile, soprattutto su qualità, e in movimento non si notano proprio quei piccoli dettagli che perdi.
Quindi per me e utile per aver piu performance piuttosto che abbassare troppo i dettagli o risoluzione.
Lo stesso vale per i settaggi estremi, che semplicemente abbassandoli di un pelo l immagine risulta praticamente uguale e si han molti piu fps
Sono d'accordo con te. Il DLSS è sicuramente uno strumento utile, ma non migliora l'immagine, anzi, la peggiora, magari non troppo ma la peggiora. Io per esempio cerco di evitarlo quando posso e devo dire che fin ora ho dovuto abilitarlo solo su Cyberpunk, avendo una RTX2060 se abilito il ray tracing, pur giocando in full hd devo usare il DLSS su questo gioco. Per il resto mai avuto bisogno, anche perché non mi interessa avere per forza più di 60 FPS, mi basta un'esperienza di gioco fluida. Ho giocato Metro Exodus in 1080p ultra con ray tracing attivo, senza DLSS, stando tranquillamente sempre sopra i 40 FPS, arrivando certi momenti anche a toccare i 60. Stesso dicasi per Control, anche quello dettagli al massimo e ray tracing attivo. Su questi giochi, personalmente, fare 40 FPS anziché 80 non mi interessa, preferisco godermi la bellezza delle immagini, che in effetti col DLSS un po' si perde. Su un gioco pesante come Cyberpunk mi ha permesso di giocare perfettamente fluido con i settaggi ultra sia di impostazioni grafiche che di ray tracing, facendo una media di 40 FPS, e qui, devo dire, si vede la sua utilità. Anche perché, ho confrontato la qualità delle immagini con il 720P ed è decisamente migliore con il DLSS quality in 1080p. Quindi, fra un 720p nativo e un 1080p con DLSS quality, personalmente preferisco il secondo. Tant'è vero che sono riuscito ad avere una bella esperienza di gioco lo stesso, una volta che ti immergi, ti lasci coinvolgere e non ti soffermi sui dettagli dell'immagine, il godimento c'è! E l'importante è questo! Indi per cui, ok al DLSS in alcuni casi in cui non posso farne a meno, apprezzabilissimo che NVidia lo abbia brevettato e messo a disposizione dei suoi clienti, ottimo lavoro di sviluppo da parte loro (come sempre su questo fronte), ma da qui a dire che migliora le immagini, manco per sogno e se lo dicono alle conferenze, allora sì, senza dubbio, si tratta di puro e semplice marketing. Almeno, la penso così e mi trovo d'accordo con Marco a riguardo.
La peggiora? Su qualità è praticamente identico. Sto video non ha senso! Da come parla sembra che si passa a giocare a cubetti! La resa visiva generale se lo usi in 4k + ray tracing è fantastica e lo vedi anche da questo video in cui va con la lente di ingrandimento a notare differenze.
@@massimocivita7288 ovviamente non si tratta di un grande peggioramento, a livello di resa alla fine è ottimo, specialmente se si gioca in 4k, in full HD già si vede di più la differenza, in 4k quasi no. Ma dire che la migliora no però.
@@gianlucag2466 Migliora no, però mi sembra abbastanza senza senso notare certi dettagli con lo zoom quando poi mentre giochi non li noterai mai. In 4k + ray tracing il dlss qualità tipo cyberpunk è pazzesco come resa! Nei giochi in cui vale la pena mettere il ray tracing al massimo il DLSS è tanta roba ecco.
@@massimocivita7288 ma infatti il DLSS è un'ottima tecnologia, soprattutto alle risoluzioni più alte e con il ray tracing. È sul "migliorare"che non sono d'accordo :)