Tranquilli: gli sviluppatori ne approfitteranno per ridurre di un ulteriore ordine di magnitudine l'ottimizzazione e saremo di nuovo al punto di partenza (ma con molto più input lag e sempre con tanti artefatti)!
Esattamente. Questo è il più grande problema degli ultimi anni, giochi sempre meno ottimizzati e artefatti e bug visivi più frequenti. Questa è l era peggiore dell' industria videoludica, 10 anni fa i giochi erano più belli, stabili e nitidi
Amen finalmente qualcuno che lo dice. Il mio full hd 1080 con MSAA e FXAA su red dead redemption 2 maxato è anni luce avanti a un qualunque gioco anche in 4K oggi che deve subire compressioni e duplicazione di frame. Visivamente non stiamo andando avanti ragazzi, stiamo solo giocando giochi mal ottimizzati volontariamente su spinta dei produttori delle GPU che inoltre non spiccano mai per resa visiva. Ma quale next gen, qui hanno capito come a livello di marketing spennare tanti polli. Saluti
ma vi rendete conto NVidia manda in pensione le CNN convolutional neural network che hanno appena implementato quelli di Sony sulla ps5 Pro per fare PSSR. le stesse reti neurali che Digital foundry esaltava come eccezionali , Nvidia la cestinate e ha usato il large language models LLM nettamente più evoluto e preciso. PS5 pro e' appena uscita e gia e' vecchia di 5 anni
Digital foundry sono 🤡, analizzano il prodotto ma non sanno come sono stati sviluppati internamente, infatti gran parte non sono manco ingegneri o al massimo di basso livello.
Occhio che vi stanno abituando alla qualità visiva con dlss performance, sul sito dlss dice chiaramente che gli fps sono con dlss performance, no quality...più che rivoluzione è una inculata. Poi non discuto che per chi non ha dei gran pc va bene anche questo...e senza dlss il castello crolla completamente. Quindi siate entusiasti... ma non troppo.
Peró ormai il dlss ha risoluzione nativa, una volta no, adesso si adatta migliorando fps in una risoluzione nativa, aggiungendo frame in più avrai 200 fps in più con una risoluzione nativa.
Quello che nn avete capito è che ormai per l’occhio umano con queste nuove tecnologie è diventato praticamente impossibile distinguere un’immagine nativa da una upscalata! Ormai la vostra è solo una questione di principio, nn ci sono piu’ reali motivi nel non utilizzare queste tecnologie!
@@giaggio0704 ma infatti sto difendendo, se upscali con gli upscaler di qualche anno fa, la differenza si nota, ma da quando abbiamo il dlss dlaa, la differenza non c’è.
Ad esempio dlss quality, non ti porta a risoluzione nativa, e qualche anno fa il massimo che potevi mettere negli upscaler migliori in quanto fps era questo, adesso il dlss migliora i frame, ma con dlaa, quindi risoluzione 1440p nativa. E le schede nuove hanno dlss3 nativo, con un frame in più. Il problema è che il frame in più si sente e si vede quando giochi ad alti frame
La serie 5 non scalda molto ed ha richieste in Watt in proporzione qualità/prezzo inferiori alla serie 4. Dipende anche molto dal case che hai e dal sistema di ventilazione, ma diciamo che ancora non serve un dissipatore ad acqua
Farete dei video con le varie presentazioni del ces? Ho seguito tutte le conferenze ma non capisco perché alcune cose non sono state dette in conferenza ma si trovano dei video a parte.
sisi ok, tutto apparentemente fico ma stò dlss 4 quando verrà implementato realmente nei giochi? già tanti non hanno nemmeno il dlss 3.5, chissà il 4. Mah, nvidia mi sa che stà puntanto un po' troppo sull' ia e dlss. Ne varrà la pena passare da una serie 4000 a 5000?
Considerando il mio lavoro sto pensando di optare per un Laptop da gaming con la serie 5000. Non sono interessato alle risoluzioni da urlo… Switch 2 e PC portatile e sto bene per un bel po'
Resta sempre il fatto che amd offre una gpu da 20 gb di vram a 600€, mentre nvidia insiste a piazzare schede da 12 GB intorno a quella fascia di prezzo, cosa assolutamente ridicola nel 2025. Su nvidia Per avere 16 gb di vram si deve salire di prezzo: 800€ la 4070ti super oppure 900€ la 5070 ti, che non è neanche uscita e che comunque avrà 16 gb di vram, sufficienti ma comuqnue precari in 4k nel prossimo futuro. Già FF VII Rebirth di prossima uscita su PC raccomanda i 16 GB O SUPERIORI di VRAM per giocare in 2160p, per cui figuriamoci in futuro. 16 GB a 800-900€ sono pochi, dovevano darne almeno 20 per me. Detto questo, se non frega nulla della vram, e si tiene particolarmente al ray tracing e al dlss, nvidia va benissimo. Secondo me AMD renderà compatibile l' FSR 4 con le gpu rdna 3 entro quest'anno, e a quel punto sti cazzi di nvidia, quei prezzi sono ridicoli.
@valli1135 se giochi su una TV 4k i 12 gb di una 4070 super o di una 5070 risultano inadeguati, e se non vuoi arrivare a spendere cifre mostruose è chiaro che amd ti dà la vram per giocare per anni senza il problema di quel requisito, addirittura allo stesso prezzo di gpu da 12 gb ne trovi una che ne ha 20
@@Materioscura7 si ma la vram evidentemente non è il problema, visto che tutti fanno focus su quello se una 5080 ne ha 16 evidentemente bastano , io mi concentrerei sui bit bus magari o su altro , ma comunque come ben sai nvidia quando esce con una line up cadi sul bagnato e sappiamo tutti che 16 gb un possibile gioco non li occupa tutti anzi , ho giocato sia a ff7 che al 16 con una 12 gb di una 3080ti senza alcun problema tutto a ultra
@@valli1135 Certo che bastano, ma per ADESSO. Io non spenderei mai certe cifre per starci a malapena dentro per il rotto della cuffia, è chiaro che se spendo l'equivalente di una PS5 Pro per la sola GPU vorrei stare tranquillo per anni su qualunque AAA, non dovendo preoccuparmi della VRAM, ma che scherziamo? Non esiste che spendo 1200€ per una 5080 e mi ritrovo i 16 gb di schede che costano la metà, anzi anche meno vram addirittura. Ho giocato FF XVI in 2160p tutto a Ultra e con upscaler Quality e occupava tutto il tempo oltre 12.5 GB di VRAM, mentre come VRAM complessiva occupata, il sistema sfiorava i 14 GB. Verificato con Afterburner. Ah, e non era neanche 4k nativo, ma con upscaler in Quality, dunque 1440p di risoluzione interna. Figuriamoci FF VII Rebirth, dove nei requisiti è raccomandato avere una GPU da 16 GB o superiore per giocare in 2160p. Nvidia castra le GPU lato VRAM di proposito per spingere a farne Comprare un'altra delle proprie più frequentemente, cioè in un lasso di anni inferiore. Lo fanno proprio apposta. Guarda quanta gente della gen rtx 3000 è rimasta fregata con gli 8 oppure 10 GB di VRAM, sono gpu che avranno a malapena 3 anni rese obsolete dalla sola vram castrata. Basta con sta roba, davvero.
@@Materioscura7 considera anche che se la linea di mercato è quella per nvidia , vuol dire che in linea di massima i giochi nei prossimi anni non supereranno quella richiesta , anche perchè non avrebbe senso
E ok, mille mila robe di upscaling fighe… ma se volessi giocare senza upscaling? Pessime prestazioni come sempre, perché orami facciamo le schede grafiche come gli iPhone, uguali ogni anno ma con 1/2 cose esclusive in più
Ma a parte il fatto che le nuove schede vanno il 33% in più delle precedenti in nativo, e quindi il gap di prestazioni pure c'è. Il mondo della tecnologia in generale, non solo delle schede video, va sempre di più verso gli sviluppi software che hardware ormai. Se tu per qualche assurdo motivo non vuoi adeguarti all'evoluzione tecnologica il problema è tuo. Perché mai non dovresti usare l'upscaler se ti triplica le prestazioni pareggiando la qualità del nativo?
È sufficiente è semrpe relativo, se no sopra il tuo sarebbe tutto sprecato, non trovi? Dopodiché, direi che grazie al multi-moltiplicatore il processore forse sarà meno importante di prima. Chiaramente la decenza dovrebbe esserci, e credo che il 12700K la raggiunga.
Salve,ma questa nuova tecnologia,funzionerà sulle serie rtx,come la mia 4070? perchè sinceramente la serie 5k chissà quante migliaia di euro costerà :(
Sei proprio ignorante.. confrontare una console che si trova a 700 euro con PC da 2000-3000 euro... come confrontare una Bmw o una Mercedes con una toyota yaris
Peccato siano sono dei pagliativi per non fare hardware degni di nota come ai tempi, cosi via di artefatti, lag, ecc... Le vere schede grafiche stanno morendo altrochè
Si ma ora io che sono una possessore di una 4070 dovró per forza di cose affidarmi all'ottima tecnologia di amd che insiste a stare pocondietri nvidia. Sono ottimista
@@alessio79aaa46fra guarda che il framegen nonné piú quello di 2 anni fa, la tecnologia avanza e un buon single player é super godibile con framegen. Quindi meno cazzate dai, ovvio é una tecnologia che deve migliorare molto, ma lo sta facendo con il tempo basta vedere un test banchmark di 2 anni fa con uno di oggi , ci sono enormi miglioramenti non si puó negare l'evidenza dai..
Quando giochi mouse e tastiera 60 fps non bastano perché muovi la telecamera MOLTO più velocemente rispetto a quando usi il pad, e i 60 fps risultano scattosi, almeno questa è la mia esperienza. Stando a distanza e usando il pad, 60 fps bastano anche a me, ma se gioco tastiera e mouse a 60 hz mi sembra scattosissimo (ovviamente anche perchè sono abituato, se non siete abituati magari vi va bene), in ogni caso fino ai 120 fps noto la differenza eccome, ho provato anche a giocare a 200 fps ma in quel caso non riesco a notare differenze. in ogni caso se il gioco ti va a 40 fps perché hai attivato ray tracing e tutto maxato, è tanta roba poterli moltiplicare anche a più di 200 fps. Magari per molta gente non serve superare i 144hz, ma è comunque una gran cosa vista la base di partenza. Voglio vedere dal vivo quanto rendono bene visivamente questi frame generati però, per capire se la sensazione di fluidità è quella che proverei con 144hz reali
@@DarkEchelon1990 mo si ricomincia con la vecchia storia che si usava una volta " e ma l' occhio umano non percepisce più di 30 fps " solo che ora lo si dice sui 60. Ora: è vero che a 60 fps è perfettamente godibile ma la differenza si nota. Diciamo cmq che la differenza su molti giochi la fa se possiamo arrivare a 60 con la grafica al massimo quando magari ne faremmo a stento 30.
@@TheJeremydinazarethho sempre giocato a FPS competitivi, quindi di me il mio occhio è abbastanza allenato con i frame. E vi assicuro che a volte il pc mi porta da 360 hz a 240 da solo e me ne accorgo addirittura sul desktop, solo muovendo il mouse!
Il fatto di generare fps in più grazie all AI sará utile indubbiamente per i possessori di serie 4mila con l aggiornamento che rilasceranno penso ai giochi competitivi online tipo warzone.. per gli altri giochi con classica campagna "offline" non vale la pena comprare una serie 5mila se hai già una serie 40. Ovviamente questo è il momento giusto per comprare un laptop da gaming e per chi monta pc per la prima volta col prezzo di 5070 si fa un gioiellino
MA CHE INCREDIBILE!!! Ecco cosa scrivo ovunque! Questa volta NVIDIA non sa come uscire dall'ombra della gigantesca serie 4000 e ha implementato il Lossless Scaling acquistabile su Steam a 6,89€ all'interno delle sue VGA!!! Il resto è solo marketing per polli! Poi credeteci che una 5070 sia piu potente di una 4090, poverini mi viene da aggiungere.
Non penso che le tech nvidia vadano come un programma da 6 euro, la 5070 no non sarà potente come la 4090, io penso intendano che in raster 4090 contro 5070 con tutte le tech fa lo stesso numero di fps, e grazie al c... con le tech logico. In ogni caso aspettiamo di vederle all'opera e di vedere anche amd con cosa se ne esce, certo speravo in 16gb almeno per la 5070 base ma vabbhe.
@@AlexTom777 si peccato che tra raster e dlss c'è una differenza qualitativa allucinante. Fanno i paragoni con dlss su prestazioni e fgx4 attivo... ridicoli.
@@crilin1975crilinlogico, lo han fatto anche con le schede passate, una 5070 non va come una 4090, una 4090 in raster e una 5070 con dlss 4 e tutte le tech attive magari fanno gli stessi fps ma non vuol dire siano potenti uguali.
@@crilin1975crilin ma dove starebbe tutta sta differenza qualitativa?..perchè in diversi casi non la vedi.. o comunque è minima.. ormai il dlss è d'obbligo considerando l'evoluzione del raytracing.. con la forza bruta non si arriva piu'.. le gpu utilizzeranno sempre di piu' l'A.I... è comunque impressionante come tramite tech mult generation spingano la 5070 TI ad eguagliare la 4090..
@@marcosantilli6944 dipende, se usi solo dlss su qualità senza frame gen concordo con te, ma prova ad attivare dlss su prestazioni e framegen attivo poi dimmi se non decade la qualità in modo evidente.
Avranno le stesse prestazioni inteso che la 5070 é in game con tutto ON e la 4090 spenta... Marketing fallimentare che però funziona perché le masse sono ancora più fallimentari..
If you are making a zoom for anything, it isn't noticeable in gameplay or at least you have to concentrate on details and not in gamepley. Industry is going in a bad direction. Crysis is a game of 2007, almost 20 years has passed and it's graphic is still realistic in 2025, something it is wrong if this is happened.
Ma... I giochi?? Comunque certe differenze sono impercettibili per chi gioca e basta. Sulla carta per carità.. ma sto giocando a Metaphor su un PC di 10 anni e funziona ancora. Per i professionisti cambia tantissimo in fare di rendering ma la cosa non riguarda tutti.
Wow… adesso puoi giocare a 330fps. Peccato che dopo i 120fps non percepisci più alcuna differenza. Gli sviluppatori devono comunque garantire 25-27fps quando sviluppano, per cui non possono sovraccaricare più di tanto.
Non è vero... Non la percepisci tu, fino a qualche anno fa qualche tardo consolato diceva che l occhio umano sopra i 30 non vede differenze... Hai mai provato a 100 vs 244?
@ Ho forse detto 30fps? No… quindi non mescolare cose. La differenza per quanto possa esserci, è estremamente limitata dopo i “120” fps, praticamente superflua per la fruizione soddisfacente dell’esperienza, che già si realizza a 60fps. Ti stai facendo le pippe sui numeri e non sull’esperienza pratica. Tra 100 e 240 puoi ancora notare la differenza, ma stiamo partendo da 100 a quel punto, non da 120, e comunque non significa che la maggiore fluidità che vedi nell’immagine a 240fps corrisponde effettivamente a 240; magari il tuo sistema nervoso si è già fermato prima, tipo a 120-130, e quindi stai vedendo la differenza tra 100 e 130 al massimo, anche se il display spara 240fps. Prova tra 130 e 240 e alza il valore minore fino a non percepire più nulla, ovviamente senza sforzarti di vederla. Ho goduto di giochi a 30fps per anni, adesso si è finalmente tornati a 60fps sulle console, e anche avendo provato i 120, posso tranquillamente farne a meno perché i 60 sono sufficienti. Questa gara agli fps estremi è superflua e toglie attenzione ad aspetti più importanti. In ogni caso il tuo intervento non risponde al punto centrale del mio commento. Che cosa me ne faccio di 330fps? Io niente, tu nemmeno, ma Nvidia te la vende per farti sentire più potente. Gli sviluppatori non hanno ricevuto grossi benefici rispetto a prima da questo punto di vista, devono ugualmente far stare tutto sopra i 25 fps almeno. Si devono focalizzare sulle tecniche di illuminazione, quelle fanno la differenza, non la risoluzione delle texture o i 300fps.
@@LucioNeve 60 suficenti dove? il fatto che il tuo occhio e monitor non siano all'altezza non vuol dire che sono sufficenti, ogni volta che da pc passo a ps5 mi sembra di laggare.
@@thomasfioramonti2438 Addirittura “laggare”… ma piantala, quanta esagerazione infantile. 60fps non sono pochi per l’occhio umano, state facendo discorsi ridicoli.
A me nel rispetto di tutte le opinioni questa deriva tutto DLSS e IA non piace affatto. La 5070 dire che va come la 4090 con quelle specifiche solo perchè il DLSS 4 la spinge (quindi una tech) è roba da denuncia penale. A tanti non glie ne frega niente del DLSS visto che porta ancora problematiche di artefatti, rumore di immagine ecc..? Preferisco tutta la vita un 1440p nativo che quel mappazzone di roba e in 4k gioco in raster e già la 4090 da risultati eccelsi senza bisogno di DLSS. Si impegnassero a fare schede che gestiscono il path tracing come potenza, non gli upscaler de sta minchia. Stanno letteralmente vendendo le tech non le schede. Il salto tra le due serie stavolta è minimo. Da 4090 a 5090 Cyberpunk in path tracing da 21 a 28 fps. WOWWWW che salto eh!
si ma la nuova generazione frame NO.E' comunque la stessa cosa che successe con le serie 3000 che avevi il dlss3 e il ray reconstruct ma non il framgen
Si beh tutto bello ma cosa me risulta questo? Giochi sempre più mal ottimizzati, e schede video top di gamma di 1/2 gen che faticano a far girare giochi perché gli manca questa tecnologia! Ho speso 1700€ per una rtx3090 al lancio e gia quando è uscita la serie 4000 certi giochi giravano male sempre per la medesima questione!
Spendere 3000 euro di Pc per avere leggere differenze in termini di qualita dell immagine rispetto ad un pc da 1500 euro.. e poi pigliano per il culo chi spende 700 euro di console invece di 450
Eh, sì, il bello è che le differenze non si notano sempre in prossimità delle console, ora il livello è cambiato, fino a 1500€ si vede. Nei test della Pro si comincia a vedere quello dove fino a ieri serviva la lente, nevvero? All'uscita della 6, il di più tornerà ad essere utile. Comunuqe la Pro costa 800€, stì mezzucci son ridicoli, prendi la digital a prezzo pieno per minimizzare la differenza, veramente da ridere. Ma una volta non c'era il rapporto imbattibile livellato sui 500€? La Pro vale il doppio nel rapporto? Non direi proprio. Facciamo così, perché non fai il doppio di PS5-Pro, così ci metti pure un processore che non sia stantio, e il 2x lo superi agilmente. Bravo, considerala senza lettore, che poi i giochi te li passa la mutua, immagino. Poi ci parlate pure di coerenza. Mah...
@lucaboss4491 non ho capito un ca*zo di quello che hai scritto, la Digital a 350 euro non la vedi manco nei sogni, la si trova a 399 al massimo, la Pro si trova a 700 praticamente da quando è uscita, ad 800 non l'ho mai vista.
@@francescolandolfo6923 Sì, sono quello che ti pare a te. La 4090 ce l'ho, ma non costa cara, l'ho pagata 2 spicci, mai vista sopra 1000€. Ah, dovresti cambiare non ho capito un... con non capisco un... L'esercizio mentale è venuto spontaneo, sai come dimostrarlo subito.
Un po’ però nvidia si deve calmare con le dichiarazioni… il ho sempre inseguito la fascia enthusiasts, ma dopo le sciocchezze che ha detto sulla 5070 che va come la 4090, ora sto faticando a rivendere la mia 4090, la gente mi risponde testuali parole: “tra poco uscirà la 5070 a 600€ che va di più della tua quindi più di 500€ non te li do”, scusa..?😅
@ questo l’avevo capito sono quelli che di tecnologia capiscono poco che non l’hanno fatto, nvidia doveva essere più chiara, è pieno di gente che pensa che la 4090 sia una scheda di merda rispetto ad una 5070 😂
È possibile non ridurre sempre tutto alla classica competizione tossica "PC vs Console"? La gente gioca su quello che può permettersi per età, frequenza di gioco e disponibilità economica. Non è che se uno ha una PS5pro allora è un coglio***!
Quà mi sa che non si capsice che questi DLSS ecc, sono solo pagliativi per non fare hardware seri, cosi via di upscaling, frame finti ecc ecc.... Sempre peggio altrochè, ma se siete contenti voi...
@@AlexTom777 Scherzi, ho usato Hwinfo per controllare la latenza extra su Vulkan da 120fps a 240iFPS, la latenza da parte dell'API arrivava a 10ms massimo, con uso di framegen a 2x, che e' minore di FSR 3FG. Quindi tecnicamente l'Nvidia ha da imparare per quanto riguarda la compatibilita' xD
@@apricorum7528 non è un discorso di compatibilità ma di resa, dubito che la resa di una app da 5 euro sia pari a quello che può offrire una tech proprietaria basata su IA, su hardware dedicato e su non so quante ore di addestramento per ottenere la resa migliore. Ok fa 3 frame aggiuntivi da 1 anche questa, ma come li fa? La resa effettiva?, questi sono i miei dubbi, poi comunque qualsiasi tecnologia di upscaling o frame generation non sarà mai perfetta al 100% logico.
@@Emanuele-j2e la 5090 va il 12% in + della 4090 oc in raster purtroppo ...con la 5090 non puoi fare tanto in oc perché è già a 90 gradi ed il tdp 600watt ti mangia il cavo, oltre le custom andranno con 2 cavi 600 per poi consumo effettivo a 800w 900w HOF fidati per ottenere un ulteriore misero 5-6%....spazzatura
@@sergioxnopxx7766 vb tanto la 5090 non e alla portata di nessuno, hanno anche detto che la 5090 non era fatta per i gamers. Cmq io punto alla 5080 o se fanno la veraione da 24 gb a quella
@@Emanuele-j2e ma parla per te chi te l'ha detto che non se la comprano? mah.... tutto o blocco ci vogliono tipo 2000 euro, la gente li spende al mese tra aperitivi post lavoro, sigarette, abbonamenti, macchinette, cene fuori, e chi piu ne ha piu ne metta e dovrebbero avere paura di 2000 euro? nel 2025? non è il mio caso perchè io aspetterò per la 5060 Ti 16gb, ma ce chi sperpera al mese e non sono pochi...
@lucaboss4491 sicuro? Adesso ci sono degli apparecchi che garantiscono una latenza record, comunque la mia era una provocazione, odio upscalare le immagini, purtroppo ci sarà sempre un degrado dell' immagine, gli algoritmi per quanto sofisticati non possono creare immagini dal nulla senza inserire errori.
@@Xmasson Quantifica latenza record, perché se lo è per i video potrebbe far ridere. Dopodiché bisognerebbe anche vedere la qualità. Forse dimentichi che il 99% del presente si appoggia sul TAA, e non solo per smussare i bordi, ormai ci coprono pure la corona... Parlare di Zero errori col temporale previsto nella base ha senso fino ad un certo punto.
@@Xmasson Parlavi di errori inevitabili o sbaglio? Ecco, usando il TAA nel 99% dei casi parti già col bastone tra le ruote. Volevo dirti che con un "meccanismo" temporale sotto il c..., gli errori del DLSS possono anche diminuire l'errore di nascita.
....se pago una 5080 con 500€ upscalati a 2000 va bene?
Sì, se lo fai in modo temporale pure tu: 3 rate (con lo sconto perché Nvidia è buona) e passa la paura... 🙂
@lucaboss4491 .....un po' come il vsync 😅
@@gufo2020 il v-sync lo noterai quando ti scaleranno il conto di 3 frame in VRR mode: Variable Rapina Rate 😁
😂😂
nulla da aggiungere, non fa una piega
Tranquilli: gli sviluppatori ne approfitteranno per ridurre di un ulteriore ordine di magnitudine l'ottimizzazione e saremo di nuovo al punto di partenza (ma con molto più input lag e sempre con tanti artefatti)!
Esattamente. Questo è il più grande problema degli ultimi anni, giochi sempre meno ottimizzati e artefatti e bug visivi più frequenti. Questa è l era peggiore dell' industria videoludica, 10 anni fa i giochi erano più belli, stabili e nitidi
Amen finalmente qualcuno che lo dice. Il mio full hd 1080 con MSAA e FXAA su red dead redemption 2 maxato è anni luce avanti a un qualunque gioco anche in 4K oggi che deve subire compressioni e duplicazione di frame. Visivamente non stiamo andando avanti ragazzi, stiamo solo giocando giochi mal ottimizzati volontariamente su spinta dei produttori delle GPU che inoltre non spiccano mai per resa visiva. Ma quale next gen, qui hanno capito come a livello di marketing spennare tanti polli. Saluti
ma vi rendete conto NVidia manda in pensione le CNN convolutional neural network che hanno appena implementato quelli di Sony sulla ps5 Pro per fare PSSR. le stesse reti neurali che Digital foundry esaltava come eccezionali , Nvidia la cestinate e ha usato il large language models LLM nettamente più evoluto e preciso. PS5 pro e' appena uscita e gia e' vecchia di 5 anni
Digital foundry sono 🤡, analizzano il prodotto ma non sanno come sono stati sviluppati internamente, infatti gran parte non sono manco ingegneri o al massimo di basso livello.
Aridaje peccato che queste schede ti costano.2000 euro, te sei quello sveglio immagini
Una 5070 costa 630 euro..... Solite generalizzazioni inutili giusto per chiappare qualche like
@@imperatore4566 546 la 5070 meno della pro hahahahahahhahahahahahahhahahaha
@@luigidisauro2500 E tutti gli altri componenti?
Occhio che vi stanno abituando alla qualità visiva con dlss performance, sul sito dlss dice chiaramente che gli fps sono con dlss performance, no quality...più che rivoluzione è una inculata. Poi non discuto che per chi non ha dei gran pc va bene anche questo...e senza dlss il castello crolla completamente. Quindi siate entusiasti... ma non troppo.
Io gioco sempre in quality, che ormai è quasi indistinguibile dal nativo. E la differenza si assottiglierà ulteriormente con dlss 4
@blvkmn7538 da quality a nativo è un 20% di degrado di qualità visiva. Da quality a performance oltre il 60%
@@arkenfalgurd5860performance fa schifo, però in alcuni casi quality e uguale o migliore del nativo
Abbiamo bisogno di gpu che vadano bene per le risoluzioni native, abbiamo bisogno di videogiochi ottimizzati, sti cazzi degli upscalers!
Siete antichi
Peró ormai il dlss ha risoluzione nativa, una volta no, adesso si adatta migliorando fps in una risoluzione nativa, aggiungendo frame in più avrai 200 fps in più con una risoluzione nativa.
Quello che nn avete capito è che ormai per l’occhio umano con queste nuove tecnologie è diventato praticamente impossibile distinguere un’immagine nativa da una upscalata! Ormai la vostra è solo una questione di principio, nn ci sono piu’ reali motivi nel non utilizzare queste tecnologie!
@@giaggio0704 ma infatti sto difendendo, se upscali con gli upscaler di qualche anno fa, la differenza si nota, ma da quando abbiamo il dlss dlaa, la differenza non c’è.
Ad esempio dlss quality, non ti porta a risoluzione nativa, e qualche anno fa il massimo che potevi mettere negli upscaler migliori in quanto fps era questo, adesso il dlss migliora i frame, ma con dlaa, quindi risoluzione 1440p nativa. E le schede nuove hanno dlss3 nativo, con un frame in più. Il problema è che il frame in più si sente e si vede quando giochi ad alti frame
Non vedo l'ora di giocare Star Citizen sulla mia friggitrice ad aria
La serie 5 non scalda molto ed ha richieste in Watt in proporzione qualità/prezzo inferiori alla serie 4. Dipende anche molto dal case che hai e dal sistema di ventilazione, ma diciamo che ancora non serve un dissipatore ad acqua
@@lucadebonis5242 Ma no bro ironizzavo sul fatto che con un simile aumento di prestazione anche una friggitrice ad aria farebbe girare i giochi
@@lucadebonis5242in proporzione alla seria 4?😂 La 5090 consuma 50w in più della 4090
Se ci pensi la 5090 è direttamente l'aria fritta
ok questa era geniale... gg
Farete dei video con le varie presentazioni del ces? Ho seguito tutte le conferenze ma non capisco perché alcune cose non sono state dette in conferenza ma si trovano dei video a parte.
Dicono che sono falsi quei fps generati con il dlss…
Aspetta che escano e che le recensiscano ma principalmente vai in altri lidi dove la tecnologia è il focus odierno.
Il dlss 4 sara solo supportato solo dalla serie 5000?
no, solo il mult gen si
Grazie per l'informazione 👍
@ALE79-79 potresti spiegarmi questo fattore? Cosa avrà in più la serie 40 quindi? Non ho capito bene
@@virusddd9448 50 avra il multi frame gen ed altre migliorie tecniche ovviamente
@@virusddd9448 la serie 50 avrà il mult gen come esclusiva, ed altre migliorie e ottimizzazioni hardware e software, le 40 useranno solo un dlss4
Ma le prestazioni grezze dove stanno?
esatto.
ormai l'hardware non è piu scindibile dal software
5090=+30%4090
@@alfofpv non esistono più le prestazioni “grezze”. Ormai hardware e software sono inscindibili
Potreste spiegarmi il fattore riguardo le serie 40 ? Nvidia override?
sisi ok, tutto apparentemente fico ma stò dlss 4 quando verrà implementato realmente nei giochi? già tanti non hanno nemmeno il dlss 3.5, chissà il 4. Mah, nvidia mi sa che stà puntanto un po' troppo sull' ia e dlss. Ne varrà la pena passare da una serie 4000 a 5000?
no
Ma se praticamente tutti i giochi nuovi hanno il dlss 3.7 ahah
Bro i giochi che non hanno il dlss implementato non ne hanno bisogno, girano anche su una friggitrice ad aria
Considerando il mio lavoro sto pensando di optare per un Laptop da gaming con la serie 5000.
Non sono interessato alle risoluzioni da urlo… Switch 2 e PC portatile e sto bene per un bel po'
Resta sempre il fatto che amd offre una gpu da 20 gb di vram a 600€, mentre nvidia insiste a piazzare schede da 12 GB intorno a quella fascia di prezzo, cosa assolutamente ridicola nel 2025. Su nvidia Per avere 16 gb di vram si deve salire di prezzo: 800€ la 4070ti super oppure 900€ la 5070 ti, che non è neanche uscita e che comunque avrà 16 gb di vram, sufficienti ma comuqnue precari in 4k nel prossimo futuro. Già FF VII Rebirth di prossima uscita su PC raccomanda i 16 GB O SUPERIORI di VRAM per giocare in 2160p, per cui figuriamoci in futuro. 16 GB a 800-900€ sono pochi, dovevano darne almeno 20 per me. Detto questo, se non frega nulla della vram, e si tiene particolarmente al ray tracing e al dlss, nvidia va benissimo. Secondo me AMD renderà compatibile l' FSR 4 con le gpu rdna 3 entro quest'anno, e a quel punto sti cazzi di nvidia, quei prezzi sono ridicoli.
Si ma non te ne fai niente di 10 gb di vram se tutto il contesto e le tecnologie della scheda non è al passo
@valli1135 se giochi su una TV 4k i 12 gb di una 4070 super o di una 5070 risultano inadeguati, e se non vuoi arrivare a spendere cifre mostruose è chiaro che amd ti dà la vram per giocare per anni senza il problema di quel requisito, addirittura allo stesso prezzo di gpu da 12 gb ne trovi una che ne ha 20
@@Materioscura7 si ma la vram evidentemente non è il problema, visto che tutti fanno focus su quello se una 5080 ne ha 16 evidentemente bastano , io mi concentrerei sui bit bus magari o su altro , ma comunque come ben sai nvidia quando esce con una line up cadi sul bagnato e sappiamo tutti che 16 gb un possibile gioco non li occupa tutti anzi , ho giocato sia a ff7 che al 16 con una 12 gb di una 3080ti senza alcun problema tutto a ultra
@@valli1135 Certo che bastano, ma per ADESSO. Io non spenderei mai certe cifre per starci a malapena dentro per il rotto della cuffia, è chiaro che se spendo l'equivalente di una PS5 Pro per la sola GPU vorrei stare tranquillo per anni su qualunque AAA, non dovendo preoccuparmi della VRAM, ma che scherziamo? Non esiste che spendo 1200€ per una 5080 e mi ritrovo i 16 gb di schede che costano la metà, anzi anche meno vram addirittura. Ho giocato FF XVI in 2160p tutto a Ultra e con upscaler Quality e occupava tutto il tempo oltre 12.5 GB di VRAM, mentre come VRAM complessiva occupata, il sistema sfiorava i 14 GB. Verificato con Afterburner. Ah, e non era neanche 4k nativo, ma con upscaler in Quality, dunque 1440p di risoluzione interna. Figuriamoci FF VII Rebirth, dove nei requisiti è raccomandato avere una GPU da 16 GB o superiore per giocare in 2160p. Nvidia castra le GPU lato VRAM di proposito per spingere a farne Comprare un'altra delle proprie più frequentemente, cioè in un lasso di anni inferiore. Lo fanno proprio apposta. Guarda quanta gente della gen rtx 3000 è rimasta fregata con gli 8 oppure 10 GB di VRAM, sono gpu che avranno a malapena 3 anni rese obsolete dalla sola vram castrata. Basta con sta roba, davvero.
@@Materioscura7 considera anche che se la linea di mercato è quella per nvidia , vuol dire che in linea di massima i giochi nei prossimi anni non supereranno quella richiesta , anche perchè non avrebbe senso
E ok, mille mila robe di upscaling fighe… ma se volessi giocare senza upscaling? Pessime prestazioni come sempre, perché orami facciamo le schede grafiche come gli iPhone, uguali ogni anno ma con 1/2 cose esclusive in più
Esatto senza dlss4 non andrà mai come una 4090, secondo me sarà come una 4070 ti super o leggermente più
@@marcoeight2381bro una 4070 ti super a 550 non e male, poi non sara male la performance di base sara 20% +. Di potenza
Perchè dovresti non usarle?
@@marcoeight2381 vedo che lo stadio AMD è a lutto. Prima fase. Negazione.
Ma a parte il fatto che le nuove schede vanno il 33% in più delle precedenti in nativo, e quindi il gap di prestazioni pure c'è. Il mondo della tecnologia in generale, non solo delle schede video, va sempre di più verso gli sviluppi software che hardware ormai. Se tu per qualche assurdo motivo non vuoi adeguarti all'evoluzione tecnologica il problema è tuo. Perché mai non dovresti usare l'upscaler se ti triplica le prestazioni pareggiando la qualità del nativo?
Quindi che cpu occorre avere ? È sufficiente il 12700k ?
È sufficiente è semrpe relativo, se no sopra il tuo sarebbe tutto sprecato, non trovi?
Dopodiché, direi che grazie al multi-moltiplicatore il processore forse sarà meno importante di prima.
Chiaramente la decenza dovrebbe esserci, e credo che il 12700K la raggiunga.
passare da una 1650 a questo è worth? o è meglio una rx 7700 xt? visto che non ne capisco molto mi servirebbe aiuto
Salve,ma questa nuova tecnologia,funzionerà sulle serie rtx,come la mia 4070? perchè sinceramente la serie 5k chissà quante migliaia di euro costerà :(
Tranne il Multi-Frame Generator il resto lo avrai pure tu, così come tranne il FG lo avranno pure le precedenti.
La ps5 pro non si era messa al passo? Che follia chi l'ha pensato
Sei proprio ignorante.. confrontare una console che si trova a 700 euro con PC da 2000-3000 euro... come confrontare una Bmw o una Mercedes con una toyota yaris
Sara disponibile anche per serie 3mila?
Il nuovo DLSS si
Mancherà ovviamente il frame gen
Pora amd, non fa in tempo a sviluppare un frame generator degno di nota che il giorno dopo Nvidia ne presenta uno con miglioramenti fuori scala.
Avevamo già vari problemi e bag grafici con un frame finto su 2, figuriamoci ora con 3 finti su 4.
Fuori scala 😂🤣😂
Peccato siano sono dei pagliativi per non fare hardware degni di nota come ai tempi, cosi via di artefatti, lag, ecc... Le vere schede grafiche stanno morendo altrochè
Si ma ora io che sono una possessore di una 4070 dovró per forza di cose affidarmi all'ottima tecnologia di amd che insiste a stare pocondietri nvidia. Sono ottimista
@@alessio79aaa46fra guarda che il framegen nonné piú quello di 2 anni fa, la tecnologia avanza e un buon single player é super godibile con framegen. Quindi meno cazzate dai, ovvio é una tecnologia che deve migliorare molto, ma lo sta facendo con il tempo basta vedere un test banchmark di 2 anni fa con uno di oggi , ci sono enormi miglioramenti non si puó negare l'evidenza dai..
@@rollatore9881 bisogna vedere se è superiore alla tecnologia della serie 40 sui fatti quando usciranno
240 o 300 fps (artificiali) servono a cosa se bastano i 60?
Quando giochi mouse e tastiera 60 fps non bastano perché muovi la telecamera MOLTO più velocemente rispetto a quando usi il pad, e i 60 fps risultano scattosi, almeno questa è la mia esperienza. Stando a distanza e usando il pad, 60 fps bastano anche a me, ma se gioco tastiera e mouse a 60 hz mi sembra scattosissimo (ovviamente anche perchè sono abituato, se non siete abituati magari vi va bene), in ogni caso fino ai 120 fps noto la differenza eccome, ho provato anche a giocare a 200 fps ma in quel caso non riesco a notare differenze.
in ogni caso se il gioco ti va a 40 fps perché hai attivato ray tracing e tutto maxato, è tanta roba poterli moltiplicare anche a più di 200 fps. Magari per molta gente non serve superare i 144hz, ma è comunque una gran cosa vista la base di partenza. Voglio vedere dal vivo quanto rendono bene visivamente questi frame generati però, per capire se la sensazione di fluidità è quella che proverei con 144hz reali
Se il tuo occhio non percepisce più di 60 fps buon per te. C'è gente che percepisce i 120 e oltre e trova disturbo nel giocare a frequenza ridotta.
@@DarkEchelon1990 mo si ricomincia con la vecchia storia che si usava una volta " e ma l' occhio umano non percepisce più di 30 fps " solo che ora lo si dice sui 60. Ora: è vero che a 60 fps è perfettamente godibile ma la differenza si nota. Diciamo cmq che la differenza su molti giochi la fa se possiamo arrivare a 60 con la grafica al massimo quando magari ne faremmo a stento 30.
@@TheJeremydinazarethho sempre giocato a FPS competitivi, quindi di me il mio occhio è abbastanza allenato con i frame.
E vi assicuro che a volte il pc mi porta da 360 hz a 240 da solo e me ne accorgo addirittura sul desktop, solo muovendo il mouse!
Puoi limitare il tutto a 60 e sparare in alto risoluzione e dettagli.
Il pc è bello perchè puoi customizzare come vuoi.
Il fatto di generare fps in più grazie all AI sará utile indubbiamente per i possessori di serie 4mila con l aggiornamento che rilasceranno penso ai giochi competitivi online tipo warzone.. per gli altri giochi con classica campagna "offline" non vale la pena comprare una serie 5mila se hai già una serie 40.
Ovviamente questo è il momento giusto per comprare un laptop da gaming e per chi monta pc per la prima volta col prezzo di 5070 si fa un gioiellino
MA CHE INCREDIBILE!!!
Ecco cosa scrivo ovunque! Questa volta NVIDIA non sa come uscire dall'ombra della gigantesca serie 4000 e ha implementato il Lossless Scaling acquistabile su Steam a 6,89€ all'interno delle sue VGA!!! Il resto è solo marketing per polli!
Poi credeteci che una 5070 sia piu potente di una 4090, poverini mi viene da aggiungere.
Non penso che le tech nvidia vadano come un programma da 6 euro, la 5070 no non sarà potente come la 4090, io penso intendano che in raster 4090 contro 5070 con tutte le tech fa lo stesso numero di fps, e grazie al c... con le tech logico.
In ogni caso aspettiamo di vederle all'opera e di vedere anche amd con cosa se ne esce, certo speravo in 16gb almeno per la 5070 base ma vabbhe.
@@AlexTom777 si peccato che tra raster e dlss c'è una differenza qualitativa allucinante.
Fanno i paragoni con dlss su prestazioni e fgx4 attivo... ridicoli.
@@crilin1975crilinlogico, lo han fatto anche con le schede passate, una 5070 non va come una 4090, una 4090 in raster e una 5070 con dlss 4 e tutte le tech attive magari fanno gli stessi fps ma non vuol dire siano potenti uguali.
@@crilin1975crilin ma dove starebbe tutta sta differenza qualitativa?..perchè in diversi casi non la vedi.. o comunque è minima..
ormai il dlss è d'obbligo considerando l'evoluzione del raytracing..
con la forza bruta non si arriva piu'.. le gpu utilizzeranno sempre di piu' l'A.I...
è comunque impressionante come tramite tech mult generation spingano la 5070 TI ad eguagliare la 4090..
@@marcosantilli6944 dipende, se usi solo dlss su qualità senza frame gen concordo con te, ma prova ad attivare dlss su prestazioni e framegen attivo poi dimmi se non decade la qualità in modo evidente.
Avranno le stesse prestazioni inteso che la 5070 é in game con tutto ON e la 4090 spenta...
Marketing fallimentare che però funziona perché le masse sono ancora più fallimentari..
If you are making a zoom for anything, it isn't noticeable in gameplay or at least you have to concentrate on details and not in gamepley. Industry is going in a bad direction. Crysis is a game of 2007, almost 20 years has passed and it's graphic is still realistic in 2025, something it is wrong if this is happened.
Ma... I giochi??
Comunque certe differenze sono impercettibili per chi gioca e basta. Sulla carta per carità.. ma sto giocando a Metaphor su un PC di 10 anni e funziona ancora.
Per i professionisti cambia tantissimo in fare di rendering ma la cosa non riguarda tutti.
Azz mi sono appena comprato una 4070 super ed è gia da mandare in pensione 😅😂
anche io! Però una 4060ti, anche se la 1050ti nel cassetto, ringrazia ugualmente per il suo pensionamento a seguito dell'onorato servizio :P
Wow… adesso puoi giocare a 330fps. Peccato che dopo i 120fps non percepisci più alcuna differenza. Gli sviluppatori devono comunque garantire 25-27fps quando sviluppano, per cui non possono sovraccaricare più di tanto.
Non è vero... Non la percepisci tu, fino a qualche anno fa qualche tardo consolato diceva che l occhio umano sopra i 30 non vede differenze... Hai mai provato a 100 vs 244?
@
Ho forse detto 30fps? No… quindi non mescolare cose.
La differenza per quanto possa esserci, è estremamente limitata dopo i “120” fps,
praticamente superflua per la fruizione soddisfacente dell’esperienza, che già si realizza a 60fps. Ti stai facendo le pippe sui numeri e non sull’esperienza pratica.
Tra 100 e 240 puoi ancora notare la differenza, ma stiamo partendo da 100 a quel punto, non da 120, e comunque non significa che la maggiore fluidità che vedi nell’immagine a 240fps corrisponde effettivamente a 240; magari il tuo sistema nervoso si è già fermato prima, tipo a 120-130, e quindi stai vedendo la differenza tra 100 e 130 al massimo, anche se il display spara 240fps. Prova tra 130 e 240 e alza il valore minore fino a non percepire più nulla,
ovviamente senza sforzarti di vederla.
Ho goduto di giochi a 30fps per anni, adesso si è finalmente tornati a 60fps sulle console, e anche avendo provato i 120, posso tranquillamente farne a meno perché i 60 sono sufficienti. Questa gara agli fps estremi è superflua e toglie attenzione ad aspetti più importanti.
In ogni caso il tuo intervento non risponde al punto centrale del mio commento. Che cosa me ne faccio di 330fps? Io niente, tu nemmeno, ma Nvidia te la vende per farti sentire più potente. Gli sviluppatori non hanno ricevuto grossi benefici rispetto a prima da questo punto di vista, devono ugualmente far stare tutto sopra i 25 fps almeno.
Si devono focalizzare sulle tecniche di illuminazione, quelle fanno la differenza, non la risoluzione delle texture o i 300fps.
@@LucioNeve parla per te pero'
@@LucioNeve 60 suficenti dove? il fatto che il tuo occhio e monitor non siano all'altezza non vuol dire che sono sufficenti, ogni volta che da pc passo a ps5 mi sembra di laggare.
@@thomasfioramonti2438
Addirittura “laggare”… ma piantala, quanta esagerazione infantile. 60fps non sono pochi per l’occhio umano, state facendo discorsi ridicoli.
Ennesima?
A me nel rispetto di tutte le opinioni questa deriva tutto DLSS e IA non piace affatto. La 5070 dire che va come la 4090 con quelle specifiche solo perchè il DLSS 4 la spinge (quindi una tech) è roba da denuncia penale. A tanti non glie ne frega niente del DLSS visto che porta ancora problematiche di artefatti, rumore di immagine ecc..? Preferisco tutta la vita un 1440p nativo che quel mappazzone di roba e in 4k gioco in raster e già la 4090 da risultati eccelsi senza bisogno di DLSS. Si impegnassero a fare schede che gestiscono il path tracing come potenza, non gli upscaler de sta minchia. Stanno letteralmente vendendo le tech non le schede. Il salto tra le due serie stavolta è minimo. Da 4090 a 5090 Cyberpunk in path tracing da 21 a 28 fps. WOWWWW che salto eh!
Dlss 4 non è esclusiva rtx 5000 ... almeno quello
si ma la nuova generazione frame NO.E' comunque la stessa cosa che successe con le serie 3000 che avevi il dlss3 e il ray reconstruct ma non il framgen
@@MarioRossi-hw2rq Che una nuova che esce ogni 2 abbia una tech esclusiva ci sta comunque.
meno male almeno noi della serie 4000 ci possiamo accontentare del dlss 4
Che gioco è quello che fa vedere che spara ?
Dune: Awakening
@@Mariobianchi92mado che hype per quel giocoooi
usate tutti LS e sarete piu felici senza dover cambiare schede...
Cioè?
@@lucavolpicelli7551 google Loseless scaling e avrai la risposta
Si beh tutto bello ma cosa me risulta questo? Giochi sempre più mal ottimizzati, e schede video top di gamma di 1/2 gen che faticano a far girare giochi perché gli manca questa tecnologia! Ho speso 1700€ per una rtx3090 al lancio e gia quando è uscita la serie 4000 certi giochi giravano male sempre per la medesima questione!
Spendere 3000 euro di Pc per avere leggere differenze in termini di qualita dell immagine rispetto ad un pc da 1500 euro.. e poi pigliano per il culo chi spende 700 euro di console invece di 450
Ma chi prende per il culo chi spende 900* euro di console anziché 450? Noi prendiamo per il culo chi spende 900 euro di console anziché farsi un PC
Eh, sì, il bello è che le differenze non si notano sempre in prossimità delle console, ora il livello è cambiato, fino a 1500€ si vede.
Nei test della Pro si comincia a vedere quello dove fino a ieri serviva la lente, nevvero? All'uscita della 6, il di più tornerà ad essere utile.
Comunuqe la Pro costa 800€, stì mezzucci son ridicoli, prendi la digital a prezzo pieno per minimizzare la differenza, veramente da ridere.
Ma una volta non c'era il rapporto imbattibile livellato sui 500€? La Pro vale il doppio nel rapporto? Non direi proprio.
Facciamo così, perché non fai il doppio di PS5-Pro, così ci metti pure un processore che non sia stantio, e il 2x lo superi agilmente.
Bravo, considerala senza lettore, che poi i giochi te li passa la mutua, immagino. Poi ci parlate pure di coerenza. Mah...
@lucaboss4491 non ho capito un ca*zo di quello che hai scritto, la Digital a 350 euro non la vedi manco nei sogni, la si trova a 399 al massimo, la Pro si trova a 700 praticamente da quando è uscita, ad 800 non l'ho mai vista.
@lucaboss4491 scommetto che tu sei uno di quelli che paragonava una 4090 alla Ps5 Pro... oppure un Pc da 4000 mila euro con una 5090 alla Ps5 Pro 🤣
@@francescolandolfo6923 Sì, sono quello che ti pare a te. La 4090 ce l'ho, ma non costa cara, l'ho pagata 2 spicci, mai vista sopra 1000€.
Ah, dovresti cambiare non ho capito un... con non capisco un... L'esercizio mentale è venuto spontaneo, sai come dimostrarlo subito.
Un po’ però nvidia si deve calmare con le dichiarazioni… il ho sempre inseguito la fascia enthusiasts, ma dopo le sciocchezze che ha detto sulla 5070 che va come la 4090, ora sto faticando a rivendere la mia 4090, la gente mi risponde testuali parole: “tra poco uscirà la 5070 a 600€ che va di più della tua quindi più di 500€ non te li do”, scusa..?😅
Va di più con il frame generator, in raster forse andrà un 15/20% più dell'attuale 4070
@ questo l’avevo capito sono quelli che di tecnologia capiscono poco che non l’hanno fatto, nvidia doveva essere più chiara, è pieno di gente che pensa che la 4090 sia una scheda di merda rispetto ad una 5070 😂
@@colica77 e vabbè, lo capiranno quando le compreranno e faranno la metà degli FPS della 4090 😂😂
frame finti ma soldi veri
Alla faccia vostra Sonari, che pensate che il PSSR sia il migliore sul mercato
Non so chi lo possa pensare, fa schifo. Qualunque comparazione ha dimostrato che il PSSR è un flop totale.
Sempre tu riesca a far partire il gioco...
Non credo esistano più i sonari, si sono estinti per ovvie ragioni mi sa. Pure io ho fatto parte di quella sponda. Fanculo Sony
È possibile non ridurre sempre tutto alla classica competizione tossica "PC vs Console"? La gente gioca su quello che può permettersi per età, frequenza di gioco e disponibilità economica. Non è che se uno ha una PS5pro allora è un coglio***!
@@fabiofabi3997io uso ancora la ps5, non e male una bestia per il prezzo pero mi sono convertito al pc e entro la fine dell anno mi prendo una 5080
Io non vedo differenze........ fra le immagini di destra e quelle di sinistra.... mi sembrano tutte pippe di cui se ne possa fare a meno....
Quà mi sa che non si capsice che questi DLSS ecc, sono solo pagliativi per non fare hardware seri, cosi via di upscaling, frame finti ecc ecc.... Sempre peggio altrochè, ma se siete contenti voi...
scusatei ma l occhio umano riesce a percepire tutti sti fps?
si a voglia, personalmente fino a 160hz riesco perfino a dirti il frame-rate...
Io ho appena fatto un PC nuovo con una 4080 super 🫠
E che rivoluzione, LSFG lo fa gia' da anni ed e' compatibile con ogni GPU
non ne avevo mai sentito parlare, è a pagamento?
@@dutchvanderlinde557 5 euro, sta su steam. Usi WGC, non DXGI che e' rotta su windows. Cerca lossless scaling discord per supporto poi.
E secondo te un applicazione da 5 euro (alle volte sotto i 2 euro in sconto) va come le tech nvidia?.
@@AlexTom777 Scherzi, ho usato Hwinfo per controllare la latenza extra su Vulkan da 120fps a 240iFPS, la latenza da parte dell'API arrivava a 10ms massimo, con uso di framegen a 2x, che e' minore di FSR 3FG. Quindi tecnicamente l'Nvidia ha da imparare per quanto riguarda la compatibilita' xD
@@apricorum7528 non è un discorso di compatibilità ma di resa, dubito che la resa di una app da 5 euro sia pari a quello che può offrire una tech proprietaria basata su IA, su hardware dedicato e su non so quante ore di addestramento per ottenere la resa migliore.
Ok fa 3 frame aggiuntivi da 1 anche questa, ma come li fa? La resa effettiva?, questi sono i miei dubbi, poi comunque qualsiasi tecnologia di upscaling o frame generation non sarà mai perfetta al 100% logico.
Nvidia sta distruggendo il gaming.
incredibili 200 fps inesistenti
si chiama AI
Onestamente non so se mi convenga cambiare la mia 4090 🧐
Ovviamente no
Mi compro una 3060@@pierpaolo6792
È vecchia aha
Ma stai scherzando spero… ovvio che non conviene😅
@@danielesantoro4101 io .mi prendo quella nuovA aha
Fnchè il mio computer da gaming è potente così come è adesso, mi preoccupo poco di riuscire a giocare ai videogiochi di ultima generazione.
è incredibile ma rimarrà così potente come è adesso per sempre. o speravi che si potenziasse nel tempo?
Ma scusa, ciò significa che senza dlss fa cagare?
No, ma lo scarto aumenta grazie a quello.
La 5070 sara come la 4070 ti super, la 5080 quasi come la 4090 e la 5090 sara una bestia. Anche se costera un botto
@@Emanuele-j2e la 5090 va il 12% in + della 4090 oc in raster purtroppo ...con la 5090 non puoi fare tanto in oc perché è già a 90 gradi ed il tdp 600watt ti mangia il cavo, oltre le custom andranno con 2 cavi 600 per poi consumo effettivo a 800w 900w HOF fidati per ottenere un ulteriore misero 5-6%....spazzatura
@@sergioxnopxx7766 vb tanto la 5090 non e alla portata di nessuno, hanno anche detto che la 5090 non era fatta per i gamers. Cmq io punto alla 5080 o se fanno la veraione da 24 gb a quella
@@Emanuele-j2e ma parla per te chi te l'ha detto che non se la comprano? mah.... tutto o blocco ci vogliono tipo 2000 euro, la gente li spende al mese tra aperitivi post lavoro, sigarette, abbonamenti, macchinette, cene fuori, e chi piu ne ha piu ne metta e dovrebbero avere paura di 2000 euro? nel 2025? non è il mio caso perchè io aspetterò per la 5060 Ti 16gb, ma ce chi sperpera al mese e non sono pochi...
Ma la maggior parte so normie che ne sanno di queste specifiche ahahah
a questo punto conviene comprarsi uno scaler video esterno si risparmia un botto di soldi e si hanno prestazioni migliori sul lato video!
NO. Lo scaler video esterno ha una latenza assurda, non stai guardando un video, dove anche se parte un secondo dopo va bene.
@lucaboss4491 sicuro? Adesso ci sono degli apparecchi che garantiscono una latenza record, comunque la mia era una provocazione, odio upscalare le immagini, purtroppo ci sarà sempre un degrado dell' immagine, gli algoritmi per quanto sofisticati non possono creare immagini dal nulla senza inserire errori.
@@Xmasson Quantifica latenza record, perché se lo è per i video potrebbe far ridere. Dopodiché bisognerebbe anche vedere la qualità.
Forse dimentichi che il 99% del presente si appoggia sul TAA, e non solo per smussare i bordi, ormai ci coprono pure la corona...
Parlare di Zero errori col temporale previsto nella base ha senso fino ad un certo punto.
@@lucaboss4491 forse non hai letto bene il messaggio, non ho detto errori zero, anzi, per questo odio l'upscaling
@@Xmasson Parlavi di errori inevitabili o sbaglio? Ecco, usando il TAA nel 99% dei casi parti già col bastone tra le ruote.
Volevo dirti che con un "meccanismo" temporale sotto il c..., gli errori del DLSS possono anche diminuire l'errore di nascita.