Egy kis pótlás, hogy teljes legyen a kép. A config amiben a kártyát teszteltük: Lap: ASUS ROG STRIX Z790-F Proci: Intel Core i9-13900K RAM: 32GB G.Skill Z5 6000MHz DDR5 SSD: Samsung 980 PRO (PCIe 4) 😎
Hány perc lenne ez a videó ha nem a “shortcut” csatornán lenne? :D Viccet félretéve, nagyon bírom a munkátokat srácok. Jöhetnek az ilyen tartalmak, továbbra is ;)
Jó cucc a dlss 3 csak azt annyira nem reklámozzák, hogy az input latency megnő, mivel a generált frame-ek, prediktált frame-ek, a latency majdnem ugyanaz mintha 30fps-sel játszanál, míg a dlss 2-nél a latency is csökken.
Akiknek kétségei lennének efelől, azoknak itt ez a digital foundry-s videó, 27:00 perctől nézzétek: th-cam.com/video/92ZqYaPXxas/w-d-xo.html Sajnos 50-55ös latency közelében már érzékeli mindenki a késést, ami már egy single player játéknál is hátrányt jelent, egy multiplayernél meg egyenesen "no way" úgyhogy baromi nagy csalódás és parasztvakítás a dlss 3
pont ezen gondolkoztam a videó nézése közben, hogy oké, hogy single-playernél szép és jó, de egy multiplayernél mennyire befolyásolja negatívan a játékmenetet, ezek szernt jól gondoltam, hogy nem feltétlenül pozitív a dolog :D
Így van! Illetve ha a DLSS 3-ba be van kapcsolva ez a frame predict funkció akkor nem tudsz V-sync-et használni csak G-sync-et már ha támogatja a kijelződ.
@@Tridentparrot mondjuk specifikálhattad volna jobban, mert 800x600-ba manapság már bármilyen kártya eléri a 144 fps-t (ez a kártya 4k-ra van, ott meg szerintem maxon nincs olyan multiplayer játék, ahol lenne fix 144 fps), de csak, hogy instant mondjak is 1 példát: Warzone, 4080, 4k, átlag fps: 109.. az elég messze van a 144-től
Amíg a Crysis forradalmi grafikával és szuper fizikával érkezett addig a cyberbug egy optimalizálatlan szrság ami még visszalépés is grafikában és fizikában is.
Milyen felbontásban és mennyi frame rate-tel? RTX 3080 12GB-ot használok, tök olcsón vettem, amikor a bányászláz összeomlott, 1440p-ben Psycho RT-vel (persze minden más kimaxolva) DLSS Quality és a beépített benchmarkban 71 fps átlagot kapok, ha kikapcsolom az RT-t akkor meg bőségesen 100 fps felett. Ryzen 7 5800X3D CPU-val és 32GB 3600mhz-es RAM-mal, sima SATA SSD-vel. 4k-t én még nem erőltetem, mert akkor 6x ennyit kellene fizetnem VGA-ért. Nekem nem éri meg, vettem egy jó minőségű 1440p-s panelt és tökéletesen elvagyok vele.
Digital Foundry szépen kivesézte már ezt a "DLSS 3"-at és ez nem egy pontos megnevezése a technológiának, mert inkább Frame Generation (frame generálás) illik rá jobban, mivel konkrétan ezt csinálja a technológia, ugyanazt a DLSS technológiát használja, mint a DLSS 2.X, tehát alacsonyabb felbontásból magasabbra skáláz "csak" még generál egy közbülső frame-t két hagyományosan generált frame közé, amivel éléggé megdobja az álag képkockaszámot, ez viszont okoz(hat) grafikai problémákat, mivel a közbülső frame teljes mértékben A.I. által generált, például a U.I. elemeket (quest marker stb.) nem generálj le elég gyorsan, ezért azok széteshetnek, de mivel mondjuk 8-16 ms-ig vannak a képernyőn nehéz kilőni. Ami még próbélma az a késleltetés, a kártyákban van egy továbbfejlesztett úgynevezett Optical Flow Accelerator hardver (RTX 20 és RTX 30-as kártyákban is volt, csak nVidia azt mondja ez jobb), aminek "el kell készítenie" a közbülső képkockát így a késleltetés nő, mivel időbe telik plusz egy frame-t lerenderelni, ezért az nVidia Reflex autómatikusan bekapcsol és csökkenti a késleltetést, amivel már kényelmesen játszhatóvá válik a játék, de nem ezt fogják az E-sport játékosok alkalmazni, mert DLSS 3 nélkül sokkal alacsonyabb késleltetést lehet elérni. Dióhéjban ezt tudom erről a tech-ről. Amúgy nekem tetszik, nem vagyok amúgy sem a COD, Battlefield és egyéb competitive játékoknak a híve. Szerkesztés: Nincse RTX 4080-am, vagy RTX 4090-em, amúgy ki tudja ezt megvenni Magyarországon? :D
Azt az 50-100 kártyát,amit a " megbízható partnerek " berendelnek Magyarországon havonta és el is adnak...nos, 50-100 vásárló havonta legalább. És sorban állás van, lesz, ezt garantálom.
@@thescouserchucky Úgy gondolom azok, akik RTX 4000-es kártyát vesznek, már tényleg a pénz nem számít kategóriába tartoznak. Akkor már RTX 4090-et fognak venni, külföldön is így van, az RTX 4080 annyit nem ad az RTX 3090 Ti-hoz, hogy akik eddig is a legdrágábbat vették (RTX 3090 Ti 2000 USD volt), azok most is azt akarják majd. RTX 4080-at megvenném 350k-ért, de hát álmodni lehet, 650k hardveraprón és 700-800 ezer webshopokban. Nekem sok.
DLSS 3 az teljes mértékben a 4k ultra grafhoz lett kitalálva.(Talán majd 8k is téma lesz lassan de oda monitor sem ártana...:D ) Már a dlss2 is inkább 4k-ra van, mint 1080p kompetetivre. Ha jól tudom az FSR is ezt csinálja, mindkét technológia hasonló. felskáláz, és az extra fpsért generál képkockákat. LG TV-knél is van hasonló technika, ahol AI generál FPS/képkockát. 60 FPS alatt mondhatni minden fps számit. 10 felett már nemigazán érzékelni különbséget. 40-60 közt iszonyat nagy a különbség, de 60-100 közt szinte semmi.
@@johnnyalpha2957 A DLSS 2.X és az FSR 2.X ugye kisebb felbontáson rendereli le a játékot, majd a DLSS-nél az nVidia kártyákban lévő Tensor magok a mesterséges intelligencia segítségével, FSR 2.X-nél pedig egy emberek által létrehozott algoritmus segítségével, de ugyanazt az elvet használva skálázzák fel ezek a technológiák a képet. Így több frame-et kapunk közel natív felbontáshoz hasonló képminőségen. Szerintem te a DLSS 3-at a frame interpolation-höz hasonlítod jogosan, bizonyos TV-kben megvan ez a lehetőség. Persze sokkal alacsonyabb minőségben történik a plusz frame beszúrása TV-zésnél, ott nem forgatod a kamerát és nem érdekes, hogy van-e magasabb késleltetés vagy sem.
Pont a felnagyítás miatt csak átverésnek érzem ezt a DLSS-t. Megveszi elég drágán a 4080-at plusz a nem olcsó 4K monitort, hogy csak DLSS-el tudja kihasználni a 4K 60+ FPS-t. Ez az a igazi hármat fizet kettőt kap akció. És a durva, hogy tuti a nagy része aki megveszi az ilyen csúcs gépet, az ingyenes pvp meg battle royal játékokkal tolja mint a cod warzone.
Emlékszek még amikor 2002 környékén találkoztam először Geforce 2 mx440 el azt hiszem ez volt a teljes neve akkor ősszel jött ki a mohaa első része. Hát azóta tök más a helyzet az biztos, de más világ volt. Régi szép idők bye bye.
@@KTamas27Honnan a rákból tudod te, hogy mennyi pénzt kapnak? De amúgy meg…Akkor az étteremben nem köszönöd meg a pincérnek, hogy kihozza a kajád, mert ő ezért pénzt kap? Nem köszönöd meg az orvosnak, ha meggyógyít, mert ő ezért pénzt kap? Nem köszönöd meg a futárnak, hogy kihozza a rendelésed, mert ő ezért pénzt kap? Meddig soroljam még? Gondolkodj néha mielőtt kijelentesz valamit, nem árt.
Ezeket majd tök jó áron lehet venni 1 év múlva, mikor teljesen elbaszódik a világítás :3 hihetetlen, hogy ez márka mindig teljesen új hibákat tud felmutatni
Azt lehet tudni, hogy a kártya milyen hőfokokkal bír, ha maxon dolgozik? Szerintem ez a nagy hűtés a silent mode miatt van, hogy minél később legyen hangos a gép. Amúgy a 4K mennyire éri meg mostanában, van olyan monitor, amivel ki is lehet használni? Mert lehetséges, hogy a QHD 300Hz feletti monitorok jobbak, bár ez is játék és egyénfüggő, az anyagi vonzatról nem is beszélve. De azt is mindenki döntse el, hogy megéri-e neki a 4K meg az RTX40xx, vagy inkább QHD és RTX30xx.
Igen, a Gigabyte-tal ti közösen megelőztétek a korotokat, " ezek " még most találták ki! 🤷♂🤦♂ Szerkesztenem kell, mert a srác rendesen elhiszi... Nem, nem most. De ilyen minőségben nem mindenki ad a csomagban lábacskát. Arról meg nem mi tehetünk, hogy te csodálkozol erre rá egy " anno " 1080 vásárlása után, ami baromi régen lehetett videokártya időintervallumban... 👊🤓
2-3 hét és sokkal olcsóbban jön is a 7900 xtx +15-20% al lesz jobb a 4080 nál és kevesebbet eszik s a Geforcehoz képest + 4 és 8 gb vram lesz rajtuk 4K ra kell is. Legalábbis az előzetes tesztekből s az AMD Showból ez jött be majd kiderül. A sima 7900 xt meg még olcsóbb lesz 300 dolcsival és ugyanazt fogja tudni elvileg az eddigi 4-5 játék FPS számai alapján. Nem hiába alig veszik a 4080 at meg a 4090 füstőlős balhéi is rányomták a bélyeget a dolgokra. Most nagyon sokan írják hogy AMD re váltanak. S jön az FSR 3.0 ami totál ugyanaz lesz amúgy mint a DLSS 3 , ugyanazzal a megoldással alkot majd pixeleket. RT ben persze 30% al kb gyengébbek lesznek de még alig van game ami igazán hasznosan s látványosan kihasználja.
Sziasztok Srácok! Információt és segítséget szeretnék kérni Tőletek! Az új gépemet tervezem és a videokártya: ASUS ROG STRIX RTX 4080 SUPER, ha lesz belőle OC verzió, akkor azt fogom megvenni. Kérdéseim a következők: Intel i9 vagy i7 14. generációs procit pakoljak mellé? Mekkora teljesítményű tápegységet vegyek mellé: 1200 Watt elég vagy inkább 1500-1600 Wattosat vegyek? Mindenféleképpen 80+ Platina vagy 80+ Titan minősítésű tápot szeretnék venni, ajánlani tudok gyártókat vagy márkákat? Memória az 32 vagy 64 GB lesz. Köszönöm a segítséget és a válaszotokat! :)
7900 XTX 300 didóval olcsóbb lesz és 15-20% al jobb a 4080 nàl és jön ott is az FSR3 ami DLSS 3 copy lesz konkrétan totál. RT ben azért hátránya lesz de kevesebbet eszik + 8 vram lesz rajta és árban -300 dollár dec 13. ától
Nagyon kiraly volt, koszi a bemutatot! Kivancsi lennek, hogy ezek az asus kartyak (ami nalatok jart es ami a gepetekben van) is nyiszorognak-e (coil whine), azt olvasom, hogy az asusok (tuf, rog gyakorlatilag mind1), legalabbis a 4090-esek nagyon hajlamosak ra.
nekem az nnvidia kártyámat kikelet támasztanom mert nemcsak hosszú de kicseszet széles is 19 cm hosza meg 26 cm sulya 1,7kg egyy nyvidia superventus 4- es amiböl 6 db ot gyártottak csak abból 2 van a gépembe ez a kártya kitámasztó ez egy nagyon jó ötlet a fésű és a foglalat eldeformálódása ellen .. :) de ezek a dögök elég nehezek
Ha megnézed minden játék támogatása utólagos. Szerintem ez olyan mint az RTX, ha egy játék megcsinálja a támogatást akkor támogatni fogja, ha nem (mert mondjuk már nem fejlesztik, vagy az engine nem képes rá), akkor nem. (Hiszen hasonlóan a Ray Tracing-hez ezt is játékon belül kell beállítani)
Mint a többi DLSS-nél ezt is külön bele kell építeni minden játékba. Lehet utólag is de a játékfejlesztőkön múlik, illetve, hogy az Nvidia mennyire tömi ki a zsebeiket :)
@@kerotomas1 akkor úgy mondom, hogy mindegyik, amelyik megkapja, az mind utólag kapja meg. Nem gondoltam volna, hogy ezt így külön részletezni kell. Nyilván nem fogják beletenni a világ összes játékába...
Mondjuk kicsit szemet fogott hogy a Cyberpunkban a frame rate ennyire kicsi.. azért egy kicsit ha jobban foglalkoznak vele akkor még simán az "élvezhető" 60 képkockát simán oda tudták volna tenni. Egyébként kurva jó.
Hello! kérdésem lenne adott egy rendszer ntel(R) Core(TM) i5-7640X CPU @ 4.00GHz 4.01@5,25 GHz 32g ram nvme ssd tuf x299 mark1 lap. melyik a legjobb VGA amit még érdemes beletenni? köszi a választ!
Lehet elrugaszkodott a gondolatmenetem, szerintem szimplan az elozo gpu chip et hasznaljak huzva aminek igy nagyobb hutes kell. Hozza fejleszt egy skalazo algoritmust mi meg tapsolunk a regi cumonak uj kontosben 😂
@@vocsoktel5933 Ryzen oldalt annyira nem nézem, De tessék: Ryzen 5gen 7600x vagy 7gen 7700x de lentebb az úr mondta hogy az a proci is elég. Nézz róla review videókat meg statisztikákat!
Hagyjuk már ezt a hülyeségert. Mindent max grafikán kell játszani és akkor nincs sok jelentősége a cpu-nak. Nekem i7 8700k mellett van a 4090. Full grafikán metg nem mondod milyen gép van a kártya allatt, csak hogy minden is fut max grafikán.
th-cam.com/video/RgEi_e8fPn8/w-d-xo.html Amikor ujratölti a fegyvert, a kezét nézve előjönnek a predikt vektorok által generált torzitás. Ilyen jeleneteknél, jelenleg az AI-nem elég gyors ahhoz hogy a 2 frame közötti túl nagy különbséget áthidalja és ezért jönnek az artifactok. Valahogy ha ezt benyeljük akkor lehet kellemes a szemnek a +fps látszata, de az én szememet zavarja.
Sok felesleges textúrát és motor darabokat hagytak a pálya alatt amit az a mód ki vesz ez egy utólagos kis bővítés. Annyi az egész lényege hogy az egymást takaró nem át látszó textúrák és motorjaik nem töltődnek be. Tiltás a fő motorban. Ezt hívják beta játéknak amikor minden fut egyszerre az éles tesztek miatt. Tehát adott egy 4096x4096 km pálya de nem tölti be mindent mint ebben a beta tesztben : th-cam.com/video/JNy1z8Hhlso/w-d-xo.html
@@kekmax31 Bocsi az értetlenkedésért, de kifejtenéd? Sajnos nem értem mire gondolsz :/ Ha a cyberpunk soundtrack listekre, azokat végig pörgettem, de nem találtam:(
Ne csináljuk már, hogy természetes és örülni kéne annak, hogy az új-generációs kártyáknak kevés a natív teljesítménye és dlss meg egyéb rásegítés kell, hogy a játékok játszhatóak legyenek! ...vicc.
Ez az egyik legrosszabb ár érték arányú kártya amit valaha piacra dobtak. Szerintem aki már ennyit nem sajnál ilyesmire inkább megveszi a 4090 et ami sokkal erősebb akinek meg ez túl drága vesz valami előző generációs terméket töredék áron.
A két, általad említett kártya különbségét még egyszer megvizsgálnád kérlek! Szaladj neki még egyszer annak a " sokkal erősebb " értekezésnek. Iparági elhanyagolható szilikon lotto a waferen gyakorlatilag a 4080 és a 4090 közötti különbség.
@@thescouserchucky Nekiszaladhatok 5 ször is de 4K ban(ahol ezeknek igazán van értelme) a 4090 átlagban 20-25% al gyorsabb. Ez hol elhanyagolható? Mellesleg a számok másképp is engem igazolnak egyenlőre mert nyilvános adatok szerint nem nagyon veszik a 4080 akat sehol sem ellenben a 4090-et meg mint a cukrot
@@thescouserchucky Valóban igaza van Vas Valentinnak most nézem Hardware unboxot, nem csak sokkal erősebb a 4090, de konkrétan ha külön a Dying Light 2-őt és CP 77-et nézem akkor a 4080 4k-ban jelenleg még jól teljesít azonban ez erősen megkérdőjelezi hogy mennyire future proof kártya lesz ez mondjuk a 2-3 év múlva megjelenő játékokhoz addigra már lehet hogy sokszor a 60fps se lesz meg 4k-ban. Míg a 4090-en pont annyival erősebb hogy biztos hogy 4 év múlva is meglesz a 60-80 fps, ez pedig nem elhanyagolható szempont, hiszen ha valaki már ilyen sokat költ kártyára az azért valamennyire azt akarja hogy ne 2 évente kelljen cserélnie. Nyilván a kőgazdagokra meg akiknek nem számít a lóvé mert mindig a legújabb legerősebbet akarják azoknak ez nem számít de azok meg végképp nem vennének 4080. Tehát nem az vesz 4080-at aki telibeszarja a lóvét, mert az akkor a 4090-et is megvenné, hanem pont az aki valamennyire átgondoltan akar vásárolni, viszont ezeket az embereket kell pont a 4090-re rábeszélni mert az future proof kártya is ellentétben a 4080-al.
A 4080 DLSS 3.0-val 4K-ban úgy teljesit mint egy 4090 native 4K-ban CyberPunk-ban... Inkább vegyél egy 4090-et mert a DLSS 3.0 csak elcseszi a képminőséget a magasabb FPS érdekében viszont a 4090 meg tartja az FPS DLSS 3.0 nélkűl és ha már van pénzed egy 4080-ra akkor már egy 4090-re is fel tudsz gyűjteni. Vagy ha olcsóbban akarsz egy 4080-as teljesitményt akkor ott van an RX 7900 XT.
Az a gáz, hogy a 3080Ti-m sem hoz átlagban érezhetően rosszabb eredményt, (talán vagy 5-10 fpsel kevesebb) pedig az csak 2.1-es dlss-t tud... Azt hittem, ez a 4080 komolyabb kari lesz.
Még mielőtt valaki nem értené, a dlss 3 nagy újítása, hogy a videokártya kamu frame-eket generál. Alapul veszi hozzá a korábbi frame-emet, néz különböző vektorokat, minek hol lenne a helye, de nem igazi render frame, hanem kamu, generált. Ezzel kompetitív játékban 2 gond is van, egyrészt az input időt megnöveli, másrészt a kamu frame-eken nem lesz ott ám az ellen, így hirtelen eléd tud teleportálni, ha úgy van. Ez így igen nagyon felesleges
Igaz de van még ahol ha nem is sok száz de egy min. 90 FPS kell. Mégpedig VR-ban. Az FS2020 elképesztően jó VR-ban de a jelenlegi 2080-asom nagyjából csak diavetítésre képes benne. Ott pl. kifejezetten jól jön a DLSS3 és a latency sem számít. Ettől függetlenül én a közelgő hardver upgademnél adok egy esélyt az AMD-nek.
Aorus rtx 3070 TI van a gépembe. Bőven elég mindent vissz szinte, meg vagyok elégedve vele. Igaz a Crisist még nem próbáltam 😃. De amire használom nekem elég. Az új címeket is viszi. Video vágáshoz is tökéletes. 144hz monitoromhoz is tökéletes. Szerintem az új 40 széria túlzás egy átlag gémernek!!. Inkább játék tervezéshez, animációs dolgokhoz jó , vagy bitcoin🤣😃😃. De ez az én meglátásom. Tetszik! , csak már ennyi pénzért nem kéne.
Valójában a játék tervezés és animációkban sem feltétlen jobb, mert oda nem csak a számítási kapacitás, hanem a sávszélesség is jobban kellene, pl a nagyfelbontású textúrák küldözgetése miatt, az meg ugye PCIe 4.0-án fele olyan gyorsan átküldhető, mint PCIe 5.0-án. Minden ami nem használja ki a DLSS-t nem feltétlen csak nyerhet vele, ha a textúrák mérete/minősége magas (és ez a adatátvitel sebesség különbség nem feltétlen fps-ben jelentkezik, hanem latency-ben, és mondjuk egy battle royal játékban ha pár frame-el később rendereli ki neked mint az ellenfednek azt, hogy egymás előtt álltok, az nem előny).
Egy kis pótlás, hogy teljes legyen a kép. A config amiben a kártyát teszteltük:
Lap: ASUS ROG STRIX Z790-F
Proci: Intel Core i9-13900K
RAM: 32GB G.Skill Z5 6000MHz DDR5
SSD: Samsung 980 PRO (PCIe 4)
😎
én félig laikusként a Ram Mhz számának elolvasásakor kicsit befostam 😆😍
fortnite teszt?
Kit érdekel 🤣🤣
csak?
Basszasátok neki a piros oldalról is, már nem a CPU hanem VGA részlegen!!
Hány perc lenne ez a videó ha nem a “shortcut” csatornán lenne? :D
Viccet félretéve, nagyon bírom a munkátokat srácok.
Jöhetnek az ilyen tartalmak, továbbra is ;)
Pöcő, mérőcumó...imádom az ilyen kifejezéseket😂😂
Jó cucc a dlss 3 csak azt annyira nem reklámozzák, hogy az input latency megnő, mivel a generált frame-ek, prediktált frame-ek, a latency majdnem ugyanaz mintha 30fps-sel játszanál, míg a dlss 2-nél a latency is csökken.
Akiknek kétségei lennének efelől, azoknak itt ez a digital foundry-s videó, 27:00 perctől nézzétek:
th-cam.com/video/92ZqYaPXxas/w-d-xo.html
Sajnos 50-55ös latency közelében már érzékeli mindenki a késést, ami már egy single player játéknál is hátrányt jelent, egy multiplayernél meg egyenesen "no way" úgyhogy baromi nagy csalódás és parasztvakítás a dlss 3
pont ezen gondolkoztam a videó nézése közben, hogy oké, hogy single-playernél szép és jó, de egy multiplayernél mennyire befolyásolja negatívan a játékmenetet, ezek szernt jól gondoltam, hogy nem feltétlenül pozitív a dolog :D
Így van! Illetve ha a DLSS 3-ba be van kapcsolva ez a frame predict funkció akkor nem tudsz V-sync-et használni csak G-sync-et már ha támogatja a kijelződ.
@@belakiss1381 Mondj multiplayer játékot amiben egy ilyen kártya nem éri el nyugodtan a 144 fps-t.
@@Tridentparrot mondjuk specifikálhattad volna jobban, mert 800x600-ba manapság már bármilyen kártya eléri a 144 fps-t (ez a kártya 4k-ra van, ott meg szerintem maxon nincs olyan multiplayer játék, ahol lenne fix 144 fps), de csak, hogy instant mondjak is 1 példát: Warzone, 4080, 4k, átlag fps: 109.. az elég messze van a 144-től
A Cyberpunk korunk Crysis-a -> Évekig nem lesz olyan hadrver, ami maxon tudja stabil FPS-el futtatni.
Igen, de sajnos ez nem erény, hanem inkább gáz.
Amíg a Crysis forradalmi grafikával és szuper fizikával érkezett addig a cyberbug egy optimalizálatlan szrság ami még visszalépés is grafikában és fizikában is.
Nekem a 1070 1080p medium-high beállítások mellett 50-60fps annyi hogy egy kicsit OC van a videókártya.
Milyen felbontásban és mennyi frame rate-tel? RTX 3080 12GB-ot használok, tök olcsón vettem, amikor a bányászláz összeomlott, 1440p-ben Psycho RT-vel (persze minden más kimaxolva) DLSS Quality és a beépített benchmarkban 71 fps átlagot kapok, ha kikapcsolom az RT-t akkor meg bőségesen 100 fps felett. Ryzen 7 5800X3D CPU-val és 32GB 3600mhz-es RAM-mal, sima SATA SSD-vel. 4k-t én még nem erőltetem, mert akkor 6x ennyit kellene fizetnem VGA-ért. Nekem nem éri meg, vettem egy jó minőségű 1440p-s panelt és tökéletesen elvagyok vele.
6900 XT, 5800X kombó 1440p-ben FSR-rel ~140 fps
"Veszel, ilyen IFA platót a gépedbe...." 🤣🤣🤣🤣🤣🤣
Digital Foundry szépen kivesézte már ezt a "DLSS 3"-at és ez nem egy pontos megnevezése a technológiának, mert inkább Frame Generation (frame generálás) illik rá jobban, mivel konkrétan ezt csinálja a technológia, ugyanazt a DLSS technológiát használja, mint a DLSS 2.X, tehát alacsonyabb felbontásból magasabbra skáláz "csak" még generál egy közbülső frame-t két hagyományosan generált frame közé, amivel éléggé megdobja az álag képkockaszámot, ez viszont okoz(hat) grafikai problémákat, mivel a közbülső frame teljes mértékben A.I. által generált, például a U.I. elemeket (quest marker stb.) nem generálj le elég gyorsan, ezért azok széteshetnek, de mivel mondjuk 8-16 ms-ig vannak a képernyőn nehéz kilőni. Ami még próbélma az a késleltetés, a kártyákban van egy továbbfejlesztett úgynevezett Optical Flow Accelerator hardver (RTX 20 és RTX 30-as kártyákban is volt, csak nVidia azt mondja ez jobb), aminek "el kell készítenie" a közbülső képkockát így a késleltetés nő, mivel időbe telik plusz egy frame-t lerenderelni, ezért az nVidia Reflex autómatikusan bekapcsol és csökkenti a késleltetést, amivel már kényelmesen játszhatóvá válik a játék, de nem ezt fogják az E-sport játékosok alkalmazni, mert DLSS 3 nélkül sokkal alacsonyabb késleltetést lehet elérni. Dióhéjban ezt tudom erről a tech-ről. Amúgy nekem tetszik, nem vagyok amúgy sem a COD, Battlefield és egyéb competitive játékoknak a híve.
Szerkesztés: Nincse RTX 4080-am, vagy RTX 4090-em, amúgy ki tudja ezt megvenni Magyarországon? :D
Azt az 50-100 kártyát,amit a " megbízható partnerek " berendelnek Magyarországon havonta és el is adnak...nos, 50-100 vásárló havonta legalább. És sorban állás van, lesz, ezt garantálom.
@@thescouserchucky Úgy gondolom azok, akik RTX 4000-es kártyát vesznek, már tényleg a pénz nem számít kategóriába tartoznak. Akkor már RTX 4090-et fognak venni, külföldön is így van, az RTX 4080 annyit nem ad az RTX 3090 Ti-hoz, hogy akik eddig is a legdrágábbat vették (RTX 3090 Ti 2000 USD volt), azok most is azt akarják majd. RTX 4080-at megvenném 350k-ért, de hát álmodni lehet, 650k hardveraprón és 700-800 ezer webshopokban. Nekem sok.
DLSS 3 az teljes mértékben a 4k ultra grafhoz lett kitalálva.(Talán majd 8k is téma lesz lassan de oda monitor sem ártana...:D ) Már a dlss2 is inkább 4k-ra van, mint 1080p kompetetivre. Ha jól tudom az FSR is ezt csinálja, mindkét technológia hasonló. felskáláz, és az extra fpsért generál képkockákat. LG TV-knél is van hasonló technika, ahol AI generál FPS/képkockát.
60 FPS alatt mondhatni minden fps számit. 10 felett már nemigazán érzékelni különbséget. 40-60 közt iszonyat nagy a különbség, de 60-100 közt szinte semmi.
@@johnnyalpha2957 A DLSS 2.X és az FSR 2.X ugye kisebb felbontáson rendereli le a játékot, majd a DLSS-nél az nVidia kártyákban lévő Tensor magok a mesterséges intelligencia segítségével, FSR 2.X-nél pedig egy emberek által létrehozott algoritmus segítségével, de ugyanazt az elvet használva skálázzák fel ezek a technológiák a képet. Így több frame-et kapunk közel natív felbontáshoz hasonló képminőségen. Szerintem te a DLSS 3-at a frame interpolation-höz hasonlítod jogosan, bizonyos TV-kben megvan ez a lehetőség. Persze sokkal alacsonyabb minőségben történik a plusz frame beszúrása TV-zésnél, ott nem forgatod a kamerát és nem érdekes, hogy van-e magasabb késleltetés vagy sem.
Pont a felnagyítás miatt csak átverésnek érzem ezt a DLSS-t. Megveszi elég drágán a 4080-at plusz a nem olcsó 4K monitort, hogy csak DLSS-el tudja kihasználni a 4K 60+ FPS-t. Ez az a igazi hármat fizet kettőt kap akció. És a durva, hogy tuti a nagy része aki megveszi az ilyen csúcs gépet, az ingyenes pvp meg battle royal játékokkal tolja mint a cod warzone.
Emlékszek még amikor 2002 környékén találkoztam először Geforce 2 mx440 el azt hiszem ez volt a teljes neve akkor ősszel jött ki a mohaa első része. Hát azóta tök más a helyzet az biztos, de más világ volt. Régi szép idők bye bye.
Izgi a cucc. Amúgy Pisti a szádba ne vedd a kártyát nem oda való! :D "..volt már számban nagyobb.." Jó bocs a faviccért és kösz a videót :)
Egy bővebb verziót is simán elbírna ezekből a szervezetem😋 köszi srácok😊
mit köszönsz? ezéert pénzt kapnak, nem is keveset.
@@KTamas27Honnan a rákból tudod te, hogy mennyi pénzt kapnak?
De amúgy meg…Akkor az étteremben nem köszönöd meg a pincérnek, hogy kihozza a kajád, mert ő ezért pénzt kap?
Nem köszönöd meg az orvosnak, ha meggyógyít, mert ő ezért pénzt kap?
Nem köszönöd meg a futárnak, hogy kihozza a rendelésed, mert ő ezért pénzt kap?
Meddig soroljam még?
Gondolkodj néha mielőtt kijelentesz valamit, nem árt.
Egy DLSS2 beálltás jó lett volna, ez mutatná a 2 generáció és a képjavító technológiák közötti különbséget. Am király a videó. :)
DLSS 3 ertelme nem a kep javitas hanem a generalt frame rate ami meg sajnos a latency rovasara megy.
Fiúk, nagyszerűek vagytok, mint mindig !
Lenne egy kérdésem:
Szerintetek, egy ROG Strix RTX 4090 elférne egy Thermaltake Core V71-ben ?
Az Input Lag-et kellett volna még lemérni, mert azzal vannak gondok DLSS3-nál...
Jó az órád.Nekem is volt kb.35 éve.Igazi retro... :)
Ezeket majd tök jó áron lehet venni 1 év múlva, mikor teljesen elbaszódik a világítás :3 hihetetlen, hogy ez márka mindig teljesen új hibákat tud felmutatni
Sziasztok, és hány Mhs-el bányászik? 😁
Ja és mennyit fogyaszt?
@@GaborCryptoBanyaja attól függ, mit akarsz bányászni.
@@ATiGames1 legyen a flux.
@@GaborCryptoBanyaja Tessék: th-cam.com/video/YAfo9JgFZM0/w-d-xo.html
@@ATiGames1 Köszönöm a videót!
Pityu, egy igazi Pokemon, a Pokemonunk :) Ezért is szeretjük :D
Neked milyen videokartya van a pc-d ben? Nekem? Nekem egy PC a videokartyam
Hajrá! Had zabálja az áramot! :D
Az a kis “thank you” kártya egy telefontartó 😊
Èn most vettem 4060 at ès imádom ,ott is ugyanez,csak kissebb felbontás mellett nyilván😊
a három ventilátor kezepén rajta hagyjtátok a matricát ti is?:)
Azt lehet tudni, hogy a kártya milyen hőfokokkal bír, ha maxon dolgozik?
Szerintem ez a nagy hűtés a silent mode miatt van, hogy minél később legyen hangos a gép.
Amúgy a 4K mennyire éri meg mostanában, van olyan monitor, amivel ki is lehet használni? Mert lehetséges, hogy a QHD 300Hz feletti monitorok jobbak, bár ez is játék és egyénfüggő, az anyagi vonzatról nem is beszélve. De azt is mindenki döntse el, hogy megéri-e neki a 4K meg az RTX40xx, vagy inkább QHD és RTX30xx.
Megpróbáltam megjavítani az RTX 4090-emet és megöltem :( :( :( :( videokartya Az Igor's Lab rájött, miért olvadnak el az NVIDIA 4090 adapterek!
mondjuk az amd átvehetné ezt a dlss dolgot, kíváncsi vagyok mennyit dobna a kártyákon... :)
Én anno a 1080 aorushoz csináltam kitámasztót. Ezek még most találták ki...? :D
Igen, a Gigabyte-tal ti közösen megelőztétek a korotokat, " ezek " még most találták ki! 🤷♂🤦♂ Szerkesztenem kell, mert a srác rendesen elhiszi... Nem, nem most. De ilyen minőségben nem mindenki ad a csomagban lábacskát. Arról meg nem mi tehetünk, hogy te csodálkozol erre rá egy " anno " 1080 vásárlása után, ami baromi régen lehetett videokártya időintervallumban... 👊🤓
Brutál mennyiségű kontent tőletek 😁😁😁
jöhetne az AMD oldaláról is egy ilyen. :)
2-3 hét és sokkal olcsóbban jön is a 7900 xtx +15-20% al lesz jobb a 4080 nál és kevesebbet eszik s a Geforcehoz képest + 4 és 8 gb vram lesz rajtuk 4K ra kell is. Legalábbis az előzetes tesztekből s az AMD Showból ez jött be majd kiderül. A sima 7900 xt meg még olcsóbb lesz 300 dolcsival és ugyanazt fogja tudni elvileg az eddigi 4-5 játék FPS számai alapján. Nem hiába alig veszik a 4080 at meg a 4090 füstőlős balhéi is rányomták a bélyeget a dolgokra. Most nagyon sokan írják hogy AMD re váltanak. S jön az FSR 3.0 ami totál ugyanaz lesz amúgy mint a DLSS 3 , ugyanazzal a megoldással alkot majd pixeleket. RT ben persze 30% al kb gyengébbek lesznek de még alig van game ami igazán hasznosan s látványosan kihasználja.
@@FilmGamerHUN Nekem az Rx 7900 xt-re fáj a fogam:)
Hogy lehet ilyen qrva ronda szindesignt csinálni?? full bazári!
Nagyot menne egy Mini-ITX Alaplapban x"D
Sziasztok Srácok! Információt és segítséget szeretnék kérni Tőletek! Az új gépemet tervezem és a videokártya: ASUS ROG STRIX RTX 4080 SUPER, ha lesz belőle OC verzió, akkor azt fogom megvenni. Kérdéseim a következők: Intel i9 vagy i7 14. generációs procit pakoljak mellé? Mekkora teljesítményű tápegységet vegyek mellé: 1200 Watt elég vagy inkább 1500-1600 Wattosat vegyek? Mindenféleképpen 80+ Platina vagy 80+ Titan minősítésű tápot szeretnék venni, ajánlani tudok gyártókat vagy márkákat? Memória az 32 vagy 64 GB lesz. Köszönöm a segítséget és a válaszotokat! :)
A DLSS az utóbbi 25 év (amióta a gamingben vagyok) legjobb, leghasznosabb technológiája szerintem.
Ebbe mi a rövid videó ?
Van bármi olyan csomag aminek a kibontása közben Pisti nem akar meghalni a kemelése közben ?😂😂
Nincs. Ez az ő személyes küldetése. Meghalni egy csomag kinyitása közben, élőben ha lehet.
@@Atomkukac1 mint jó múltkor 3-4 éve aszthiszem mikor leszedt a videókártyáról a fóliát aztán majdnem elélvezett :D AHHHHHHHHHHH HH 😆
7900 XTX 300 didóval olcsóbb lesz és 15-20% al jobb a 4080 nàl és jön ott is az FSR3 ami DLSS 3 copy lesz konkrétan totál. RT ben azért hátránya lesz de kevesebbet eszik + 8 vram lesz rajta és árban -300 dollár dec 13. ától
Enyém lenne a világ összes fps- e a sorce engine kettővel is :D
Dubai-i keresetből ekkora téglából házat lehetne építeni és bevakolni. Senki nem jönne rá :D
Nagyon kiraly volt, koszi a bemutatot! Kivancsi lennek, hogy ezek az asus kartyak (ami nalatok jart es ami a gepetekben van) is nyiszorognak-e (coil whine), azt olvasom, hogy az asusok (tuf, rog gyakorlatilag mind1), legalabbis a 4090-esek nagyon hajlamosak ra.
TUF 4090-es 0 coil whine.. az előző 3080-as evga-mnak volt rendesen
nekem az nnvidia kártyámat kikelet támasztanom mert nemcsak hosszú de kicseszet széles is 19 cm hosza meg 26 cm sulya 1,7kg egyy nyvidia superventus 4- es amiböl 6 db ot gyártottak csak abból 2 van a gépembe ez a kártya kitámasztó ez egy nagyon jó ötlet a fésű és a foglalat eldeformálódása ellen .. :) de ezek a dögök elég nehezek
Az merült fel bennem, hogy a régebbi játékok támogatása utólag megoldható?
Vagy csak az ez után készült játékok használják ki a DLSS 3-at?
Köszönöm.
Ha megnézed minden játék támogatása utólagos. Szerintem ez olyan mint az RTX, ha egy játék megcsinálja a támogatást akkor támogatni fogja, ha nem (mert mondjuk már nem fejlesztik, vagy az engine nem képes rá), akkor nem. (Hiszen hasonlóan a Ray Tracing-hez ezt is játékon belül kell beállítani)
Mint a többi DLSS-nél ezt is külön bele kell építeni minden játékba. Lehet utólag is de a játékfejlesztőkön múlik, illetve, hogy az Nvidia mennyire tömi ki a zsebeiket :)
A cyberpunk is 2 éves, mégis megkapta, tehát utólagosan kapja meg mind...
@@ATiGames1 a mind az túlzás... a játékok egy kis része
@@kerotomas1 akkor úgy mondom, hogy mindegyik, amelyik megkapja, az mind utólag kapja meg. Nem gondoltam volna, hogy ezt így külön részletezni kell. Nyilván nem fogják beletenni a világ összes játékába...
Mondjuk kicsit szemet fogott hogy a Cyberpunkban a frame rate ennyire kicsi.. azért egy kicsit ha jobban foglalkoznak vele akkor még simán az "élvezhető" 60 képkockát simán oda tudták volna tenni. Egyébként kurva jó.
A DLSS 2 vs 3 teszt se lenne rossz skacok! Cyberpunkkal...
Azért szeressük àm az ilyen klasszik tech teszteket is àm!
Nekem is jó lett volna egy second bois. Elbasztam és értékesítőhöz kellett visszavinni mert nem tudtam megcsinálni.
Én még mindig a 6700k-gtx 1080 al nyomom 😂 na majd ha kijön egyszer a gta VI beujítok 😅
A Cyberpunk egy fos! Évekig csinálgatták és csak agy GTA klón lett!
2:14 shakeneszpresso
Amúgy ez a cyberpunk eskü jó cucc, én laptop 2060-on tudok mediumon rendesen játszani FPS drop nélkül
Lassan a videó kártyán lesz az alaplap :D
Lassan nem lesz alaplap, mert a telódon fog futni minden, de lesz hozzá egy 2 ajtós szekrény, abban lesz a VGA meg a folyékony nitrogén hűtés.
Lehetne egy FSR 3.0 vs DLSS 3
a coil whine ról is beszámolhattatok volna, állítólag 3ból 2 asus visít mint állat :/ ...
2:13 Shaken espresso (valaki csinálja meg tiktokon :D :D )
4070 már kapható?
Hello! kérdésem lenne adott egy rendszer ntel(R) Core(TM) i5-7640X CPU @ 4.00GHz 4.01@5,25 GHz 32g ram nvme ssd tuf x299 mark1 lap. melyik a legjobb VGA amit még érdemes beletenni? köszi a választ!
10 perc cp 1 havi villanyszámla win!:D
Telepíts napelemet és nyáron játsz. Nappal, napsütésben. Jó lesz!
Én minecraftal, shader nélkül kifagyasztanám xDD
Lehet elrugaszkodott a gondolatmenetem, szerintem szimplan az elozo gpu chip et hasznaljak huzva aminek igy nagyobb hutes kell.
Hozza fejleszt egy skalazo algoritmust mi meg tapsolunk a regi cumonak uj kontosben 😂
Valamiért ebben a fekete outfitben + szakáll + fekete kesztyű úgy nézel ki mint aki túlárazott burgereket árul :D
A Sapphire 7800XT hez gyárilag jár a 3 slot os kitámasztás
Na jó de másfél millió egy nyomorult videókártyáért?
Hány extra műszak ez a gyárban?
Hány? Mind :D
És milyen processzor kell ehhez ami ezt kihajtja? i9 23800000?
Egy i5 12gen vagy 11gen ki tudja hajtani.
és Rézön oldalon???))))
@@vocsoktel5933 Egy r5 5600 x is kihajtja. Nem kell nagyon durva proci föleg ha 4kban használod.
@@vocsoktel5933 Ryzen oldalt annyira nem nézem, De tessék: Ryzen 5gen 7600x vagy 7gen 7700x de lentebb az úr mondta hogy az a proci is elég. Nézz róla review videókat meg statisztikákat!
Hagyjuk már ezt a hülyeségert. Mindent max grafikán kell játszani és akkor nincs sok jelentősége a cpu-nak. Nekem i7 8700k mellett van a 4090. Full grafikán metg nem mondod milyen gép van a kártya allatt, csak hogy minden is fut max grafikán.
Ti mit használtok monitoring nak? (FPS, Avg fps, MS monitorin jának?
Csak én nem látom a config adatait amiben a kártya volt?
th-cam.com/video/RgEi_e8fPn8/w-d-xo.html
Amikor ujratölti a fegyvert, a kezét nézve előjönnek a predikt vektorok által generált torzitás. Ilyen jeleneteknél, jelenleg az AI-nem elég gyors ahhoz hogy a 2 frame közötti túl nagy különbséget áthidalja és ezért jönnek az artifactok. Valahogy ha ezt benyeljük akkor lehet kellemes a szemnek a +fps látszata, de az én szememet zavarja.
Érdekes lehet majd rx 7900 xt-vel összehasonlítani
XFX RX 7900 XTX Merc 310-em van. QHD-ban i7 12700 K-val 16 GB DDR5 ram-mal Cod MW2 2022 minden high-on 217 fps.
Apám ez a kártya önmagában akkora mint egy laptop, súlya meg ránézésre a duplája 😄
Gecc majdnem akkora ez a VGA mint egy laptop 😂😂
Mondjuk én simán használnám Silent Mode ban szerintem úgy is baszó!
És nem melegszik az tuti!
Pisti vagy bárki mért kell egy gépbe egy közel 1 milliós kártya? Ha van egy összepakolt 1 milliós Rog gép ez ennyivel jobb ?
Jó!
Ameddig fel nem melegszik 50-70c° fokra a kábele!
Az a ki tolható, cucc, az egy mobil tartó Pitikém!
Jó, nekem tetszik!
Az előző dlss-el kellene összehasonlítani hogy mekkora az előrelépés.
Mennyi az ára?
650-800 ezer ft
úgy látszik, hogy a Cyberpunk ki tett megint az optimalizáltalan felületért... ember....
Szép meg minden,csak drága nagyon
ejnye, azé csak belemászott a 4090 'in da house'. 3:05
Ha meg nem támasztod ki a kártyádat akkor törés lesz a vége!
Szívesen látnék tőletek amd kártya teszteket is
Sok felesleges textúrát és motor darabokat hagytak a pálya alatt amit az a mód ki vesz ez egy utólagos kis bővítés. Annyi az egész lényege hogy az egymást takaró nem át látszó textúrák és motorjaik nem töltődnek be. Tiltás a fő motorban. Ezt hívják beta játéknak amikor minden fut egyszerre az éles tesztek miatt.
Tehát adott egy 4096x4096 km pálya de nem tölti be mindent mint ebben a beta tesztben : th-cam.com/video/JNy1z8Hhlso/w-d-xo.html
Ez meg Jani kártyája
Nálatok marad?
Kár, hogy az nem derült ki, hogy mekkora különbséget láttok grafikában DLSS-el és anélkül. Jó lenne majd egy ilyen összehasonlító videó.
Akkora, mint a régi kazettás magnóm.
9:33 a DLSS1-re emlékezz vissza. 1 max 3 kompatibilis játék.
Inkább kb. nulla volt az. Az első valamire való DLSS játék a Controll volt és abban már 1.9-es volt. Azóta persze frissítve lett az is.
10perc ?shortcut?😀
stabil 144hz 4k még soká nem lesz hiába van má 4k 144hz monitor 600-700euroóé
nekem szerintem 3060 om is ugyanekkora így ránézésre :D
Pontosan tudom, hogy a lehető legutolsó kérdés a sorban, de van esetleg valaki, aki ismeri a cyberpunk alatti zenét?
Van hozzá soundtrack
@@kekmax31 Bocsi az értetlenkedésért, de kifejtenéd? Sajnos nem értem mire gondolsz :/
Ha a cyberpunk soundtrack listekre, azokat végig pörgettem, de nem találtam:(
Ne csináljuk már, hogy természetes és örülni kéne annak, hogy az új-generációs kártyáknak kevés a natív teljesítménye és dlss meg egyéb rásegítés kell, hogy a játékok játszhatóak legyenek! ...vicc.
Bocsánat de mi az a dlss 3?
Ez az egyik legrosszabb ár érték arányú kártya amit valaha piacra dobtak.
Szerintem aki már ennyit nem sajnál ilyesmire inkább megveszi a 4090 et ami sokkal erősebb akinek meg ez túl drága vesz valami előző generációs terméket töredék áron.
A két, általad említett kártya különbségét még egyszer megvizsgálnád kérlek! Szaladj neki még egyszer annak a " sokkal erősebb " értekezésnek. Iparági elhanyagolható szilikon lotto a waferen gyakorlatilag a 4080 és a 4090 közötti különbség.
@@thescouserchucky Nekiszaladhatok 5 ször is de 4K ban(ahol ezeknek igazán van értelme) a 4090 átlagban 20-25% al gyorsabb. Ez hol elhanyagolható?
Mellesleg a számok másképp is engem igazolnak egyenlőre mert nyilvános adatok szerint nem nagyon veszik a 4080 akat sehol sem ellenben a 4090-et meg mint a cukrot
Ez eddig valahogy nem jött össze az Nvidiának egyik túl drága a másik kigyullad a harmadik meg olyan jó lett hogy ki sem adták 😎😁😁😁
@@thescouserchucky Valóban igaza van Vas Valentinnak most nézem Hardware unboxot, nem csak sokkal erősebb a 4090, de konkrétan
ha külön a Dying Light 2-őt és CP 77-et nézem akkor a 4080 4k-ban jelenleg még jól teljesít azonban ez erősen megkérdőjelezi hogy mennyire future proof kártya lesz ez mondjuk a 2-3 év múlva megjelenő játékokhoz addigra már lehet hogy sokszor a 60fps se lesz meg 4k-ban. Míg a 4090-en pont annyival erősebb hogy biztos hogy 4 év múlva is meglesz a 60-80 fps, ez pedig nem elhanyagolható szempont, hiszen ha valaki már ilyen sokat költ kártyára az azért valamennyire azt akarja hogy ne 2 évente kelljen cserélnie. Nyilván a kőgazdagokra meg akiknek nem számít a lóvé mert mindig a legújabb legerősebbet akarják azoknak ez nem számít de azok meg végképp nem vennének 4080. Tehát nem az vesz 4080-at aki telibeszarja a lóvét, mert az akkor a 4090-et is megvenné, hanem pont az aki valamennyire átgondoltan akar vásárolni, viszont ezeket az embereket kell pont a 4090-re rábeszélni mert az future proof kártya is ellentétben a 4080-al.
A 4080 DLSS 3.0-val 4K-ban úgy teljesit mint egy 4090 native 4K-ban CyberPunk-ban... Inkább vegyél egy 4090-et mert a DLSS 3.0 csak elcseszi a képminőséget a magasabb FPS érdekében viszont a 4090 meg tartja az FPS DLSS 3.0 nélkűl és ha már van pénzed egy 4080-ra akkor már egy 4090-re is fel tudsz gyűjteni.
Vagy ha olcsóbban akarsz egy 4080-as teljesitményt akkor ott van an RX 7900 XT.
Úr isten ez very big 🤣
Előző gépet el kérhetem? XD
A minimum fps számít az átlag semmit nem ér ha droppol nagyokat, de ezt nyilván mindenki tudja. Átlag fps az jó reklámnak ..
Az a gáz, hogy a 3080Ti-m sem hoz átlagban érezhetően rosszabb eredményt, (talán vagy 5-10 fpsel kevesebb) pedig az csak 2.1-es dlss-t tud... Azt hittem, ez a 4080 komolyabb kari lesz.
Igen
Meh, a frame generálás kompetitív játéknák brutál faszság, más játéknál meg fasznak a sok száz FPS?
Még mielőtt valaki nem értené, a dlss 3 nagy újítása, hogy a videokártya kamu frame-eket generál. Alapul veszi hozzá a korábbi frame-emet, néz különböző vektorokat, minek hol lenne a helye, de nem igazi render frame, hanem kamu, generált. Ezzel kompetitív játékban 2 gond is van, egyrészt az input időt megnöveli, másrészt a kamu frame-eken nem lesz ott ám az ellen, így hirtelen eléd tud teleportálni, ha úgy van. Ez így igen nagyon felesleges
Igaz de van még ahol ha nem is sok száz de egy min. 90 FPS kell. Mégpedig VR-ban. Az FS2020 elképesztően jó VR-ban de a jelenlegi 2080-asom nagyjából csak diavetítésre képes benne. Ott pl. kifejezetten jól jön a DLSS3 és a latency sem számít.
Ettől függetlenül én a közelgő hardver upgademnél adok egy esélyt az AMD-nek.
Aorus rtx 3070 TI van a gépembe. Bőven elég mindent vissz szinte, meg vagyok elégedve vele. Igaz a Crisist még nem próbáltam 😃. De amire használom nekem elég. Az új címeket is viszi. Video vágáshoz is tökéletes. 144hz monitoromhoz is tökéletes. Szerintem az új 40 széria túlzás egy átlag gémernek!!. Inkább játék tervezéshez, animációs dolgokhoz jó , vagy bitcoin🤣😃😃. De ez az én meglátásom. Tetszik! , csak már ennyi pénzért nem kéne.
Valójában a játék tervezés és animációkban sem feltétlen jobb, mert oda nem csak a számítási kapacitás, hanem a sávszélesség is jobban kellene, pl a nagyfelbontású textúrák küldözgetése miatt, az meg ugye PCIe 4.0-án fele olyan gyorsan átküldhető, mint PCIe 5.0-án. Minden ami nem használja ki a DLSS-t nem feltétlen csak nyerhet vele, ha a textúrák mérete/minősége magas (és ez a adatátvitel sebesség különbség nem feltétlen fps-ben jelentkezik, hanem latency-ben, és mondjuk egy battle royal játékban ha pár frame-el később rendereli ki neked mint az ellenfednek azt, hogy egymás előtt álltok, az nem előny).