W nowych grach raczej nie da się nie używać upscalingu. Po pierwsze dlatego, że optymalizacja już nie istnieje. A po drugie dlatego, że większość nowych gier ma włączone domyślnie TAA (to jest ten "natywny" obraz) i włączenie upscalingu po prostu poprawia obraz względem TAA. Co by dużo nie mówić upscaling jest teraz najlepszą metodą AA w nowych grach. Niestety.
Ja osobiście to bym wolał aby deweloperzy nie byli tak leniwi jak są i zaczęli optymalizować gry i je dopracowywać, a nie day one patche ważące 100 GB.
@@emilos2495 nie zaczną bo nie wynika to z lenistwa ale z cięcia kosztów. Teraz finansiści i działy finansowe projektują gry. 90% deweloperów nie używa oświetlenia dostosowanego do danego typu gry, tylko domyślnych narzędzi z UE5, te pozostałe 10% to studia które używają własnego silnika.
Nie gram praktycznie w żadne nowsze gry i nie korzystam z tych technologii xD One miały pomagać wyciągać słaby sprzęt za uszy a twórcy gier zrobili sobie z nich powód do braku optymalizowanie gier.
@@NeoMartel podczas szybszej rozgrywki nawet się tego nie zauważa no chyba, że ktoś musi mieć krystalicznie czysty obraz na najwyższych możliwych ustawieniach to wtedy już może to zauważać, mi natomiast to nie przeszkadza i przeszedłem całego cyberpunka mając włączone FSR kiedy moja poprzednia karta nie wspierała dlss
Największą wadą FSR jest migotanie krawędzi. Szczególnie gdy gramy w 1080p. Naprawili to? Można padaczki dostać w niektórych grach, jak np. Cyberpunk ;) Mam Radeona 6650XT, ale wszędzie gdzie tylko mogę odpalam Intel XeSS zamiast FSR. Co brzmi absurdalnie. Intel zrobił lepszy upscalling na karty AMD, niż samo AMD... W Marvel Rivals też mam wrażenie, że XeSS działa lepiej, niż FSR. W zasadzie przez ten fakt który wymieniłem, mocno brakuje w tym materiale XeSS ;)
być może fsr 4.0 wszystko naprawi, ale gdy dojdzie "optical flow" jak w B580 czy RTX 4000 to wtedy (będzie działać na wektorach i w końcu będzie dobrej jakości) nie będzie wstecznej kompatybilności tzw. fsr 4.0 będzie działać tylko na RDNA4.
@@lilmadlil fsr jako jedyne nie bazuje na AI i ma fsr 4.0 działać na AI, trzeba liczyć na dodanie silnika wektorów (jak w Battlemage i RTX 4000), wtedy nie będzie wstecznej kompatybilności, ale będzie działać to dużo lepiej.
Akurat DF przyznało że PCtowa implementacja FSR 3.1 w Space Marine 2 jest co najwyżej średnia, zdecydowanie lepiej wypada FSR na konsolach. Mega dzięki za test, problem z grami na PC jest taki, że ogromna część z nich ma ten FSR zaimplementowany byle jak.
Zdrowych i spokojnych świąt blacku ! Co do upscallingu, nigdy nie używałem w 1080p ze wzgledu na słabą jakość obrazu, a w 1440p czy po podlaczeniu tv 4k to jak najbardziej. Daje to drugie życie karcie oferując darmową wydajność, plus nie muszę myśleć o wymianie GPU co 2 lata, tak więc nvidia sama sobie strzeliła w stopę. Niestety jak większość osób zauważyło, słowo optymalizacja przestaje pomału istnieć, dodatkowo bardzo nie podoba mi się marketing nvidii gdzie w slajdach porównujących starszą generację do najnowszej nie używa się czystej rasteryzacji, tylko techniki upscallingu z dodatkowym uzyciem FG....
Dzieki za materiał. Polecam zainteresować się modem opicscaler, który umożliwia włączenie xess lub fsr 3 w grach które natywnie posiadają tylko dlss. Testowałem to narzędzie na Metro Exodus EE i działa bardzo dobrze xess w jakości Q i rozdzielczości 1080p na bardzo wysokich detalach z rt na karcie rx6600xt.
Dla mnie ciekawszym tematem byłoby połącznie upscalera DLSS z generatorem klatek FSR. Jest to możliwe w przy FSR 3.1 i coraz więcej gier to implementuje. Niestety nvidia ma w pomie użytkowników starych kart, a dla mnie temat jest super ciekawy. Wesołych świąt!
generator klatek od amd jest strasznie słaby bo nie przewiduje wektorów ruchu. Coś w temacie się ruszyło dopiero teraz ale nadal wypada to słabo w stosunku do nvidii.
No ja sobie włączam właśnie taką kombinacje np. W Spider-Manie. DLSS quality i amd frame generation w 4K. I stabilne 120 klatek jak na konsoli tyle że grafika nieporównywalnie lepsza bo wszystko na ultra. Na 55 calowym tv oled ze 120Hz matrycą robi to niesamowitą robotę. Zastosowanie tej kombinacji jest o tyle lepsze bo pozwala włączyć V-Sync. Przy generatorze od NVidia takiej opcji nie ma i mimo że FPS jest więcej niż 120, obraz nie jest płynny.
Zobacz gry takie jak ghost of tsushima, god of war, które mają świetne implementacje fsr 3.1 jeśli chodzi o fg. Jakość bardzo podobna do dlss fg.@@キウィキウィ
Z tym upscalingiem to jest jakbyś chciał zrobić z igły widły, ile to już wersji było, czemu się nie rozwija technologii temporal antialiasing bez utraty jakości obrazu? co z tego że w statycznych scenach jest fajnie, tutaj na teście postać nie przemieszcza się na boki, wtedy dopiero jest lipa, w nowym stalkerze ghosting na roślinności to norma przy fsr i dlss, dobrze jest jak idziesz do przodu ale gorzej jak przemieszczasz postać na boki.
Rok temu kupowałem RX7800XT pod ekran 4k z zamiarem używania upscalingu, czekając kolejne kilka lat na przystępne cenowo karty do 4k. Póki co żadnego zamiennika nie widać.
Blacku, od kiedy wyszło Diablo 4 gram tylko w ten tytuł. Ustawiłem wszystko raczej na max jakość przy 1080p na 27 calach monitorze, a gram na RTX 3060TI 8gb DDR6X coś tam. Od kiedy w Diablo 4 zostało zaimplementowane śledzenie promieni gra nabrała graficznego smaczku. Ale kiedy przez pewien moment DLSS nie było obsługiwane, okazało się, że mój RTX dostaje zadyszki ;-). Ograniczyłem ilość wyświetlanych klatek do circa 100 i jest przy DLSS spoko, choć procesor graficzny pracuje często na 100%.
Nowe gry mają zero optymalizacji i są maksymalnie rozmazane. Raczej będę omijał nowe tytuły dopóki nie wyjdzie jakaś stabilna technologia niwelująca schody i ząbkowanie dla Full HD. MSAA dawało radę a teraz to jest jakieś nieporozumienie z TAA. Nie dość, że gierki są coraz gorzej zrobione to jeszcze wyglądają jak kasza manna... nic dziwnego, że studia i duzi wydawcy masowo plajtują... ahh jeszcze ten system pre-orderów xD. Niestety mi się Stalker wysypuje na 4060Ti jak ustawiłem FSR 3.1.
Spoko materiał ale jedna gra to trochę mało na materiał testowy. Jak wiadomo, w zależności od gry te techniki wypadają raz lepiej lub gorzej( ponoć w takim np Ghosts Of Tsushima jakość FSR jest porównywalna do DLSS), bo różnie wychodzi ich implementacja. Oczywistym jednak jest, że w większości gier DLSS wypada lepiej.
Dzieki za prownianie, fajny film. Migotanie widać rowniez w odbiciach na wodzie roslin na srodku ekranu. Mógłbyś porównać jakość Path tracingu, nie udalo mi sie znaleźć porównań, jedynie filmy wychwalajace jakosc na nvidii
A jak wyglada sytuacja z frametime? Tego nik nie przedstawia. Tylko czysta rasteryzacja. Po co kilka klatek wiecej jak gra jest pływająca i mniej responsywna. Smużenia i migania to norma.
Grając ostatnio w Hunt Showdown trochę męczyłem się z dropami klatkarzu w natywnym 3440X1440 (nierówne 60 fps) Niestety DLSS w tej grze daje więcej klatek ale rysowanie na dalekim dystansie cierpi na nieostry obraz o ile w grach akcji singlowych to bez znaczenia dla mnie to w takim kompetytywnym tytule jest to ważne. Postanowiłem spróbować patentu który używany przez graczy w Alien Isolation by zminimalizować efekt postrzępionych krawędzi odpalało się grę z włączonym upscalerem z poziomu sterownika (DSR) w moim przypadku Hunt renderowany jest do rozdzielczości o 33% wyższej od 3440X1440 czyli do 4587X1920px do tego ustawiam DLSS na tryb płynności i mam 60 klatek solid a ostrość obrazu jest po prostu doskonała. Pewnie nie w każdej grze to będzie dobrze działać a i trzeba mieć zapas mocy ale jak już się ma to efekty są naprawdę warte uwagi.
7:00 wzrosty 80% , 140% ... , może jestem idiotą , więc proszę o wytłumaczenie , gdzie na tych wykresach jest pokazany wzrost np. 140% i w jaki sposów można to z tych wykresów odczytać?
@@bIackwhiteTV czy na moim komputerze youtube WYCINA te fragmenty o których mi piszesz ? , nie widzę takich informacji na filmie, możesz podać sygnaturę czasową filmu z tą informacją o której piszesz ?
@@bIackwhiteTV chyba odnosimy się do różnych filmó. na wykreach jest pokazane szarym - klatkaż 1% i niebieskim średni , ale gdzie z DLSS a gdzie bez? , jakoś nie widzę tego , tylko twój komentaż 108,140, .... czy przyrost określaś jako różnicę pomiędzy ilością klatem 1% low i średnią ilością klatek ? - ZNAKOMICIE ! ale nawet wtedy rachunki pokazują przyrost nie o 108% , tylko 8% ( w zaokrągleniu np. 70 klatek i 75 , ale chyba ne o takie porównanie ci chodziło? ) , czy ja już naprawdę nie wiem co to znaczy przyrost ilości renderowanych klatek i po prostu nie mam pojęcia o czym w tym filmie mówisz , a co pokazujesz na obrazkach . Nawet gdyby tu o to właśnie chodziło (co jest niewłaściwym porównaniem ilości 1% Low do średniej ilości klatek) , to i tak - określenie " przyrost o 108% , w języku polskim oznacza podwojenie poprzedniej ilości plus jeszcze 8 % , więc 70 klatek x2 to jest 140 klatek i jeszcze 8% z 70 to jest razem 145,6 klatek , wtedy jest przyrost o108% , ale w tym przypadku jest przyrost DO 108% ,ale jeżeli różnica jest tylko 5 klatek to , przyrost jest do 108% wartości początkowej i wynosi (sam przyrost ) TYLKO 8% , choć jak już pisałem przyrost ma się nijak gdy porównujemy ilość klatek 1% Low do ilości średniej renderowanych przez kartę. Cóż nie jestem na pewno ekspertem , jednak sądzę że logiką i znaczeniem słów w języku polskim , twój wywód ma niewiele wspólnego , po prostu jest nieprawdziwy
@@wsobczak9860 Nie porównuje 1% low do średniego FPS tylko średni ze średnim. Masz na wykresie Wydajność w rozdzielczości natywnej a później w poszczególnych trybach DLSS. Jeśli np w trybie Preformance masz 86 FPS a w natywnej 36 to jaki to jest wg Ciebie przyrost? Nie kumam o co Ci chodzi ;)
Ja używam FSR w grze gatcha Wuthering Waves, gram w 2160p na Radeonie 6950XT. Bez FSR mam 90-100 klatek, z FSR gra dobija mi do sztywnego limitu klatek, ustalonego w grze, czyli 120. Ja tam nie widzę jakichś defektów graficznych, a przynajniej nie rzucaja się w oczy w trakcie grania.
@@czechugawron Ooo, mamusia kartusię Czesiowi kupiła na święta i Czesiu siurkiem teraz w necie macha, jakich ma dzianych starych? Przecież sam sobie Czesiu nie zarobił, niezbyt rozgarnięty ten Czesiu, oj niezbyt...
Jak w gierce jest tak 45/60 fps z dlss na trybie jakość w 4k to jak do tego fg odpalę to złoto. Gram właśnie w space marine 2 na 4070 ti super to 90% gry w 4 k dlss i fg ponad 100 fps na telewizorze 120k z vrr nie ma żadnego rwania obrazu też mogłeś wspomnieć bo teraz dużo telewizorów, monitorów neguje mocno te efekty. W dragon's dogma 2 właśnie też zauważyłem, że rozdzielczość natywna przegrywa z trybem jakości dlss co jest dziwne jak dla mnie, ale tez dobrze świadczy o samej technologii. Znając życie to pewnie w serii 5000 cos nvidia dołoży i oleje serie 4000...
Do generowania klatek to używam Lossless Scaling - monitor 3440x1440, karta RTX 3070. Dokupiłem do tego RX 6500XT. Tak więc monitor mam ustawiony na 120Hz, w sterowniku nV mam zablokowane klatki na 60Hz. Monitor podłączony pod RX 6500XT aby nie obciążać lini PCIe - bo niestety mam chipset b550 i karta (RX 6500) jest ograniczona do PCIe 3.0x4 (fabrycznie obsługuje 4.0x4). A i w ustawieniach trzeba wybrać aby w trybie obciążenia renderował na RTX 3070 a najlepiej każdą aplikację ręcznie przypisać do lepszej karty bo zauważyłem np. w Wieśku scenę 3D renderowało na RTXie a mapę na RXie tak więc lepiej przypisać każdą aplikację do karty. No i trochę poustawiać sam program ale jak już się wyhaczy o co chodzi to chodzi świetnie. Zaletą tego programu jest to że mogę sobie odpalić generator w każdej grze, nawet tych które były zablokowane np. na 30FPS. Drugą zaletą jest możliwość wybrania na której karcie ma pracować generator klatek. A zaletą generowania na drugiej karcie to podwojenie liczby klatek i mniejsze opóźnienia. Bo jak miałem normalnie np. 60 klatek i włączyłem generator na tej samej karcie to klatki natywne spadały do ok. 40. Nie ma nic za darmo, a z drugą kartą to jak mam 60FPS + generator = 120FPS. Ale się rozpisałem😁
I tak kupiłem AMD XD Nvidia nic ode mnie nie dostanie za te kastraty po zawyżonych cenach. Żebym nie wyszedł na fanboya tłumacze swoje poglądy tym, że nie interesują mnie tytuły gier, w których gpu nvidii daje solidne korzyści. Kiedy porównanie generatorów klatek? A może nawet w połączeniu z metodami upscalingu
AMD robi tańsze i słabe karty graficzne. Miałem RX 580 w dwóch wersja i był dramat. Czarne ekrany wysokie temperatury i słabe działanie dodatkowych funkcji oraz sterowników.
@@andrzej5992 RX 580 to bardzo stara generacja. RDNA 3 jest całkiem spoko, jak już połatali sterowniki. Z temperatur jestem bardzo zadowolony. Ze starszych to i z Nvidią miałem problemy - częste dxerrory, resety sterowników, freezy gier. GTX 560Ti, 770 i 1660 - wszystkie cierpiały na to samo i wszystkie przestały działać nagle podczas gry (czarny ekran i już nie łapało obrazu po restarcie).
@zares_fnx nie spotkałem się z takimi problemami w kartach NVIDIA choć miałem już ich kilka :) kupuje użytkuje 2-3 lata bez żadnych problemów i sprzedaje :) ludzie nie narzekają :) a na karty AMD ludzie narzekali i narzekają dalej :)
Szkoda, że developerzy często źle implememtują fsr 3.1 i występują problemy z płynnością fg/frametime. Dodatkowo pomijają implementację Anti-Lag 2 z jakiegoś powodu, polecam optiscaler(mod) do gier z chu**** implementacją.
Fajnie tylko fsr (fx, integer scaling, fluid motion frames) nie działa z eyefinity, a dlss i fg z nvsurround już tak - a w trzymonitorowych konfiguracjach takie skalowanie rozdzielczości i wygładzanie daje efekty.
posłuchałeś fan gejów z radeona to masz, zapewne masz na imie TOMASZ :) a tak serio to zawsze sie mówiło ze enwidia pod tym wzgledem jest lepsza, miałem radeona to tez sa wydajne karty, wszytko zalezy czego oczekujesz i w jakie gry grasz
Bo w Cyberpunku kiedy DLSS jest wyłączone, to działa rozmydlacz TAA. A jakość implementacji DLSS można ocenić na co najwyżej dobrą. Gra sporo na tym traci niestety.
Generalnie to, że najnowsza technologia upscalingu od Nvidii jest lepsza od tej od AMD jest oczywiste. Przydałby się materiał porównujący najnowszą wersję FSR z wersją DLSS wykorzystywaną w kartach z serii RTX 3000 i starszych.
Według mnie obniżenie jakości elementów nie jest tak denerwujące jak migotanie, które automatycznie zwraca twoją uwagę podczas rozgrywki i bardzo denerwuje.
1:55 chyba spadki jakości obrazu, nie wydajności ;) Nieważne jak bardzo bym się nie starał, chciwa nvidia zawsze wygrywa. Dlss w 90% gier wygląda lepiej i chodzi lepiej niż fsr. Nie wspominając już o tym, że 70% gier obsługuje tylko dlss. Ta gra jest niestety kolejnym potworem zniszczonym przez TAA unreala. Bez filtra wyostrzającego nie da się w to mydło grać
Mi się wykrzacza ARK: Survival Ascended po kilku sekundach, już wszystkiego próbowałem, wszelkie ustawienia graficzne, bios i sterowniki najnowsze, górne taktowanie GPU ograniczone do 2500MHz i bez zmian.
Ja gram na1080p z wlaczonym fsr w trybie jakosc i jak dla mnie jest świetnie. Chodzi o FS25 ustawienia b.wysokie gdzie gracze z kartami zielonych ciut narzekaja
Generator klatek działa tylko na serii RTX 4000. Pozostałe funkcje działają na wszystkich kartach z serii RTX. Starsze RTXy nie są ograniczone do starszych wersji DLSS.
@@xchrisux2003 Piszę o upscalingu. Nie ma tak, że na RTX 2000 można odpalić tylko DLSS 1, a na RTX 3000 tylko DLSS 2. Na wszystkich RTX-ach można odpalić DLSS 3 i korzystać z upscalingu, ALE generator klatek (dodany w DLSS 3) będzie działał tylko na RTX 4000. Rozumiesz?
W teorii natywnie generowana klatka zawsze powinna być ostrzejsza, bo FSR i DLSS generują klatkę niższej rozdzielczości i podbijają do natywnej wyświetlanej
@@jazon9 co wynika z kiepskiego AA w natywnym obrazie. wystarczy sobie ustawić AA jako FSR/DLSS w 100% i wszelkie FSR/DLSS zostają wyjaśnione. I jest to zabieg celowy oszustwa nVidii, żeby właśnie takim nie kumającym 'udowodnić' że DLSS jest 'lepszy'. Kupa a nie jest lepszy. Przy tych samych warunkach jest zawsze gorszy. Bo jest to technika stratna z natury, teoria informacji się kłania, a nie jedzenie marketingowych bełtów nVidii.
@@jazon9 Tak jest, dokładnie tak, detal w DLSS jest większy niż natywnie xD gdzie go nie było bo AI wygenerowało cokolwiek z zaniżonej rozdzielczości i Jensem wmawia ludziom, że tak powinna wyglądać natywna klatka, ale tak nie wygląda bo nie, bo generowanie natywnych klatek po prostu jest gorsze od upscalowania xD Weź leki i idź spać albo klękać przed Jensenem. Możesz od razu dać linki do tych "niesławnych" screenów z Death Stranding dla prawdziwych dzbanów co łykają wszystko IKS DE xD
Sie ponauczali jełopy DLSS i innych FSR i nie ma żadnej optymalizacji... Na karcie graficznej za tysiące złotych jak 4070Ti i wyżej to powinno ZAPIERDALAĆ JAK BURZA.... a nie że muszę właczać DLSS i rezygnować z jakości i płynności żeby mieć stabilne 60FPS (co jest niedorzecznie niską wartościa na 2024 rok !) w 4K..... Przecież to jest jakaś abstrakcja.
Ja tam preferuję obniżenie rozdziałki i tryb natywny. DLSS i fsr fajnie wyglądają na youtubie ale w rzeczywistość to widać. FG co z tego że robi więcej klatek na liczniku jak płynność pokazuje ile rzeczywiście jest w stanie karta wyprodukować fps. Robiłem wczoraj nawet porównanie na cyberpunku fsr jakość w 1440p wyglądał gorzej niż 1080p natywny z włączonym radeon super resolution w ustawieniach kraty. Oled 55cali i 7900xtx
U mnie ziomek używa fsr mimo, że ma kartę nvidi. Dlaczego? Bo 3080 z ebaya była tańsza o 400zł od 4060 :) A kochana nvidia jakimś niewiarygodnym cudem nie potrafi umożliwić kartom serii 30 odpalić swojego fg. Najczęściej opłaca się fsr+fsr fg chociaż w niektórych grach dostępny jest mod na odpalenie dlssa wraz frame genem od fsr. Cały komp mu złożyłem za około 3600 (r5 7500f, aorus 3080, 1tb 7000/6800, 850w gold modularny od msi, 32gb 6000/30 i płyta z wifi) Dzięki bogu to fsr istnieje bo inaczej trzeba by kupić tą śmieszną 4060 która przy upsaclingu obu kart przegrywa często nawet dwukrotnie
@@Starbunio morele, ebay, proline, obudowa z xkomu, ramy z olxa. Bez karty wyszło poniżej 2700. Początkowo w planie był zasilacz 750w, ale w dzień zakupu idealnie akurat wpadła promka na a850gl w cenie 300zł. Wystarczy czekać na dobre promki
W call of duty porownywalem w 4k dlss do fsr, twarz z bliska, broda na dlss zbalansowanym wygladala lepiej jak fsr jakosc, a dlss jakosc lepiej jak natywnie :)
tiaaa... i wtedy sie obudziles... dlls lepiej jak natywnie... na zblizeniu... no po prostu panie cuda marketingu.. teoria informacji w d*pie bo ja widzialem... przypomina audiofili co to slyszeli i wiedza ze ten kabel gra lepiej.
A mógłbyś wytłumaczyć, tak na logikę, jakim cudem przeskalowany z mniejszej rozdzielczości obraz może wyglądać lepiej, niż ten w rozdzielczości natywnej?
@@hoobiwoobi To wcale nie nie jest niemożliwe. DLSS może wyostrzyć lub zblurować obraz, zależy jak jest dobrze zaimplementowane. Nasz mózg może go odebrać jako "lepszą jakość/większą ostrość". Było wiele takich przykładów w necie ;) Obraz owszem będzie skalowany ale algorytmy tak go wyostrzą, ze wyda Ci się lepszy niż natywny.
Ja w marcu brałem 7900xtx ale świadomie zdecydowałem że rezygnuję z upłynniaczy. RayTracing i tak katuje karte nawet nvidię jak żaden inny suwak w ustawieniach grafiki w grze więc wywalone miałem na to.
Nie tylko. Pokazy z lupą na statecznym obrazku, najlepiej w zwolnieniu. Normalnie dajesz FSR jakość i zależnie od GPU od wysokich w dół. Kto gra na ultra i po co? Czasami masz różnice między ultra, a wysokimi 10-15 klatek, zwłaszcza w 1% low. Obecnie gry na średnich wyglądają bardzo dobrze i chodzą płynnie. Dajesz RT czy PT i ze 100 FPS spada do 50 w dobrych GPU typu 4070S czy Ti S. W kartach 4060 i Ti, to tylko bajer, chyba że chcesz grać w 40 klatach na średnich z DLSS i FG, które podbiją cudem do 60-70. Gry są do grania nie do podziwiania odbić ścioły. Pozdrawiam
DLSS, FSR, XeSS robia tak, że z 720p zrobia ci 1080p, przez co masz wiecej fps a Frame Generation nie robi nic z rozdzielczościa tylko generuje klatke miedzy już istniejące
@@xGodix Wpłynie na opoźnienie plus mogą wystepować też artefakty jeżeli argorytm źle wygeneruje klatke miedzy prawdziwe zaleca się używać FG jeżeli mamy, chociaż stabilne 60, bo FG musi mieć skąd brać informacje o obrazie wiec nim wiecej bazowych FPS tym lepiej
Tak/nie, zależy od tytułu, na pewno przewagą 7900XTX jest 20 GB VRAM nad ledwie 12GB 4070 Ti, ostatni Indiana Jones pokazuje że ten RAM zaczyna nabierać wartości i że może warto byłoby celować powyżej 12GB w tym temacie.
@@ard1an307 Sterowniki u AMD to tragedia aktualizacje i stabilność również tragedia wydawane raz na jakiś czas a Nvidia zawsze jakiś nowy sterownik wychodzi jak jakaś nowa gra się pojawi
Poczekaj na nową serię bo stara z ceną spadnie. W obecnej generacji raczej 4080 Super jeżeli interesuje Cię Ray Tracing, 4080S będzie droższa ale ma mniejszy pobór mocy i lepszą kulturę pracy. RX 7900XTX też jest spoko ale bardziej grzeje i zjada więcej prądu i przy tym jest tańszy o około 1000zł, wydajność w rasterze to 1:1 zależy od tytułu. Jakbyś chciał RX'a to odradzam Ci Redevila i cokolwiek od PowerColor w tej generacji, celowałbym w Sapphire lub XFX. Z AMD też dostaniesz FrameGen I FSR tylko, że jak to Blacku pokazał jest gorszy obecnie, następna iteracja będzie pewnie miała AI bo ten tutaj to po prostu algorytm bez AI.
Trochę mi to przypomina: FSR - Niech wszystko będzie rozmyte (Blur) DLLS - Nie lubimy "rozmycia" (Blur`a) z FSR wyjątek dla mnie to Starfield tam jest OK pozostałe gry wole natywną choć FS25 namawiam "włącz mnie" bo optymalizacja tam jest ..... słaba jeszcze STALKER 2 - Ciężki tytuł na PC, sam korzystam z generatora klatek, ponieważ lubię epickie detale. Osiągam 40-55 FPS w Zonie (60-70 FPS w mniej wymagających miejscach) z generatorem klatek 70-95 FPS (R7 5800X -25 Curve, RX 6700 XT 32GB 3600 MHz) i, o dziwo, różnica jest odczuwalna. Fakt, że nie jest to wystarczająca płynność dla monitora o częstotliwości odświeżania 144 Hz, ale i tak wystarcza. Zawsze można dostosować detale, jednak z tego, co sprawdzałem, czasami wystarczy zmiana jednej opcji, aby spadło o 20 FPS, podczas gdy inne zmieniają wynik o 2-3 FPS. Tak więc, da się samodzielnie zoptymalizować ustawienia pod kątem detali, aczkolwiek trudniej jest, kiedy zmiany nic nie wnoszą - wtedy to dopiero bywa frustrujące. Najbardziej wydajność zabijają shadery (np. cienie, światła itd.), roślinność i dystans renderowania. Wliczając w to również kosmetyczne cienie kontaktowe itd., które czasami wpływają na niekorzyść jakości. - Nie wiem, po co robią tyle detali, a jeszcze jak tego nie zoptymalizują, to nawet najwydajniejsze GPU potrafi klęknąć. :D
Z tym rozmyciem to bywa różnie ale dlss też potrafi mydlić. Niektóre gry nie mają w ogóle suwaka Sharpening albo załączają go domyślnie na zbyt wysoką wartość. Problem przy FSR to ta dyskoteka (migotanie) i pikseloza.
@@kaelos4 Z tym migotaniem zauważyłem problem od jakiegoś czasu i nie wiem, czy wynika to z którejś wersji sterownika, czy jest związane z odświeżaniem 144 Hz. Sprawdzałem różne opcje, takie jak input lag, ulepszony refresh rate, tryb gry oraz zmienną częstotliwość odświeżania, ale problem nadal występuje. Nie pojawia się wszędzie, nawet w grze Satisfactory, w której wcześniej nigdy nie miałem podobnego problemu. Z tego, co dowiedziałem się w najnowszej aktualizacji FS25, wspomniano o poprawieniu "migotania", ale nie wiem, co dokładnie może być tego przyczyną. Rozwinięcie: Migotanie obrazu w grach, szczególnie w kontekście odświeżania 144 Hz, może wynikać z kilku różnych czynników. Może to być związane z ustawieniami sterowników karty graficznej, specyficznymi opcjami odświeżania ekranu, a także różnymi technologiami optymalizacji obrazu, takimi jak FSR (FidelityFX Super Resolution) czy G-Sync. Problem migotania w grach, mimo braku takich trudności wcześniej, może wynikać z wprowadzenia nowych aktualizacji sterowników lub zmian w systemie operacyjnym, które wpływają na synchronizację obrazu z częstotliwością odświeżania monitora. Warto też zauważyć, że różne gry mogą mieć różne reakcje na te ustawienia. Nawet jeśli problem nie występuje w innych tytułach, w przypadku gier takich jak Satisfactory, może to wynikać z subtelnych różnic w silniku gry, co może prowadzić do problemów z synchronizacją. Aktualizacja, o której wspomniano w FS25, sugeruje, że problem migotania mógł zostać zidentyfikowany i zaadresowany przez deweloperów, ale ostateczne rozwiązanie może zależeć od pełnej kompatybilności sterowników, ustawień ekranu oraz samej gry.
Jak dla mnie FSR realnie smuży bardziej niż DLSS i jest więcej szumów i artefaktów. To nie zawsze widać na YT ale podczas grania róznica jest duzo bardziej widoczna. Plus FSR nadal ma tendencje do pozaostrzania obrazu bo brakuje mu jakości. Co też jest trudniej do uchwycenia na YT niż podczas patrzenia się na monitor.
FSR 3.1 powoduje straszne artefakty wokół postaci i jak np jakieś particle latają. Widać też czasami miganie tekstur. Można to sprawdzić w takim ghost of tsuhima, czy final fantasy 16.
Powtarzam to od dawna, że FSR do niczego się nie nadaje. Jedynie w 4K na "jakość" jeszcze ujdzie. W 2K nawet na "jakość" dla mnie osobiście robi dramat z obrazu. Natomiast DLSS w wielu grach wręcz poprawia jakość obrazu i wygląda lepiej niż natywne ustawienie. Korzystam z DLSS (jedynie na "jakość") wszędzie gdzie się da 👍 To samo z RT, od trzech lat tłumaczę, że bez tego nie ma sensu grać, że to przyszłość, to "po co? Na co to komu? Zrobimy testy amd vs nvidia w czystej rasteryzacji! RT nic nie daje". A teraz każdy youtuber się zachwyca RT (nawet hipokryci co jeszcze kilka miesięcy temu negowali jego zasadność, zapewne siedząc na Radeonach, które im RT nie ogarniały). I nareszcie pojawiają się pierwsze gry w których nawet tej opcji nie wyłączysz 💁♂️ Koniec taryfy ulgowej dla Radeonów. Czas testów w czystym rasterze dobiega końca.
Nie przesadzaj z tym RT, ktoś może mieć tak samo gdzieś RT jak wysoka jakość cieni. Co do FSR, ludzie chyba są ślepi a w 1080p dziwię się że w ogóle do domu trafiają. FSR jak rozmydlal obraz tak robi to nadal, FG od amd natomiast robi pływający obraz w niektórych grach. Dlss w zależności od gry czy 2.0 lub 3.0 i jak to ai zostalo wyuczone. Miałem kartę od amd, teraz Rtx 4070 więc widzę faktycznie jak jest a nie na TH-cam. Wnioski - FSR nawet nie ma podejścia do dlss i fg NVidii.
Używacie upscalingu, czy raczej obniżacie detale w grach?
Ja nigdy nie widziałem różnicy między dlss quality a natywną rozdzielczością więc używam zawsze dlssa bo zawsze jest wzrost klatek
W nowych grach raczej nie da się nie używać upscalingu. Po pierwsze dlatego, że optymalizacja już nie istnieje. A po drugie dlatego, że większość nowych gier ma włączone domyślnie TAA (to jest ten "natywny" obraz) i włączenie upscalingu po prostu poprawia obraz względem TAA. Co by dużo nie mówić upscaling jest teraz najlepszą metodą AA w nowych grach. Niestety.
Ja osobiście to bym wolał aby deweloperzy nie byli tak leniwi jak są i zaczęli optymalizować gry i je dopracowywać, a nie day one patche ważące 100 GB.
tak ;)
@@emilos2495 nie zaczną bo nie wynika to z lenistwa ale z cięcia kosztów. Teraz finansiści i działy finansowe projektują gry. 90% deweloperów nie używa oświetlenia dostosowanego do danego typu gry, tylko domyślnych narzędzi z UE5, te pozostałe 10% to studia które używają własnego silnika.
Te wszystkie dlssy tylko rozleniwiają twórców gier którzy nie znają już słowa OPTYMALIZACJA.
powiedział co wiedział
@@nskubix3196powiedział to językiem faktów
@@nskubix3196twój ojciec też myślał że wie ale skończyło się na podróży po mleko
@@nskubix3196 ?????????
Optymalizacja to dodatkowy koszt, lepiej dowalić 10 dlc za hajs w tym czasie.
Nie gram praktycznie w żadne nowsze gry i nie korzystam z tych technologii xD One miały pomagać wyciągać słaby sprzęt za uszy a twórcy gier zrobili sobie z nich powód do braku optymalizowanie gier.
Neon z kurvinoxem dodaje jakże świątecznej atmosfery wraz z unoszącą się w powietrzu wonią solnika.
U nas na wigilię zawsze była woda…
dawaj zupke
@@adexxon2559 Kolego! Nikt nie powiedział, że się podzielę, a już na pewno nie z tobą. ;)
Dziękuję za materiał, aż miło posłuchać jak zawszę od ponad 10 lat, Wesołych świąt.... życzę :)
Ważne że FSR wciąż jest poprawiane👍plus dla amd.
Tia, a dalej paskudne jak cholera.
@@NeoMartel Darmowe,dzialajace na kazdej karcie,nie wymagajace placenia za dodatkowe rdzenie w karcie ;) Paskudne?Nie powiedzialbym.
@@NeoMartel podczas szybszej rozgrywki nawet się tego nie zauważa
no chyba, że ktoś musi mieć krystalicznie czysty obraz na najwyższych możliwych ustawieniach to wtedy już może to zauważać, mi natomiast to nie przeszkadza i przeszedłem całego cyberpunka mając włączone FSR kiedy moja poprzednia karta nie wspierała dlss
@@NeoMartel tak samo tragiczne jak i dlss xd
dalej daaaleko w tyle od xess
musze to obejrzeć jutro. W moim świątecznym nastroju wszystko wyglada tak samo :D Ladnie albo najlepiej za tydzień jak się święta w święta skończą.
Największą wadą FSR jest migotanie krawędzi. Szczególnie gdy gramy w 1080p.
Naprawili to?
Można padaczki dostać w niektórych grach, jak np. Cyberpunk ;)
Mam Radeona 6650XT, ale wszędzie gdzie tylko mogę odpalam Intel XeSS zamiast FSR. Co brzmi absurdalnie. Intel zrobił lepszy upscalling na karty AMD, niż samo AMD...
W Marvel Rivals też mam wrażenie, że XeSS działa lepiej, niż FSR.
W zasadzie przez ten fakt który wymieniłem, mocno brakuje w tym materiale XeSS ;)
być może fsr 4.0 wszystko naprawi, ale gdy dojdzie "optical flow" jak w B580 czy RTX 4000 to wtedy (będzie działać na wektorach i w końcu będzie dobrej jakości) nie będzie wstecznej kompatybilności tzw. fsr 4.0 będzie działać tylko na RDNA4.
Też używam w cymbergaju XESS, bo lepiej działa niż FSR i DLSS.
Tylko właśnie w cp77 coś im te. Fsr nie wyszedł. Polecam no. Tlou włączyć fsr i frame generation jest świetny
Potwierdzam. Też grałem na tym od Intela. Nie dało się grać na FSR. A tak to spoko AMD
@@lilmadlil fsr jako jedyne nie bazuje na AI i ma fsr 4.0 działać na AI, trzeba liczyć na dodanie silnika wektorów (jak w Battlemage i RTX 4000), wtedy nie będzie wstecznej kompatybilności, ale będzie działać to dużo lepiej.
Ciekawe, że w tej grze na rx 7700 tx włączam ten FSR i u mnie tego nie ma? Ciekawe czemu? "Sami oceńcie..."
Akurat DF przyznało że PCtowa implementacja FSR 3.1 w Space Marine 2 jest co najwyżej średnia, zdecydowanie lepiej wypada FSR na konsolach. Mega dzięki za test, problem z grami na PC jest taki, że ogromna część z nich ma ten FSR zaimplementowany byle jak.
Nie wiem jak konsole vo nie gram, ale moze faktycznie.Natomiast w Stalkerze jest jesszcze gorzej 😉
Zdrowych i spokojnych świąt blacku !
Co do upscallingu, nigdy nie używałem w 1080p ze wzgledu na słabą jakość obrazu, a w 1440p czy po podlaczeniu tv 4k to jak najbardziej. Daje to drugie życie karcie oferując darmową wydajność, plus nie muszę myśleć o wymianie GPU co 2 lata, tak więc nvidia sama sobie strzeliła w stopę.
Niestety jak większość osób zauważyło, słowo optymalizacja przestaje pomału istnieć, dodatkowo bardzo nie podoba mi się marketing nvidii gdzie w slajdach porównujących starszą generację do najnowszej nie używa się czystej rasteryzacji, tylko techniki upscallingu z dodatkowym uzyciem FG....
Szkoda że nie ma porównania do XESS 2.
Dzieki za materiał. Polecam zainteresować się modem opicscaler, który umożliwia włączenie xess lub fsr 3 w grach które natywnie posiadają tylko dlss. Testowałem to narzędzie na Metro Exodus EE i działa bardzo dobrze xess w jakości Q i rozdzielczości 1080p na bardzo wysokich detalach z rt na karcie rx6600xt.
Dla mnie ciekawszym tematem byłoby połącznie upscalera DLSS z generatorem klatek FSR. Jest to możliwe w przy FSR 3.1 i coraz więcej gier to implementuje. Niestety nvidia ma w pomie użytkowników starych kart, a dla mnie temat jest super ciekawy. Wesołych świąt!
generator klatek od amd jest strasznie słaby bo nie przewiduje wektorów ruchu. Coś w temacie się ruszyło dopiero teraz ale nadal wypada to słabo w stosunku do nvidii.
No ja sobie włączam właśnie taką kombinacje np. W Spider-Manie. DLSS quality i amd frame generation w 4K. I stabilne 120 klatek jak na konsoli tyle że grafika nieporównywalnie lepsza bo wszystko na ultra. Na 55 calowym tv oled ze 120Hz matrycą robi to niesamowitą robotę. Zastosowanie tej kombinacji jest o tyle lepsze bo pozwala włączyć V-Sync. Przy generatorze od NVidia takiej opcji nie ma i mimo że FPS jest więcej niż 120, obraz nie jest płynny.
@@キウィキウィjuz przewiduje wektor i w bo6 mozna wlaczyc dlss i tylko generator amd
Zobacz gry takie jak ghost of tsushima, god of war, które mają świetne implementacje fsr 3.1 jeśli chodzi o fg. Jakość bardzo podobna do dlss fg.@@キウィキウィ
@@キウィキウィ dlatego chętnie bym zobaczył testy
Super rzetelny film zrobiony tylko spośród dwóch gier.
Tylko pogratulować.
Z tym upscalingiem to jest jakbyś chciał zrobić z igły widły, ile to już wersji było, czemu się nie rozwija technologii temporal antialiasing bez utraty jakości obrazu? co z tego że w statycznych scenach jest fajnie, tutaj na teście postać nie przemieszcza się na boki, wtedy dopiero jest lipa, w nowym stalkerze ghosting na roślinności to norma przy fsr i dlss, dobrze jest jak idziesz do przodu ale gorzej jak przemieszczasz postać na boki.
Rok temu kupowałem RX7800XT pod ekran 4k z zamiarem używania upscalingu, czekając kolejne kilka lat na przystępne cenowo karty do 4k. Póki co żadnego zamiennika nie widać.
Blacku, od kiedy wyszło Diablo 4 gram tylko w ten tytuł. Ustawiłem wszystko raczej na max jakość przy 1080p na 27 calach monitorze, a gram na RTX 3060TI 8gb DDR6X coś tam. Od kiedy w Diablo 4 zostało zaimplementowane śledzenie promieni gra nabrała graficznego smaczku. Ale kiedy przez pewien moment DLSS nie było obsługiwane, okazało się, że mój RTX dostaje zadyszki ;-). Ograniczyłem ilość wyświetlanych klatek do circa 100 i jest przy DLSS spoko, choć procesor graficzny pracuje często na 100%.
Nowe gry mają zero optymalizacji i są maksymalnie rozmazane. Raczej będę omijał nowe tytuły dopóki nie wyjdzie jakaś stabilna technologia niwelująca schody i ząbkowanie dla Full HD. MSAA dawało radę a teraz to jest jakieś nieporozumienie z TAA. Nie dość, że gierki są coraz gorzej zrobione to jeszcze wyglądają jak kasza manna... nic dziwnego, że studia i duzi wydawcy masowo plajtują... ahh jeszcze ten system pre-orderów xD. Niestety mi się Stalker wysypuje na 4060Ti jak ustawiłem FSR 3.1.
Ja mam RTX 4070 Super i monitor 1440p i używam zawsze DLSS w ustawieniu jakość. Detale staram się ustawiać ultra lub wysokie / bardzo wysokie.
ja to samo :) nie widac za bardzo roznicy
Mam pytanie nie mogę znałeś informacji jaka wersje ma moja karta graficzna ma wersje HDM MSI GeForce RTX 3060 VENTUS 2X OC 12GB GDDR6
Spoko materiał ale jedna gra to trochę mało na materiał testowy.
Jak wiadomo, w zależności od gry te techniki wypadają raz lepiej lub gorzej( ponoć w takim np Ghosts Of Tsushima jakość FSR jest porównywalna do DLSS), bo różnie wychodzi ich implementacja.
Oczywistym jednak jest, że w większości gier DLSS wypada lepiej.
@@Ggggg-cu9co Sprawdzałem jeszcze Stalkera 2, jest jeszcze gorzej
Dzieki za prownianie, fajny film. Migotanie widać rowniez w odbiciach na wodzie roslin na srodku ekranu.
Mógłbyś porównać jakość Path tracingu, nie udalo mi sie znaleźć porównań, jedynie filmy wychwalajace jakosc na nvidii
A jak wyglada sytuacja z frametime? Tego nik nie przedstawia. Tylko czysta rasteryzacja. Po co kilka klatek wiecej jak gra jest pływająca i mniej responsywna. Smużenia i migania to norma.
Grając ostatnio w Hunt Showdown trochę męczyłem się z dropami klatkarzu w natywnym 3440X1440 (nierówne 60 fps) Niestety DLSS w tej grze daje więcej klatek ale rysowanie na dalekim dystansie cierpi na nieostry obraz o ile w grach akcji singlowych to bez znaczenia dla mnie to w takim kompetytywnym tytule jest to ważne. Postanowiłem spróbować patentu który używany przez graczy w Alien Isolation by zminimalizować efekt postrzępionych krawędzi odpalało się grę z włączonym upscalerem z poziomu sterownika (DSR) w moim przypadku Hunt renderowany jest do rozdzielczości o 33% wyższej od 3440X1440 czyli do 4587X1920px do tego ustawiam DLSS na tryb płynności i mam 60 klatek solid a ostrość obrazu jest po prostu doskonała. Pewnie nie w każdej grze to będzie dobrze działać a i trzeba mieć zapas mocy ale jak już się ma to efekty są naprawdę warte uwagi.
kiedy do warhamerra dodano 3 bo jak gralem miesac temu na radeonie 7700XT to 2 byla tylko
@@blazeyt1383 jakoś niedawno
7:00 wzrosty 80% , 140% ... , może jestem idiotą , więc proszę o wytłumaczenie , gdzie na tych wykresach jest pokazany wzrost np. 140% i w jaki sposów można to z tych wykresów odczytać?
@@wsobczak9860 masz FPSy w rozdzielczości natywnej i później w poszczególnych trybach 😉
@@bIackwhiteTV czy na moim komputerze youtube WYCINA te fragmenty o których mi piszesz ? , nie widzę takich informacji na filmie, możesz podać sygnaturę czasową filmu z tą informacją o której piszesz ?
@@wsobczak9860 Masz wykresy, na wykresach to o czym mówię
@@bIackwhiteTV chyba odnosimy się do różnych filmó. na wykreach jest pokazane szarym - klatkaż 1% i niebieskim średni , ale gdzie z DLSS a gdzie bez? , jakoś nie widzę tego , tylko twój komentaż 108,140, .... czy przyrost określaś jako różnicę pomiędzy ilością klatem 1% low i średnią ilością klatek ? - ZNAKOMICIE ! ale nawet wtedy rachunki pokazują przyrost nie o 108% , tylko 8% ( w zaokrągleniu np. 70 klatek i 75 , ale chyba ne o takie porównanie ci chodziło? ) , czy ja już naprawdę nie wiem co to znaczy przyrost ilości renderowanych klatek i po prostu nie mam pojęcia o czym w tym filmie mówisz , a co pokazujesz na obrazkach . Nawet gdyby tu o to właśnie chodziło (co jest niewłaściwym porównaniem ilości 1% Low do średniej ilości klatek) , to i tak - określenie " przyrost o 108% , w języku polskim oznacza podwojenie poprzedniej ilości plus jeszcze 8 % , więc 70 klatek x2 to jest 140 klatek i jeszcze 8% z 70 to jest razem 145,6 klatek , wtedy jest przyrost o108% , ale w tym przypadku jest przyrost DO 108% ,ale jeżeli różnica jest tylko 5 klatek to , przyrost jest do 108% wartości początkowej i wynosi (sam przyrost ) TYLKO 8% , choć jak już pisałem przyrost ma się nijak gdy porównujemy ilość klatek 1% Low do ilości średniej renderowanych przez kartę.
Cóż nie jestem na pewno ekspertem , jednak sądzę że logiką i znaczeniem słów w języku polskim , twój wywód ma niewiele wspólnego , po prostu jest nieprawdziwy
@@wsobczak9860 Nie porównuje 1% low do średniego FPS tylko średni ze średnim. Masz na wykresie Wydajność w rozdzielczości natywnej a później w poszczególnych trybach DLSS. Jeśli np w trybie Preformance masz 86 FPS a w natywnej 36 to jaki to jest wg Ciebie przyrost? Nie kumam o co Ci chodzi ;)
Jak jest z HDR? Czy miedzy Radeon a Nvidia są różnice?
Ja używam FSR w grze gatcha Wuthering Waves, gram w 2160p na Radeonie 6950XT. Bez FSR mam 90-100 klatek, z FSR gra dobija mi do sztywnego limitu klatek, ustalonego w grze, czyli 120. Ja tam nie widzę jakichś defektów graficznych, a przynajniej nie rzucaja się w oczy w trakcie grania.
W stalker 2 wolałem zejść z detalami na high z epic żeby mieć 60 FPS, niż odpalać FSR w 1440p.
Zgadza się w tej grze FSR wygląda bardzo słabo
Jak nie stać cie na średnia kartę graficzną to twój problem. Sorry.... Jak nie stać twoich starych
😂 Przegryw siedzi i wyzywa, prawdopodobnie stać go na więcej niż ciebie. Takie psy jak ty zawsze szczękają w necie @@czechugawron
@@czechugawronty nie masz starych, że go wyzywasz?
@@czechugawron Ooo, mamusia kartusię Czesiowi kupiła na święta i Czesiu siurkiem teraz w necie macha, jakich ma dzianych starych? Przecież sam sobie Czesiu nie zarobił, niezbyt rozgarnięty ten Czesiu, oj niezbyt...
Jak w gierce jest tak 45/60 fps z dlss na trybie jakość w 4k to jak do tego fg odpalę to złoto. Gram właśnie w space marine 2 na 4070 ti super to 90% gry w 4 k dlss i fg ponad 100 fps na telewizorze 120k z vrr nie ma żadnego rwania obrazu też mogłeś wspomnieć bo teraz dużo telewizorów, monitorów neguje mocno te efekty. W dragon's dogma 2 właśnie też zauważyłem, że rozdzielczość natywna przegrywa z trybem jakości dlss co jest dziwne jak dla mnie, ale tez dobrze świadczy o samej technologii. Znając życie to pewnie w serii 5000 cos nvidia dołoży i oleje serie 4000...
Do generowania klatek to używam Lossless Scaling - monitor 3440x1440, karta RTX 3070. Dokupiłem do tego RX 6500XT. Tak więc monitor mam ustawiony na 120Hz, w sterowniku nV mam zablokowane klatki na 60Hz. Monitor podłączony pod RX 6500XT aby nie obciążać lini PCIe - bo niestety mam chipset b550 i karta (RX 6500) jest ograniczona do PCIe 3.0x4 (fabrycznie obsługuje 4.0x4). A i w ustawieniach trzeba wybrać aby w trybie obciążenia renderował na RTX 3070 a najlepiej każdą aplikację ręcznie przypisać do lepszej karty bo zauważyłem np. w Wieśku scenę 3D renderowało na RTXie a mapę na RXie tak więc lepiej przypisać każdą aplikację do karty. No i trochę poustawiać sam program ale jak już się wyhaczy o co chodzi to chodzi świetnie. Zaletą tego programu jest to że mogę sobie odpalić generator w każdej grze, nawet tych które były zablokowane np. na 30FPS. Drugą zaletą jest możliwość wybrania na której karcie ma pracować generator klatek. A zaletą generowania na drugiej karcie to podwojenie liczby klatek i mniejsze opóźnienia. Bo jak miałem normalnie np. 60 klatek i włączyłem generator na tej samej karcie to klatki natywne spadały do ok. 40. Nie ma nic za darmo, a z drugą kartą to jak mam 60FPS + generator = 120FPS. Ale się rozpisałem😁
I tak kupiłem AMD XD Nvidia nic ode mnie nie dostanie za te kastraty po zawyżonych cenach. Żebym nie wyszedł na fanboya tłumacze swoje poglądy tym, że nie interesują mnie tytuły gier, w których gpu nvidii daje solidne korzyści. Kiedy porównanie generatorów klatek? A może nawet w połączeniu z metodami upscalingu
AMD robi tańsze i słabe karty graficzne. Miałem RX 580 w dwóch wersja i był dramat. Czarne ekrany wysokie temperatury i słabe działanie dodatkowych funkcji oraz sterowników.
Ok 😂✌️
Teraz intel wchodzi z sensownie wycenionymi kartami, więc będzie wybór dla antymonopolistów
@@andrzej5992 RX 580 to bardzo stara generacja. RDNA 3 jest całkiem spoko, jak już połatali sterowniki. Z temperatur jestem bardzo zadowolony.
Ze starszych to i z Nvidią miałem problemy - częste dxerrory, resety sterowników, freezy gier. GTX 560Ti, 770 i 1660 - wszystkie cierpiały na to samo i wszystkie przestały działać nagle podczas gry (czarny ekran i już nie łapało obrazu po restarcie).
@zares_fnx nie spotkałem się z takimi problemami w kartach NVIDIA choć miałem już ich kilka :) kupuje użytkuje 2-3 lata bez żadnych problemów i sprzedaje :) ludzie nie narzekają :) a na karty AMD ludzie narzekali i narzekają dalej :)
Szkoda, że developerzy często źle implememtują fsr 3.1 i występują problemy z płynnością fg/frametime. Dodatkowo pomijają implementację Anti-Lag 2 z jakiegoś powodu, polecam optiscaler(mod) do gier z chu**** implementacją.
mam dziwne wrażenie że ktoś tu się z kimś dogadał i karty co raz droższe a gry coraz bardziej skopane optymalizacyjnie i jest jak jest :c.
Fajnie tylko fsr (fx, integer scaling, fluid motion frames) nie działa z eyefinity, a dlss i fg z nvsurround już tak - a w trzymonitorowych konfiguracjach takie skalowanie rozdzielczości i wygładzanie daje efekty.
Na fsr wszystko ciągle migocze i "świerszczy". Gdybym wiedział że tak to będzie wyglądało. postawiłbym na 4070 zamiast 7800xt którą kupiłem rok temu
posłuchałeś fan gejów z radeona to masz, zapewne masz na imie TOMASZ :) a tak serio to zawsze sie mówiło ze enwidia pod tym wzgledem jest lepsza, miałem radeona to tez sa wydajne karty, wszytko zalezy czego oczekujesz i w jakie gry grasz
Czy nie można by zaprząc AI do optymalizacji kodu? A, jeszcze jedno: "migoczą", nie "migotają".
w cyberpunku DLSS powoduje denerwujące powidoki, ale bez niego jest jeszcze gorzej, wszystko jakby rozmyte
Bo w Cyberpunku kiedy DLSS jest wyłączone, to działa rozmydlacz TAA. A jakość implementacji DLSS można ocenić na co najwyżej dobrą. Gra sporo na tym traci niestety.
Generalnie to, że najnowsza technologia upscalingu od Nvidii jest lepsza od tej od AMD jest oczywiste. Przydałby się materiał porównujący najnowszą wersję FSR z wersją DLSS wykorzystywaną w kartach z serii RTX 3000 i starszych.
Według mnie obniżenie jakości elementów nie jest tak denerwujące jak migotanie, które automatycznie zwraca twoją uwagę podczas rozgrywki i bardzo denerwuje.
1:55 chyba spadki jakości obrazu, nie wydajności ;) Nieważne jak bardzo bym się nie starał, chciwa nvidia zawsze wygrywa. Dlss w 90% gier wygląda lepiej i chodzi lepiej niż fsr. Nie wspominając już o tym, że 70% gier obsługuje tylko dlss. Ta gra jest niestety kolejnym potworem zniszczonym przez TAA unreala. Bez filtra wyostrzającego nie da się w to mydło grać
Mam słabiutką już rx 6600 i gram na 1440p. Muszę używać FSR w trybie co najmniej jakość (czasem balanced) aby w ogóle pograć w rozsądnej płynności.
Ja ogólnie na 7900XT wszystko elegancko śmiga w Cyberka 2077 nawalam z RT i śmiga elegancko FRS3 na jakość i generator polecam i pozdrawiam
Mi się wykrzacza ARK: Survival Ascended po kilku sekundach, już wszystkiego próbowałem, wszelkie ustawienia graficzne, bios i sterowniki najnowsze, górne taktowanie GPU ograniczone do 2500MHz i bez zmian.
Używam FSR na moim 6700XT i działa to spoko, podczas gry rzadko skupiam się na widokach, więc drobne niedoskonałości obrazu mi nie przeszkadzają.
Ja gram na1080p z wlaczonym fsr w trybie jakosc i jak dla mnie jest świetnie. Chodzi o FS25 ustawienia b.wysokie gdzie gracze z kartami zielonych ciut narzekaja
A jak to wygląda na starych RTX ? na Serii 2xxx jest DLSS 1 na RTX 3xxxx jest Dlss 2 ?
Generator klatek działa tylko na serii RTX 4000. Pozostałe funkcje działają na wszystkich kartach z serii RTX. Starsze RTXy nie są ograniczone do starszych wersji DLSS.
@@stark_2991 Jak nie jak tak seria RTX3000 ma DLSS 2.0
@@xchrisux2003 Piszę o upscalingu. Nie ma tak, że na RTX 2000 można odpalić tylko DLSS 1, a na RTX 3000 tylko DLSS 2. Na wszystkich RTX-ach można odpalić DLSS 3 i korzystać z upscalingu, ALE generator klatek (dodany w DLSS 3) będzie działał tylko na RTX 4000. Rozumiesz?
@@stark_2991 tak
wszystko zależy jaką ma się kartę graficzną jak nie masz nvidi rtx to tylko fsr zostaje jak masz słabszego radeona lub gtxa
Zawsze używam FSR na jakość w 1440p, straty na jakości obrazu marginalne, a zyski w klatkarzu zacne.
Pytanie laika. Czyli neatywnie jest najwieksza jakosc obrazu? Bez wspomagaczy?
W teorii natywnie generowana klatka zawsze powinna być ostrzejsza, bo FSR i DLSS generują klatkę niższej rozdzielczości i podbijają do natywnej wyświetlanej
@@amonitowy nie zawsze
To zależy, w wielu przypadkach detal w DLSS jest większy niż natywnie, szczególnie na odległych obiektach.
@@jazon9 co wynika z kiepskiego AA w natywnym obrazie. wystarczy sobie ustawić AA jako FSR/DLSS w 100% i wszelkie FSR/DLSS zostają wyjaśnione. I jest to zabieg celowy oszustwa nVidii, żeby właśnie takim nie kumającym 'udowodnić' że DLSS jest 'lepszy'. Kupa a nie jest lepszy. Przy tych samych warunkach jest zawsze gorszy. Bo jest to technika stratna z natury, teoria informacji się kłania, a nie jedzenie marketingowych bełtów nVidii.
@@jazon9 Tak jest, dokładnie tak, detal w DLSS jest większy niż natywnie xD gdzie go nie było bo AI wygenerowało cokolwiek z zaniżonej rozdzielczości i Jensem wmawia ludziom, że tak powinna wyglądać natywna klatka, ale tak nie wygląda bo nie, bo generowanie natywnych klatek po prostu jest gorsze od upscalowania xD Weź leki i idź spać albo klękać przed Jensenem. Możesz od razu dać linki do tych "niesławnych" screenów z Death Stranding dla prawdziwych dzbanów co łykają wszystko IKS DE xD
Ja gram na Xbox Series X w Space Marine 2. W trybie wydajność jest ok, choć na dużym tv widać upscaling
Przy mojej rozdzielczości to nie mam wyboru xD dlss na quality i gdzie jest to frame generator
Musze przyznać że FSR 3.1 bardzo ładnie goni DLSS
nie wiem gdzie wy tu jakieś zmiany widzicie dla mnie wszystko wygląda tak samo
TH-cam bardzo kompresuje jakość więc takie filmiki nie pokazują w sumie jak to wygląda
Ja to zawsze dlss na jakość 😎 i wszystko na full oczywiście 🤩😎 pozdrawiam 😉🫡😎
ja 4070 używam do dekrypcji powietrza, ale miło widzieć jak to działa w grach
Współczesne gry to paździeż. Jak juz wybierac to FSR i DLSS na Quality od biedy Balanced ale tylko i wyłącznie w 4K
czy dlss 3.8 dziala na rtx3000?
Sie ponauczali jełopy DLSS i innych FSR i nie ma żadnej optymalizacji... Na karcie graficznej za tysiące złotych jak 4070Ti i wyżej to powinno ZAPIERDALAĆ JAK BURZA.... a nie że muszę właczać DLSS i rezygnować z jakości i płynności żeby mieć stabilne 60FPS (co jest niedorzecznie niską wartościa na 2024 rok !) w 4K.....
Przecież to jest jakaś abstrakcja.
Ja tam preferuję obniżenie rozdziałki i tryb natywny. DLSS i fsr fajnie wyglądają na youtubie ale w rzeczywistość to widać. FG co z tego że robi więcej klatek na liczniku jak płynność pokazuje ile rzeczywiście jest w stanie karta wyprodukować fps. Robiłem wczoraj nawet porównanie na cyberpunku fsr jakość w 1440p wyglądał gorzej niż 1080p natywny z włączonym radeon super resolution w ustawieniach kraty. Oled 55cali i 7900xtx
1:35 UP teraz potrafi naprawde dobrze wyglądać, ostatnio zauważyłem to w black ops 6. naprawde nieźle jak na UP i to na 1080p.
jak dla mnie przez to migotanie w 1440p FSR nadaje się do kosza
ja sobie działam na rx6800xt i jak dotąd nigdy nie odpaliłem FSR, ale to głównie dlatego że mam monitor 1440p 75hz (podkręcony do 95)
Oby co szybciej iść w 8k i uznać 4k60 za standard do którego się dąży optymalizacją...
U mnie ziomek używa fsr mimo, że ma kartę nvidi. Dlaczego? Bo 3080 z ebaya była tańsza o 400zł od 4060 :)
A kochana nvidia jakimś niewiarygodnym cudem nie potrafi umożliwić kartom serii 30 odpalić swojego fg.
Najczęściej opłaca się fsr+fsr fg chociaż w niektórych grach dostępny jest mod na odpalenie dlssa wraz frame genem od fsr.
Cały komp mu złożyłem za około 3600 (r5 7500f, aorus 3080, 1tb 7000/6800, 850w gold modularny od msi, 32gb 6000/30 i płyta z wifi)
Dzięki bogu to fsr istnieje bo inaczej trzeba by kupić tą śmieszną 4060 która przy upsaclingu obu kart przegrywa często nawet dwukrotnie
gdzieś konkretnie kupowałeś czesci? Wydaje się tanio coś :)
@@Starbunio morele, ebay, proline, obudowa z xkomu, ramy z olxa.
Bez karty wyszło poniżej 2700.
Początkowo w planie był zasilacz 750w, ale w dzień zakupu idealnie akurat wpadła promka na a850gl w cenie 300zł. Wystarczy czekać na dobre promki
W call of duty porownywalem w 4k dlss do fsr, twarz z bliska, broda na dlss zbalansowanym wygladala lepiej jak fsr jakosc, a dlss jakosc lepiej jak natywnie :)
tiaaa... i wtedy sie obudziles... dlls lepiej jak natywnie... na zblizeniu... no po prostu panie cuda marketingu.. teoria informacji w d*pie bo ja widzialem... przypomina audiofili co to slyszeli i wiedza ze ten kabel gra lepiej.
A mógłbyś wytłumaczyć, tak na logikę, jakim cudem przeskalowany z mniejszej rozdzielczości obraz może wyglądać lepiej, niż ten w rozdzielczości natywnej?
@Magia :) nie wiem jak ale tak jest
Może i magia, albo placebo. 😁
Wszystkiego dobrego!
@@hoobiwoobi To wcale nie nie jest niemożliwe. DLSS może wyostrzyć lub zblurować obraz, zależy jak jest dobrze zaimplementowane. Nasz mózg może go odebrać jako "lepszą jakość/większą ostrość". Było wiele takich przykładów w necie ;) Obraz owszem będzie skalowany ale algorytmy tak go wyostrzą, ze wyda Ci się lepszy niż natywny.
Lepiej zakupić Rx 7900xtx czy nvida Rtx 4080 super ?
Poczekaj na serię 5000 i wtedy zdecyduj
Jeśli interesuje Cię Ray Tracing, DLSS i FG, to Nvidia. Jeśli interesuje Cię tylko czysta wydajność i dużo VRAMu, to AMD.
Ja w marcu brałem 7900xtx ale świadomie zdecydowałem że rezygnuję z upłynniaczy. RayTracing i tak katuje karte nawet nvidię jak żaden inny suwak w ustawieniach grafiki w grze więc wywalone miałem na to.
Gram w stalkera rtx 3070 jak włączę dlss to wolniej się tekstury wczytują i skacze obraz 🫢
Czy tylko ja nie widzę żadnej różnicy poza pixelozą wody w trybie wydajności 1080p
Nie tylko. Pokazy z lupą na statecznym obrazku, najlepiej w zwolnieniu. Normalnie dajesz FSR jakość i zależnie od GPU od wysokich w dół. Kto gra na ultra i po co? Czasami masz różnice między ultra, a wysokimi 10-15 klatek, zwłaszcza w 1% low. Obecnie gry na średnich wyglądają bardzo dobrze i chodzą płynnie. Dajesz RT czy PT i ze 100 FPS spada do 50 w dobrych GPU typu 4070S czy Ti S. W kartach 4060 i Ti, to tylko bajer, chyba że chcesz grać w 40 klatach na średnich z DLSS i FG, które podbiją cudem do 60-70. Gry są do grania nie do podziwiania odbić ścioły. Pozdrawiam
Ja w większości gier używam głównie trybu jakość w 1440p bo reszta reszta trybów jest dla mnie zbyt agresywna.
Gubię się już czym jest w końcu DLSS i FSR a FG
DLSS, FSR, XeSS robia tak, że z 720p zrobia ci 1080p, przez co masz wiecej fps a Frame Generation nie robi nic z rozdzielczościa tylko generuje klatke miedzy już istniejące
@ czyli samo FG może wystarczyć do płynnego grania bez utraty jakości?
@@xGodix Wpłynie na opoźnienie plus mogą wystepować też artefakty jeżeli argorytm źle wygeneruje klatke miedzy prawdziwe zaleca się używać FG jeżeli mamy, chociaż stabilne 60, bo FG musi mieć skąd brać informacje o obrazie wiec nim wiecej bazowych FPS tym lepiej
@@amonitowy czyli niezalecane do gier nazwijmy to e sportowych, zalecane do gier fabularnych typu GoW i RDR
@@xGodix Dokładnie
Ja tam nie widzę żadnej różnicy.
nie używam up-scalerow
W grach w które gram praktycznie nie używa się tych technologii i softu.
Gratki dla Amd jeszcze trochę po pracują i FSR będzie na równi z DLSS.
A mam takie pytanie, czy RX 7900 XTX lepiej sobie poradzi z rodziałką 3440x1440 jak 4070Ti? A monitor to MSI Mag 345CQR
Zdecydowanie, jednak bez RT.
Tak/nie, zależy od tytułu, na pewno przewagą 7900XTX jest 20 GB VRAM nad ledwie 12GB 4070 Ti, ostatni Indiana Jones pokazuje że ten RAM zaczyna nabierać wartości i że może warto byłoby celować powyżej 12GB w tym temacie.
RX oczywiście że poradzi sobie lepiej, w końcu jest on porównywany do rtx 4080s nie bez powodów
chyba że korzystasz z fsr lub innych dobrodziejstw nvidii, wtedy można się zastanowić
@@MichaelZi 24GB ma.
Co to była za gra?
Half life 3
Dziękuję, nie wiedziałem, że wyszła już 👍
@@bkrukowski Warhammer space Marine 2
Lepiej kupić rx7900xtx czy rtx 4080 super ?
Super
RTX 4080 Super a dla czego dostajesz Frame genarator i DLLS i RT, a u amd masz niestabilne sterowniki itp więcej dostajesz od Nvidia nieżeli od amd
@@MDgameplayLive Można by wszystko powiedzieć, że Super lepszy bo pobór mocy, RT, kwestia chłodzenia i kultury pracy ale dojebią ze sterownikami XDDDD
@@ard1an307 Sterowniki u AMD to tragedia aktualizacje i stabilność również tragedia wydawane raz na jakiś czas a Nvidia zawsze jakiś nowy sterownik wychodzi jak jakaś nowa gra się pojawi
Poczekaj na nową serię bo stara z ceną spadnie. W obecnej generacji raczej 4080 Super jeżeli interesuje Cię Ray Tracing, 4080S będzie droższa ale ma mniejszy pobór mocy i lepszą kulturę pracy. RX 7900XTX też jest spoko ale bardziej grzeje i zjada więcej prądu i przy tym jest tańszy o około 1000zł, wydajność w rasterze to 1:1 zależy od tytułu. Jakbyś chciał RX'a to odradzam Ci Redevila i cokolwiek od PowerColor w tej generacji, celowałbym w Sapphire lub XFX. Z AMD też dostaniesz FrameGen I FSR tylko, że jak to Blacku pokazał jest gorszy obecnie, następna iteracja będzie pewnie miała AI bo ten tutaj to po prostu algorytm bez AI.
Ciekawe jak dlss 4.0 w 5xxx 😅
najwyzsze ustawienia i generator>>>
Trochę mi to przypomina:
FSR - Niech wszystko będzie rozmyte (Blur)
DLLS - Nie lubimy "rozmycia" (Blur`a)
z FSR wyjątek dla mnie to Starfield tam jest OK pozostałe gry wole natywną choć FS25 namawiam "włącz mnie" bo optymalizacja tam jest ..... słaba jeszcze
STALKER 2 - Ciężki tytuł na PC, sam korzystam z generatora klatek, ponieważ lubię epickie detale. Osiągam 40-55 FPS w Zonie (60-70 FPS w mniej wymagających miejscach) z generatorem klatek 70-95 FPS (R7 5800X -25 Curve, RX 6700 XT 32GB 3600 MHz) i, o dziwo, różnica jest odczuwalna. Fakt, że nie jest to wystarczająca płynność dla monitora o częstotliwości odświeżania 144 Hz, ale i tak wystarcza. Zawsze można dostosować detale, jednak z tego, co sprawdzałem, czasami wystarczy zmiana jednej opcji, aby spadło o 20 FPS, podczas gdy inne zmieniają wynik o 2-3 FPS. Tak więc, da się samodzielnie zoptymalizować ustawienia pod kątem detali, aczkolwiek trudniej jest, kiedy zmiany nic nie wnoszą - wtedy to dopiero bywa frustrujące. Najbardziej wydajność zabijają shadery (np. cienie, światła itd.), roślinność i dystans renderowania. Wliczając w to również kosmetyczne cienie kontaktowe itd., które czasami wpływają na niekorzyść jakości. - Nie wiem, po co robią tyle detali, a jeszcze jak tego nie zoptymalizują, to nawet najwydajniejsze GPU potrafi klęknąć. :D
Z tym rozmyciem to bywa różnie ale dlss też potrafi mydlić. Niektóre gry nie mają w ogóle suwaka Sharpening albo załączają go domyślnie na zbyt wysoką wartość. Problem przy FSR to ta dyskoteka (migotanie) i pikseloza.
@@kaelos4 Z tym migotaniem zauważyłem problem od jakiegoś czasu i nie wiem, czy wynika to z którejś wersji sterownika, czy jest związane z odświeżaniem 144 Hz. Sprawdzałem różne opcje, takie jak input lag, ulepszony refresh rate, tryb gry oraz zmienną częstotliwość odświeżania, ale problem nadal występuje. Nie pojawia się wszędzie, nawet w grze Satisfactory, w której wcześniej nigdy nie miałem podobnego problemu. Z tego, co dowiedziałem się w najnowszej aktualizacji FS25, wspomniano o poprawieniu "migotania", ale nie wiem, co dokładnie może być tego przyczyną.
Rozwinięcie:
Migotanie obrazu w grach, szczególnie w kontekście odświeżania 144 Hz, może wynikać z kilku różnych czynników. Może to być związane z ustawieniami sterowników karty graficznej, specyficznymi opcjami odświeżania ekranu, a także różnymi technologiami optymalizacji obrazu, takimi jak FSR (FidelityFX Super Resolution) czy G-Sync. Problem migotania w grach, mimo braku takich trudności wcześniej, może wynikać z wprowadzenia nowych aktualizacji sterowników lub zmian w systemie operacyjnym, które wpływają na synchronizację obrazu z częstotliwością odświeżania monitora.
Warto też zauważyć, że różne gry mogą mieć różne reakcje na te ustawienia. Nawet jeśli problem nie występuje w innych tytułach, w przypadku gier takich jak Satisfactory, może to wynikać z subtelnych różnic w silniku gry, co może prowadzić do problemów z synchronizacją. Aktualizacja, o której wspomniano w FS25, sugeruje, że problem migotania mógł zostać zidentyfikowany i zaadresowany przez deweloperów, ale ostateczne rozwiązanie może zależeć od pełnej kompatybilności sterowników, ustawień ekranu oraz samej gry.
Różnica jest kolosalna ! DLSS miażdży
1:25 Nie lepiej powiedzieć "Full HD, 2K i 4K"
1440p to nie 2K xD
@@maks571 a co?
@@kilimandzaro5552K to 2048x1080,
1440P najlepiej określić mianem QHD.
Idź lepiej pierogi lep a nie jutuby!
Komu bysię chciało lepić xD Wesołych ;)
@ Tobie również!
Było Jakoś a jest Jakość
Zabrakło Intela :(
Native czyli antyaliasing wylaczony?
TAA włączone
Nie korzystam z tych gimmickow.
a czemu porownanie do 3.7 a nie 3.8 dlss?
A dlaczego nie DLSS 2, skoro 3 nie jest oficjalnie wspierane przez starsze karty, na których będzie szczególnie użyteczne? :)
@@hoobiwoobi mylisz sie, dlls 3.8 jest normalnie pbslugiwany. Nie jest obslugiwane tylko fg z dlls 3 a nie sam upscaling
@@Sisay1982 Masz rację. Na szybko znalazłem inne informacje.
Na stronie Nvidii jest mowa, że są obsługiwane na wszystkich RTX.
Jak dla mnie FSR realnie smuży bardziej niż DLSS i jest więcej szumów i artefaktów. To nie zawsze widać na YT ale podczas grania róznica jest duzo bardziej widoczna. Plus FSR nadal ma tendencje do pozaostrzania obrazu bo brakuje mu jakości. Co też jest trudniej do uchwycenia na YT niż podczas patrzenia się na monitor.
Jak można obwiniać technologie za lenistwo develwopera? Dlss i fsr oraz intelowska technologia to świetna rzecz.
Dlaczego nie testujecie rozdzielczosci 3440x1440 wiekszosć moich znajomych ja ma ewentualnie 4k a full hd to spotykam tylko w laptopach
Bo full hd jest standardem 1440 p dogania ale nie na tyle. Poza tym przy 1080 p widac najwieksza roznice w klatkach niz wyzej.
@@maslo32 na 4k to grają koniobijcy z upscalerami
Według ankiety Steam z rozdzielczości 3440x1440 korzysta tylko 2,5% graczy, a z rozdzielczości 3840x2160 niewiele ponad 4% graczy.
Rock to ty ?
FSR 3.1 powoduje straszne artefakty wokół postaci i jak np jakieś particle latają. Widać też czasami miganie tekstur. Można to sprawdzić w takim ghost of tsuhima, czy final fantasy 16.
dlss tez to ma. to zalezy od gry
@ImotekhtheStormlord-tx2it przełączając na dlss od razu mi znikały artefakty
@@szymonpotorak9161 zalezy od sceny
A co na to Pana żona ?
już jest DLSS 3.8
Nie byłbym tego taki pewny, zależy od gry jaki jest zaimplementowany.Ale moze amsz rację.
Powtarzam to od dawna, że FSR do niczego się nie nadaje. Jedynie w 4K na "jakość" jeszcze ujdzie. W 2K nawet na "jakość" dla mnie osobiście robi dramat z obrazu. Natomiast DLSS w wielu grach wręcz poprawia jakość obrazu i wygląda lepiej niż natywne ustawienie. Korzystam z DLSS (jedynie na "jakość") wszędzie gdzie się da 👍 To samo z RT, od trzech lat tłumaczę, że bez tego nie ma sensu grać, że to przyszłość, to "po co? Na co to komu? Zrobimy testy amd vs nvidia w czystej rasteryzacji! RT nic nie daje". A teraz każdy youtuber się zachwyca RT (nawet hipokryci co jeszcze kilka miesięcy temu negowali jego zasadność, zapewne siedząc na Radeonach, które im RT nie ogarniały). I nareszcie pojawiają się pierwsze gry w których nawet tej opcji nie wyłączysz 💁♂️ Koniec taryfy ulgowej dla Radeonów. Czas testów w czystym rasterze dobiega końca.
Nie przesadzaj z tym RT, ktoś może mieć tak samo gdzieś RT jak wysoka jakość cieni. Co do FSR, ludzie chyba są ślepi a w 1080p dziwię się że w ogóle do domu trafiają. FSR jak rozmydlal obraz tak robi to nadal, FG od amd natomiast robi pływający obraz w niektórych grach. Dlss w zależności od gry czy 2.0 lub 3.0 i jak to ai zostalo wyuczone. Miałem kartę od amd, teraz Rtx 4070 więc widzę faktycznie jak jest a nie na TH-cam. Wnioski - FSR nawet nie ma podejścia do dlss i fg NVidii.
Kiedy był nagrywany film? Bo jest już DLSS 3.8.10
Upscaling to rak.