Mogłeś dodać na początku, że to jest dla świeżych kart. Człowiek myśli, że ma starszą kartę i może jakoś sobie FPS'y poprawić, ale to nie dla psa kiełbasa XD To jest dla ludzi którzy mają nowe i drogie karty z dużą ilością FPS'ów żeby mieli jeszcze więcej XD
ale to na słabszych kartach ucinasz detale aby mieć ok 60 natywnie. Nie mniej - zgodzę się - generatory działają najlepiej jak bazowo masz sporo klatek, bo wtedy nawet jeśli generowanie coś psuje w obrazie, to przez ilość klatek nie tak łatwo to zobaczyć. Z tego względu nabierają sensu monitory 160Hz+, gdzie jeśli gra wypluwa 80-90 klatek, dublujemy je i mamy powyżej 150 to nadal łapiemy się w zasięg VRR, a obraz no będzie całkiem przyjemny.
@@decorator21 Ja obecnie używam lossless scaling na bazowo 80fps. Obraz czasami wypluwa artefakty ale w grach które nie wymagają szukania pixeli działa bardzo dobrze
Używam na GTX1070 (i7 7700k - 4.8 Ghz na sztywno) w MSFS2020 i niewyobrażam sobie latania bez tego. Fenix A320/VATSIM/1080/FPS lock na 37. Działa świetnie.
Świetnie, test generatora klatek od AMD i Nvidii na pewno się przyda. Jeśli chodzi o upscaling, sprawa jest dość jasna, ale przy frame generation sytuacja niezbyt. Warto byłoby też rozwinąć temat, dlaczego FG od zielonych czasem zamiast podwajać liczbę klatek, daje tylko kilka procent więcej klatek, szczególnie na kartach z 8 gb vramu
U mnie AFMF i AFMF 2 się wykrzacza, po przeinstalowaniu sterownika chodzi 1 dzień i znowu kiszka. Natomiast po obejrzeniu tego filmiku zakupiłem Lossless Scaling i wszystko śmiga, wydaje się, że lepiej niż afmf 2. Łapka w górę :)
Postanowiłem polepszyć płynność Heroes 3 :) i zakupiłem w morele .... na początek mały upgrade do mojego PC. Procesor AMD Ryzen 7 - 5700X3D oraz 32GB RAM G.SKill 3200 DDR4. Płyta jeszcze sprawna Gigabyte GA - AB350M Gaming3 z PCIEx 3.0. Sprzęt dotrze za 2 dni. Gorące pytanie, bo za jakiś miesiąc dokupię grafikę. Niestety musi być w przedziale 600-1000 zł. Nawet jeśli będzie to używka. Czy Radeon RX 6600 8GB będzie pasował? Wolałbym jakiegoś RTXa ale widzę że ceny z kosmosu.... Gram głównie w stare gry, Chcę popatrzyć jak wygląda Quake 2 RTX,,,, A może i coś zajże w nowsze tytuły...
Dzięki za fajny materiał Lipton!, kupiłem dzisiaj Loseless scalling i jestem w szoku jak to dobrze działa w Assasins Creed Vallahala nawet w trybie 3x są bardzo małe opóźnienia, mam ok 115 fps,w 4k maxout, tylko zastanawiam się dlaczego tak spadają te bazowe fpsy po włączeniu scalingu, może mam procek za słaby? ( rtx 3080 , I 8700k 4800 mhz)
O Lossless Scaling wcześniej wiedziałem tylko tyle, że jest i co mniej więcej robi. Niedawno zacząłem grać w Dark Souls Remastered, który ma lock na 60fps. Twoje materiały przyczyniły sie do tego, że kupiłem LS i muszę przyznać, że te 27 zł było warte efektu. Gra z generowanymi klatkami jest znacznie płynniejsza, artefaktów nie widzę.
Kupiłem za twoją namową Lossless scalling i nie jestem zbytnio zadowolony. Owszem w kilku grach działa cuda, ale często się wykrzacza. I dodatkowo po uruchomieniu znika kursor co jest bardzo uciążliwe. Jaka może być tego przyczyną?
Ciekawie by było zobaczyć porównanie w większej ilości gier First-Person (np. Ultrakill) oraz także testów gier 2D, na przykład Dead Cells (są zaskakująco wymagające dla integr)
AFMF nie działa w starszych API [DX9]. Loseless omija ten problem. Trochę brakowało tego zdania w podsumowaniu. Ale fajnie że jest wybór, fajnie że AMD działa i próbuje ten algorytm poprawić.
Może i ma wsparcie do gsync i inne bajery, ale mi by przeszkadzały te artefakty na głównej postaci przy obracaniu kamerą jakie widać na przykładzie Wiedźmina. To pewnie jest ten problem z brakiem wektorów ruchu i obraz się rozjeżdża.
Mnie jeszcze LSFG nie przekonuje, szczególnie przez te artefakty UI (np celownik), znikająca głowa w grach tpp (elden ring, wiedzmin 3 przykładem). Potencjał jest ogromny, bo opóźnienia nie są aż tak złe, tylko właśnie to te artefakty są najgorsze. Ale też samo to, że można tego użyć na youtubie to w ogóle wspaniała rzecz, 30fps do 120 robi na luzie i serio dobrze to wygląda.
Mam prośbę czy dał byś radę z updateować zestaw komputera za 8500 zł bo płyta główna, karta graficzna i Arctic Liquid Freezer III są niedostępne na x-komie Dzięki :)
Co nam zostalo jak najnowsze tytuly nawet z RTX4090 potrafią wycisnąć ostatnie soki a i tak w 4K macie 30 FPS 😂😂😂 bez tych polepszacze i generatorów 😂😂😂
Z mojego doświadczenia z lossless scalingo to działa to słabo, ale przynajmniej są okropne artefakty. Lepiej obniżyć do FHD lub niżej jak sprzęt nie wyrabia
@@MiKesh1986 Co nie zmienia faktu, że DLSS nierzadko w trybie Jakości generuje obraz lepszy aniżeli natywny przy wykorzystaniu AI. Świetnie pokazuje to choćby Death Stranding.
Czy bez trybu 'wydajność' w LSFG nie byłoby znacznie mniej artefaktów w stosunku do tego ile faktycznie więcej wydajności on oferuje? O ile w ogóle oferuje więcej wydajności. Pozdrawiam
@@olof1pakogwarantuje Ci ze tsmc na to nie pozwoli. Załozymy się ze tdp bedzie bardzo podobne co obecnych wersji? Ps. Rtx 4090 450w wykorzystuje dopiero w 4k i to nie we wszystkich grach. Obecnie kazdy procesor ma lekki bottleneck na tej grafice i srednio w 140p 350w pobiera. Takze nie przesadzajmy. Poza tym na 4k nowe gry? Litisci. Wukong na rtx 4090 natywnie 22klatki z włączonym rt. Nie ośmieszajmy sie. Przyszłoroczne zarowno amd jak i nvidie do 1440p to będą overkille, ale do 4k jeszcze trzeba poczekac by realnie grac natywnie w 4k. Jesli kogos upscalling nie interesuje. Choc fakt widac ze niektore nowe gry na upscallingu mają o dziwo lepszą jakosc niz na natywnym 4k co jest zastanawiajace.
@@furieux6742 Moim zdaniem za bardzo wszyscy jadą po kartach graficznych. Przecież to wina gier które wołają o pomstę w zakresie optymalizacji. Taki Wukong to przecież dramat. Skoro GOT, Horizon FW, Cyberpunk po paru latach łatania, Call of duty etc etc jest w stanie świetnie działać natywnie no to sorry. Ludzie kupują preordery gier wydawcy mają w poważaniu optymalizacje bo to właśnie DLSS i FG odwali za nich robotę.
@@sylwekwasyl4252 i tak i nie. Prawda jest taka ze optymalizacja ma niewiele jesli chodzi o wydajnosc. Wygładzanie tekstur itp. Chodzi o to, że ray tracing i odbicia zabierają ogromną ilosc mocy obliczeniowej zeby każdej milisekundzie renderować ogrom danych, kazdy pixel. Te 7-8lat temu gry nie miały zadnych wymagań zwłaszcza ze standardem było full hd, teraz dodając rozdzielczosc ktora ma duzo wiekszy narzut procesora graficznego, i ogrom pixeli które w powietrzu fruwają w wiekszosci grach, pyłki kurzu, odbicia słońca swiateł, czasem potrójne renderowanie, zeby jakosc była jak najlepsza no i sorry kazdy, ale to kazde gpu przy tym klęknie nawet rtx 10000 serii, jesli takowy powstanie. Nawet 7letni shadow of the tomb raider zagina 4090 w 4k. Gdzie 80-90klatek osiagą ledwo🤣 i to przy wyłączonych hairworksach. Nie chce mowic ile włączenie hairworksa obciaza gpu wystarczy zobaczyc w wiedzminie 3 ile fpsów leci po włączeniu tego.🤣 Tu pewnie 60-70klatek by osiągała. 3090tka w 4k to pewnie 40-45klatek max. Ja włączałem na 3070 to miałem 35-45 klatek w 1440p. 🤣 Podsumowując najlepiej poszukac optymalnych ustawien w danej grze, bo kazda gra zabije wydajnosc najlepszej karty.:P
Szkoda że już nie wystarczy mieć świetną kartę, komputer itp, jeszcze trzeba się bawić w „ulepszacze”. Takie rzeczy powinny powstawać przede wszystkim dla kogoś kto ma słabszy czy stary sprzęt i nie stać go na nowe podzespoły.
Ogólnie mam problem. Moja karta zaczęła dziwnie chodzić. RTX 3070 Działałem na co dzień na głębokim UV. 0.764V i 1620mhz. Zazwyczaj w furmarku pobierała 110w a w grach 80-90w. Na stoku 1.081v 1920mhz i 220w w furmarku. Ostatnio odpaliłem go na wizji dla kumpla n discordzie aby się pochwalić i ta pokazała 180w? Po przełączeniu na stok napięcia skakały w okolicach 0.870v a zegar spadał nawet poniżej 1600 a pobór mocy pokazuje 240w (teoretyczny limit karty). Na drugim profilu (UV do poziomu stokowych zegarów 1920/0.9v/170w) to samo, też 240w na liczniku tylko zegar nieco wyższy? Aktualizowałem sterownik przy DDU i nic. Jak nic się niezmienni to za tydzień idę na gwarancję bo za pół roku się kończy. W grach jest prawie normalnie i stabilnie ale pod full obciążeniem już nie? Temperatury normalne 75 stopni z wentylatorami na 80% auto (teraz myślę że to dużo.) a hotspot 91 około?
Jak odpalasz enkodery obrazu czy inne dodatkowe funkcje, bo rozumiem, że wysyłałeś obraz z komputera do kolegi, to karta pobiera więcej mocy aby te enkodery obsłużyć, ale trochę duża ta różnica to nie wiem. A na gwarancji co powiesz? Że karta po uv działa niestabilnie, jak to nawet nie jest działanie zapewniane przez producenta?
@@skalarakwarium160l9 Co ty piszesz? U mnie normalnie było 1920 przy 220. Referent miał 1770 a ja mam wersję OC. 150mhz to tak dużo? Poza tym sekcjia karty ma limit na 240 czytam 250w i więcej nie poda? 8+6 pin 150w + 75w = 225? no jeszcze z PCIe 75 to 300w w teorii?
Zatrzymałem się na AMD 23.12.1 z 28.11.2023 ponieważ następne aktualizacje powodowały blokowanie się randomo co chwile kursora oglądając yt lub przewijając go. Z tego co widzę aktualnie jest 24.8.1
Nieważne jak to nazwiemy to nie mamy obecnie grania w 4k 120fps tylko 1080p i 60fps. Przypominam że większa ilość klatek to nie tylko wyższa płynność ale też nisze opóźnienia. Ostatecznie stoimy w miejscu z technologią a nawet się cofamy.
Co ty za głupoty wypisujesz. :) Oczywiście, że technologia idzie do przodu i to znacznie. Zarówno sprzęt jest mocniejszy(ostatnia generacja przyniosła wzrosty mocy obliczeniowej nawet o +50%) jak i gry wyglądają coraz lepiej. Teraz na średniopółkowej karcie spokojnie pograsz w 1440p, czy 1440p+. Zejdź na ziemię i przestań patrzeć na cyferki.
@harempolnomisia-69 a teraz zejdź na ziemię i nie ustawiaj wszystkich suwaków na maxa w prawo - nie uprawiaj tej sfiksowanwj ideologii gdzie w grę można grać tylko na ultra, gdzie często jedno ustawienie potrafi zmniejszać wydajność o kilkanaście/dziesiątki procent generując efekty, ktorych nie da się odróżnić na zrzutach ekranu mających pokazywać różnice, a tym bardziej podczas dynamicznego grania. Idąc tym tokiem to i wiedźmin 2 z ubersamplingiem dojedzie twojego dzisiejszego kompa. Za to w GTA 5 to ja miałem 60fps na średnich/wysokich w fhd w laptopie z gtx 660m sprzed kilkunastu lat więc ostatnie co mogę powiedzieć o tej grze to że jest źle zoptymalizowana. Wiec tym razem to nie problem gry, czy komputera tylko zewnętrznego łącznika między ekranem a klawiaturą.
Te wszystkie sztuczne skalowania są dla mnie mega KUPĄ bo działają tylko w miejscu (statyczny obrazek) a w ruchu to wygląda gorzej niz sama natywna (wyjściowa ) rozdzielczość która jest dużo mniej rozmazana. Jedyne co to dość dobry jest dlss ale to jest sprzętowe więc inna sprawa
Dlatego kupiłem na wiosnę najtańszą opłacalną kartę z DlSS czyli 4060 (nie Ti). W porównaniu z poprzednim 1660s wydajność X2, a przy FG nawet x3. Do mojego Rożena 5500 i tak lepszej nie trzeba, bo czasami brakuje mu mocy żeby ogarnąć 100% bajerów.
Używałem generatora z dlss fg i powiem, że obraz jest płynniejszy, ale to dodatkowe opóźnienie jest mocno odczuwalne i trzeba się przyzwyczaić. Przy 80 fps nie zauważałem też jakichś znacznych artefaktów, ale zawsze coś się znajdzie.
Lossless swietnie sie sprawdza do emulacji np ps2. Podbijasz sobie z 60 fps do 120 i wyglada to swietnie. Z 30 artefakty sa ogromne, ale dalej wole grac z artefaktami, niz miec pokaz slajdow.
Mam RX 7800 XT i nie mam AFMF 2 tak samo z opcjami "tryb wyszukiwania" oraz "tryb wydajności" a za to 6600 juz jest xd Czemu ktoś mi wyjaśni? Dobra rozumiem, muszę wymienić procka xD
Odnośnie Lossless scaling i cyberpunka 2077, ktoś ma pomysł czego to jest wina? Cytuje recke na steam bo tak jest mi prościej. "W Wiedźminie 3 (next gen) narzędzie działa bardzo dobrze, ale głównie zależało mi na Cyberpunku 2077. No i niestety nie jest dobrze. Po minucie, obraz gry zawiesza się dopóki nie wyłączę nakładki programu, często zdarzają sie przycinki no i generalnie słabo to działa w przypadku CP. Próbowałem różnych ustawień i raz było lepiej, a raz gorzej. Najlepiej program chodził przy ustawieniach w grze: DLSS w trybie jakości, licznik zablokowany na 72fps, odświeżanie na poziomie 144hz, v sync ustawiony na 72hz. Włączanie generatora klatek dlss jedynie pogarszało działanie. Jeżeli chodzi o Lossess Scaling to uruchamiałem grę przy następujących ustawieniach: tryb skalowania ustawiony na amd fsr (ostrosc 5, tryb wydajnoci), generacja klatek LSFG 2.2.1, tryb X3, tryb wydajnosci, synchronizacja wylączona, API przechwytywania ustawiony na DXGI. Testowałem inne tryby i było tylko gorzej"
Reinstalowalem sterowniki i nadal jest to samo. Konfiguracja, I5 8400 + rtx 2060... a i poza miastem Lossless scaling nie wykrzacza mi sie, głównie mam tutaj na myśli obszar gdzie jest trochę więcej tłumu, czyli praktycznie teren całego Night City.
Szkoda że na materiale tak dobrze to brzmi i w ogóle ale nie dość że na materiale nie widać tego wcale to do tego działa to słabo. Bo nie dość że w wielu grach nie działa to do tego przy nowszych kartach. Teraz to niepotrzebna zabawa, i są 2 opcje albo kupienie nowszej karty dla większej ilości FPS albo zjechanie z ustawień graficznych.
@@TechLipton Ja to wiem :) Ale na nagrywce było by widać różnicę jakby to tak cudownie działało a wygląda praktycznie identycznie lewa i prawa strona jak pokazujesz porównania off i on.
Ja tam nie korzystam z tych zabawek jak DLSS i FSR bo uważam, że czysty nie zmodyfikowany ekran jest najlepszy. Wolę kupić lepspzą kartę i się nie bawić w takie rzeczy
W nowych grach nie masz swobody wyboru. Domyślną metoda AA w wielu tytułach jest TAA, które robi z obrazu jeszcze gorsze rzeczy niż DLSS i w takim wypadku DLSS lepiej włączyć.
Dlatego nie używam ani DLSS ani AFMF ani LSFG. Przy wyborze GPU najważniejsza jest dla mnie jej natywna wydajność a nie ile potrafi "wygenerować oszukanych" klatek.
Kupiłem Lossless Scaling za 27zł (bez promocji) na steam, bo bardzo ciekawił mnie efekt. Mam GTX 1660 (bez żadnych dopisków TI czy Super) po pogrzebaniu w ustawieniach LSFG mogę odpalić wiedźmina 3 NEXT GEN na ustawieniach uber+ z włączonymi hairworksami na 60 FPS'ach. Oczywiście przy szybszych ruchach myszką zdarzają się artefakty, ale jestem pod wrażeniem działania tego programu
wiedzmin 3 to chyba jedyna gra, gdzie fsr3 mod jest praktycznie idealny pod względem obrazu i działa o wiele lepiej niż lossless scaling, w którym co ruszysz myszką ci nagle głowa postaci znika xd
@@TechLipton to sobie przetestuje jutro, teraz w grze musiałem rezygnować z modow graficznych by gra jakoś chodziła; szkoda że gra nie wykorzystuje GPU ani CPU w "100%" przez co u każdego gra chodzi kiepsko, chyba że oglądamy pusta mapę
Dla mnie to jest kompletny bezsens. Jak masz te 60 klatek na których te techniki dopiero dobrze działają to po jaką cholerę włączać to i narażać się na opóźnienia artefakty itd. jak po prostu można grać na natywnych 60 klatkach? Bo mając kartę za 800 zł gracz jest przyzwyczajony do 120 klatek? 😂😂 Kompletnie nie widzę zastosowania.
Już Ci mówię. Kiedy masz monitor o odświeżaniu 144Hz, to nie chcesz grać w 60fps. A wtedy wkracza do gry FG podbijając płynność. To jest opcja dla ludzi posiadających monitory o wysokim odświeżaniu chcących dobić sobie fps dla większej płynności.
@@stark_2991 Podbijasz płynność generując fikcyjne klatki kosztem opóźnień i artefaktów. Na prawdę różnica między 60 klatkami a 144 klatkami w grach single player (bo do esportówek to się kompletnie nie nadaje) jest tak duża, żeby psuć sobie obraz?
Looseless scaling to jedynie ciekawostka, a nie realna opcja, jakość tego 'renderowania' jest tragiczna i nieporównywalna z żadnym innym rozwiązaniem typu DLSS, FSR czy XeSS
Spoczko ale widać róznice i rozmycie w dalekich scenach taki plaster na pupke wole 30fps z lepsza grafiką, a i na Vulkanie ten AI jest tragiczny w RDR2 słabo to wyglada ;d
Po tym filmie aż sam zainstalowałem sterowniki z AFMF2 i po chwili muszę przyznać że to faktycznie działa , wiec na razie będę dalej testował jak to u mnie się sprawdza (ryzen 9 3900x + rx6950xt)
Ja mam rtx 2050 i gram w msfs2020 bez fg na niskich ustawieniach i średnich. Kupiłem lossless scaling, i mam dwa razy więcej fps więc mogę grać na wysokich ustawieniach, ale niestety mam dziwny obraz przy ruszaniu myszką, ktoś wie jak to naprawić?
Nie przekonują mnie generatory. Do sensownego działania potrzebują już nie takiego złego bazowego fpsu, generowane klatki nie tak płynne jak prawdziwe, a jeszcze dorzucają artefaktów. Z kolei polecam potestować sobie bardziej wydajnościowe presety upscalerów, zwłaszcza DLSS. Bo poszło to do przodu i potrafi wyglądać zaskakująco dobrze przy dobrym podwajaniu fpsów. Do tego stopnia, że zwykle wolałbym ratować wydajność niższym presetem niż zauważalnie schodzić z ustawieniami. Niestety FSR dalej odstaje - często widzisz coś podejrzanego, przełączasz się na DLSS, a artefakt jest łagodzony albo kompletnie znika.
@@msnet-73 DLSS zrobiło się fajne już od 2.0, więc ponad cztery lata temu. Odnoszę wrażenie, że z czasem poszło do przodu równocześnie w jakości i przyrostach fps. Z FSR bywa akceptowalnie, ale przy wspomnianym przeze mnie testowaniu, polegającym nie na oglądaniu analiz w necie, a realnym graniu, fundamentalną różnicą pomiędzy FSR i DLSS jest to, że przy FSR artefakty rzucają Ci się w oczy. Pomijając, że artefakty zdarzają się i w natywnym renderingu, ale przy przełączaniu upscalerów wychodzi przyczyna.
@@2MichalChojnowski2 ja to tak nie mialem do czynienia z dlss bo karta amd i upscalery w 1080p to bylo doslownie mydło. Kupilem rtx 4070 i no sorki ale fsr to nawet nie ma podejscia do dlss. Przeciez nawet do wygładzania krawedzi o niebo lepiej sie sprawdza. Reasumujac, podchodzilem sceptycznie a jestem bardzo zadowolony. Ale mimo wszystko tez zalezne od gry, prawdopodobnie wyuczenie si lepsze lub gorsze. Brak mi wiedzy dlaczego w jednej grze dlss jest perfekcyjny mozna powiedziec a w drugiej troszke gorzej to wyglada choc w obu ta sama wersja.
@@msnet-73 Z upscalerami jest też tak, że w wyższych rozdziałkach natywnych wyglądają lepiej. FSR było czymś w czasach, kiedy RTXa, nową kartę, miał mało kto. Z każdym kolejnym rokiem coraz mniej nam po nim, bo przez pięć lat wielu już karty zmieniło, a posiadaczom Radeonów porządny upscaler prędzej dostarczy Intel niż AMD. Stestuj sobie jeszcze DLDSR/DSR - fajna opcja wykorzystania nadmiaru wydajności karty graficznej, kiedy np. część wydajności karty ogranicza Ci procesor czy nie chcesz wychodzić ponad jakiś klatkaż.
Jest całkowicie odwrotnie, to właśnie FG jest lepszą jakościowo technologią, mając mimimum 60 klatek odpalasz i zachowujeez ostry obraz, dostajesz niewiele większego laga, a przy takiej ilości FPS pojedyńczej uszodzonej klatki nawet nie widzisz, za to w DLSS SR dostajesz mydło, też masz czasami jakieś artefakty a jedyne co zyskujesz to lepsze opóźnienie, technika dobra ale jak masz mniej niż 60 klatek, powyżej 60 to tylko FG.
w fortnite z reguly sa mikrościnki, mi pomoglo wlaczenie synchronizacji pionowej i ustawienie 120fps max (mam monitor 165, wiec nizej niz hz monitora) i nie mam prawie wcale mikrościnek
@@damiannndesign4334 Możesz sie pobawić w różne wersje directx (masz chyba opcje wydajnosc, dx11 i dx12) i pozmieniać ustawienia co najwyżej. Generatory klatek nie pomagają z mikroscinkami a nawet i tak pogarszają sprawę bo dostajesz większe opóźnienia.
ta gra już taka jest. po pierwsze serwery epic je powodują, w godzinach późno nocnych gra chodzi lepiej. po drugie z każdą aktualizacją gry trzeba na nowo szukać optymalnych ustawień. Mnie raz dobrze chodzi na dx 11 a innym razem na dx12. Kiedyś po jednej aktualizacji była kompletnie niegrywalna z Dlss, musiałem wyłączyć, przez stutter. Co do synchronizacji, to też zależy od wersji gry, raz mi chodziło lepiej z włączoną a potem z wyłączoną
Taki test jak najbardziej na plus, czekam na kolejne odcinki :D
Mogłeś dodać na początku, że to jest dla świeżych kart. Człowiek myśli, że ma starszą kartę i może jakoś sobie FPS'y poprawić, ale to nie dla psa kiełbasa XD To jest dla ludzi którzy mają nowe i drogie karty z dużą ilością FPS'ów żeby mieli jeszcze więcej XD
ale to na słabszych kartach ucinasz detale aby mieć ok 60 natywnie.
Nie mniej - zgodzę się - generatory działają najlepiej jak bazowo masz sporo klatek, bo wtedy nawet jeśli generowanie coś psuje w obrazie, to przez ilość klatek nie tak łatwo to zobaczyć.
Z tego względu nabierają sensu monitory 160Hz+, gdzie jeśli gra wypluwa 80-90 klatek, dublujemy je i mamy powyżej 150 to nadal łapiemy się w zasięg VRR, a obraz no będzie całkiem przyjemny.
@@decorator21 Ja obecnie używam lossless scaling na bazowo 80fps. Obraz czasami wypluwa artefakty ale w grach które nie wymagają szukania pixeli działa bardzo dobrze
Jest o tym mowa w odcinku. Tylko że na końcu :)
A do tego jak się tylko urodzisz to dostajesz klapsa od jakiegoś ćwoka w białym kitlu. Świat jest plugal, brutal, and fool fo zasadzkas.
Jak ktoś ma tak słabą kartę, że gra mu nie działa, to nie ma co czekać na jakiś cudowny program który podbije fps do 60 z niczego.
super materiał :) dziekuję
Używam na GTX1070 (i7 7700k - 4.8 Ghz na sztywno) w MSFS2020 i niewyobrażam sobie latania bez tego. Fenix A320/VATSIM/1080/FPS lock na 37. Działa świetnie.
Świetnie, test generatora klatek od AMD i Nvidii na pewno się przyda. Jeśli chodzi o upscaling, sprawa jest dość jasna, ale przy frame generation sytuacja niezbyt. Warto byłoby też rozwinąć temat, dlaczego FG od zielonych czasem zamiast podwajać liczbę klatek, daje tylko kilka procent więcej klatek, szczególnie na kartach z 8 gb vramu
Muszę się nad tym pochylić.
U mnie AFMF i AFMF 2 się wykrzacza, po przeinstalowaniu sterownika chodzi 1 dzień i znowu kiszka. Natomiast po obejrzeniu tego filmiku zakupiłem Lossless Scaling i wszystko śmiga, wydaje się, że lepiej niż afmf 2. Łapka w górę :)
Postanowiłem polepszyć płynność Heroes 3 :) i zakupiłem w morele .... na początek mały upgrade do mojego PC. Procesor AMD Ryzen 7 - 5700X3D oraz 32GB RAM G.SKill 3200 DDR4. Płyta jeszcze sprawna Gigabyte GA - AB350M Gaming3 z PCIEx 3.0. Sprzęt dotrze za 2 dni. Gorące pytanie, bo za jakiś miesiąc dokupię grafikę. Niestety musi być w przedziale 600-1000 zł. Nawet jeśli będzie to używka. Czy Radeon RX 6600 8GB będzie pasował? Wolałbym jakiegoś RTXa ale widzę że ceny z kosmosu.... Gram głównie w stare gry, Chcę popatrzyć jak wygląda Quake 2 RTX,,,, A może i coś zajże w nowsze tytuły...
Super poradnik
Dzięki za fajny materiał Lipton!, kupiłem dzisiaj Loseless scalling i jestem w szoku jak to dobrze działa w Assasins Creed Vallahala nawet w trybie 3x są bardzo małe opóźnienia, mam ok 115 fps,w 4k maxout, tylko zastanawiam się dlaczego tak spadają te bazowe fpsy po włączeniu scalingu, może mam procek za słaby? ( rtx 3080 , I 8700k 4800 mhz)
Będą spadać, bo część obliczeń związana z FG wchodzi na GPU.
@@TechLipton ok, teraz kumam, a i zapomniałem dodać że bez Lossless Scaling miałem ok 60 fps,
Dobra opcja dla recznych konsol na AMD i laptopow :-) 👍👍
O Lossless Scaling wcześniej wiedziałem tylko tyle, że jest i co mniej więcej robi. Niedawno zacząłem grać w Dark Souls Remastered, który ma lock na 60fps. Twoje materiały przyczyniły sie do tego, że kupiłem LS i muszę przyznać, że te 27 zł było warte efektu. Gra z generowanymi klatkami jest znacznie płynniejsza, artefaktów nie widzę.
Kupiłem za twoją namową Lossless scalling i nie jestem zbytnio zadowolony. Owszem w kilku grach działa cuda, ale często się wykrzacza. I dodatkowo po uruchomieniu znika kursor co jest bardzo uciążliwe. Jaka może być tego przyczyną?
Zainstaluj darmowego DLSS Enablera, dziala na kazdym GPU wspierajacym DX12 (od NVIDII, AMD, INTELa) w grach, ktore implementuja DLSSG Frame Generation
Ciekawie by było zobaczyć porównanie w większej ilości gier First-Person (np. Ultrakill) oraz także testów gier 2D, na przykład Dead Cells (są zaskakująco wymagające dla integr)
Można prosić o linka do tych sterowników beta na stronie amd? szukam ale nie mogę znaleźć.
AFMF nie działa w starszych API [DX9]. Loseless omija ten problem. Trochę brakowało tego zdania w podsumowaniu.
Ale fajnie że jest wybór, fajnie że AMD działa i próbuje ten algorytm poprawić.
Tak, to prawda.
Loseless działa z DLSS?
@@skalarakwarium160l9Tak
Co sądzisz o rtx 4060Ti 16gb za 1500zł nówka stuka w atrakcyjnej cenie
Komedia, wystarczyło by lepiej grę zoptymalizowac...🙈
Ale po co, skoro ludzie i tak kupują buble na premierę?
@@stark_2991 To jest jak z państwem Polskim i Wypłatą zamiast dać konkretną wypłatę, czy karte graficzna to dają jakieś zapomogi ,czy inne fsr..🙈
Może i ma wsparcie do gsync i inne bajery, ale mi by przeszkadzały te artefakty na głównej postaci przy obracaniu kamerą jakie widać na przykładzie Wiedźmina. To pewnie jest ten problem z brakiem wektorów ruchu i obraz się rozjeżdża.
Owszem, mocno to się rzuca w oczy.
Mnie jeszcze LSFG nie przekonuje, szczególnie przez te artefakty UI (np celownik), znikająca głowa w grach tpp (elden ring, wiedzmin 3 przykładem). Potencjał jest ogromny, bo opóźnienia nie są aż tak złe, tylko właśnie to te artefakty są najgorsze. Ale też samo to, że można tego użyć na youtubie to w ogóle wspaniała rzecz, 30fps do 120 robi na luzie i serio dobrze to wygląda.
To widać jak rozumiesz pojęcie FPS i odświeżania ekranu xd
Ty wiesz że filmiki na TH-cam są maks w 60? I wiecej mieć nie będziesz? Masz nawet to napisane przy wyborze rozdzielczości od 1080p+.
Mam prośbę czy dał byś radę z updateować zestaw komputera za 8500 zł bo płyta główna, karta graficzna i
Arctic Liquid Freezer III są niedostępne na x-komie Dzięki :)
Jasne, będzie update.
Co nam zostalo jak najnowsze tytuly nawet z RTX4090 potrafią wycisnąć ostatnie soki a i tak w 4K macie 30 FPS 😂😂😂 bez tych polepszacze i generatorów 😂😂😂
Niby tak, ale z path tracingiem. Różnica w obciążeniu karty między Ray tracing a path tracing jest jak między Goku Kaioken a Goku SSJ 😅
Z mojego doświadczenia z lossless scalingo to działa to słabo, ale przynajmniej są okropne artefakty. Lepiej obniżyć do FHD lub niżej jak sprzęt nie wyrabia
I jesteśmy w miejscu gdzie tylko 12,5% pikseli renderowanych jest natywnie. Na każde osiem pikseli, tylko jeden jest prawdziwy.
Są filmy w których jeden pixel na 20 jest natywny
Co wy bredzicie jakie 1 na 8?. Maksymalnie 1 na 4 w trybie x4
@@qba4104
Dlss/fsr z 1080p do 4k. To już jeden na cztery piksele. Plus generator klatek to jeden na osiem.
@@MiKesh1986 Co nie zmienia faktu, że DLSS nierzadko w trybie Jakości generuje obraz lepszy aniżeli natywny przy wykorzystaniu AI. Świetnie pokazuje to choćby Death Stranding.
@TechLipton
Jest coś dla GeForce'ów??
Tak, Lossless.
@@TechLipton OK, Dzięki. :) 2080'tka to obsługuje?
Lipton dlaczego jakość obrazu jest tylko HD?
Hmm, ja tam widzę 4K.
Czy bez trybu 'wydajność' w LSFG nie byłoby znacznie mniej artefaktów w stosunku do tego ile faktycznie więcej wydajności on oferuje? O ile w ogóle oferuje więcej wydajności.
Pozdrawiam
u mnie tryb wydajnosci nie zmienia praktycznie nic poza oczywiscie zwiekszona wydajnoscia, ale no prawdopodobnie jestem po prostu slepy
dzięki za odpowiedź
Zerknij na pierwszy materiał o Lossless. Tam jest wszystko ładnie wyjaśnione.
11:03 mylisz się - na GTX 970 jak najbardziej działa i sprawuje się świetnie.
Okej, ja tylko przytaczam oficjalne wymagania programu. Jeżeli działa na Maxwellu to rewelacja.
Tak do 6k komputer może pan coś polecić?
czas wymienić kompa na nowy z 5090 RTX, myśle ze naa 2 lata wystarczy bez przycinek 😂😂😂
do tego zasilacz minimum 1.5 kW ;-)
@@olof1pakogwarantuje Ci ze tsmc na to nie pozwoli. Załozymy się ze tdp bedzie bardzo podobne co obecnych wersji? Ps. Rtx 4090 450w wykorzystuje dopiero w 4k i to nie we wszystkich grach. Obecnie kazdy procesor ma lekki bottleneck na tej grafice i srednio w 140p 350w pobiera. Takze nie przesadzajmy. Poza tym na 4k nowe gry? Litisci. Wukong na rtx 4090 natywnie 22klatki z włączonym rt. Nie ośmieszajmy sie. Przyszłoroczne zarowno amd jak i nvidie do 1440p to będą overkille, ale do 4k jeszcze trzeba poczekac by realnie grac natywnie w 4k. Jesli kogos upscalling nie interesuje. Choc fakt widac ze niektore nowe gry na upscallingu mają o dziwo lepszą jakosc niz na natywnym 4k co jest zastanawiajace.
@@furieux6742 Moim zdaniem za bardzo wszyscy jadą po kartach graficznych. Przecież to wina gier które wołają o pomstę w zakresie optymalizacji. Taki Wukong to przecież dramat. Skoro GOT, Horizon FW, Cyberpunk po paru latach łatania, Call of duty etc etc jest w stanie świetnie działać natywnie no to sorry. Ludzie kupują preordery gier wydawcy mają w poważaniu optymalizacje bo to właśnie DLSS i FG odwali za nich robotę.
@@sylwekwasyl4252 i tak i nie. Prawda jest taka ze optymalizacja ma niewiele jesli chodzi o wydajnosc. Wygładzanie tekstur itp. Chodzi o to, że ray tracing i odbicia zabierają ogromną ilosc mocy obliczeniowej zeby każdej milisekundzie renderować ogrom danych, kazdy pixel. Te 7-8lat temu gry nie miały zadnych wymagań zwłaszcza ze standardem było full hd, teraz dodając rozdzielczosc ktora ma duzo wiekszy narzut procesora graficznego, i ogrom pixeli które w powietrzu fruwają w wiekszosci grach, pyłki kurzu, odbicia słońca swiateł, czasem potrójne renderowanie, zeby jakosc była jak najlepsza no i sorry kazdy, ale to kazde gpu przy tym klęknie nawet rtx 10000 serii, jesli takowy powstanie. Nawet 7letni shadow of the tomb raider zagina 4090 w 4k. Gdzie 80-90klatek osiagą ledwo🤣 i to przy wyłączonych hairworksach. Nie chce mowic ile włączenie hairworksa obciaza gpu wystarczy zobaczyc w wiedzminie 3 ile fpsów leci po włączeniu tego.🤣 Tu pewnie 60-70klatek by osiągała. 3090tka w 4k to pewnie 40-45klatek max. Ja włączałem na 3070 to miałem 35-45 klatek w 1440p. 🤣 Podsumowując najlepiej poszukac optymalnych ustawien w danej grze, bo kazda gra zabije wydajnosc najlepszej karty.:P
Może porównanie fsr frame gen moda z Lossless Scaling?
Szkoda że już nie wystarczy mieć świetną kartę, komputer itp, jeszcze trzeba się bawić w „ulepszacze”. Takie rzeczy powinny powstawać przede wszystkim dla kogoś kto ma słabszy czy stary sprzęt i nie stać go na nowe podzespoły.
Lossless ratuje sytuację w przypadku starszych gier z lockiem fpsowym. Trzeba to docenić.
@@TechLipton niezbyt, straszne artefakty
@@A-BYTE64 LS nie wpływa jakkolwiek na grafike.
@@wilkuuu4016 wpływa bardzo mocno
Skoro do poprawnego działania potrzeba te 50-60fps to po co to w ogóle włączać? Skoro 60fps jest już bardzo komfortowe?
nie?
Po co? Jak masz monitor 100/120/144+ Hz to sam to docenisz.
@@TechLipton również po to żeby zaoszczędzić trochę prądu, ja grając w TLOU 160 wat z fsr3 90 wat z capowanymi fpsami, i komputer ciszej chodzi piekne
@@KOSINGG to też fakt
Ogólnie mam problem. Moja karta zaczęła dziwnie chodzić. RTX 3070 Działałem na co dzień na głębokim UV. 0.764V i 1620mhz. Zazwyczaj w furmarku pobierała 110w a w grach 80-90w. Na stoku 1.081v 1920mhz i 220w w furmarku. Ostatnio odpaliłem go na wizji dla kumpla n discordzie aby się pochwalić i ta pokazała 180w? Po przełączeniu na stok napięcia skakały w okolicach 0.870v a zegar spadał nawet poniżej 1600 a pobór mocy pokazuje 240w (teoretyczny limit karty). Na drugim profilu (UV do poziomu stokowych zegarów 1920/0.9v/170w) to samo, też 240w na liczniku tylko zegar nieco wyższy? Aktualizowałem sterownik przy DDU i nic. Jak nic się niezmienni to za tydzień idę na gwarancję bo za pół roku się kończy. W grach jest prawie normalnie i stabilnie ale pod full obciążeniem już nie? Temperatury normalne 75 stopni z wentylatorami na 80% auto (teraz myślę że to dużo.) a hotspot 91 około?
ta juz widze jak przy 220w w furmarku masz 1920mhz
@@skalarakwarium160l9 a ile?
Jak odpalasz enkodery obrazu czy inne dodatkowe funkcje, bo rozumiem, że wysyłałeś obraz z komputera do kolegi, to karta pobiera więcej mocy aby te enkodery obsłużyć, ale trochę duża ta różnica to nie wiem.
A na gwarancji co powiesz? Że karta po uv działa niestabilnie, jak to nawet nie jest działanie zapewniane przez producenta?
@@BRX_2137 1500,zeby mieć 1920 musiabyś mieć z Pl320 wat
@@skalarakwarium160l9 Co ty piszesz? U mnie normalnie było 1920 przy 220. Referent miał 1770 a ja mam wersję OC. 150mhz to tak dużo? Poza tym sekcjia karty ma limit na 240 czytam 250w i więcej nie poda? 8+6 pin 150w + 75w = 225? no jeszcze z PCIe 75 to 300w w teorii?
Zatrzymałem się na AMD 23.12.1 z 28.11.2023 ponieważ następne aktualizacje powodowały blokowanie się randomo co chwile kursora oglądając yt lub przewijając go. Z tego co widzę aktualnie jest 24.8.1
Nieważne jak to nazwiemy to nie mamy obecnie grania w 4k 120fps tylko 1080p i 60fps. Przypominam że większa ilość klatek to nie tylko wyższa płynność ale też nisze opóźnienia. Ostatecznie stoimy w miejscu z technologią a nawet się cofamy.
Co ty za głupoty wypisujesz. :) Oczywiście, że technologia idzie do przodu i to znacznie. Zarówno sprzęt jest mocniejszy(ostatnia generacja przyniosła wzrosty mocy obliczeniowej nawet o +50%) jak i gry wyglądają coraz lepiej. Teraz na średniopółkowej karcie spokojnie pograsz w 1440p, czy 1440p+.
Zejdź na ziemię i przestań patrzeć na cyferki.
@@matikiller13 realnie gry chodzą gorzej wyglądają gorzej mają coraz gorszy gameplay i ceny za nie też są z dvpy :)
@@SlawekM A to chyba gramy w jakiś inne gry, no ale co kto lubi. :)
Jak dla mnie kierunek jest dobry i jestem zadowolony.
@@matikiller13 Gry zaliczają regres jeśli chodzi o optymalizacje, a nie wyglądają O WIELE lepiej niż gry sprzed 5 lat, poza wyjątkami.
@harempolnomisia-69 a teraz zejdź na ziemię i nie ustawiaj wszystkich suwaków na maxa w prawo - nie uprawiaj tej sfiksowanwj ideologii gdzie w grę można grać tylko na ultra, gdzie często jedno ustawienie potrafi zmniejszać wydajność o kilkanaście/dziesiątki procent generując efekty, ktorych nie da się odróżnić na zrzutach ekranu mających pokazywać różnice, a tym bardziej podczas dynamicznego grania. Idąc tym tokiem to i wiedźmin 2 z ubersamplingiem dojedzie twojego dzisiejszego kompa. Za to w GTA 5 to ja miałem 60fps na średnich/wysokich w fhd w laptopie z gtx 660m sprzed kilkunastu lat więc ostatnie co mogę powiedzieć o tej grze to że jest źle zoptymalizowana.
Wiec tym razem to nie problem gry, czy komputera tylko zewnętrznego łącznika między ekranem a klawiaturą.
Losless ogarnia 1050 ti. ?
Nie powinieneś mieć włączonej opcji "wydajność" w Lossless Scaling - mocno pogarsza jakość (dużo artefaktów)
Niekoniecznie. Zobacz mój pierwszy film.
wie ktoś gdzie kupić tanio ryzena 5 5600? jakieś outlety i czy na olx szukanie ma sens?
0:06 na RX 580 8gb nie ma tej opcji 😅😅... kurde czas na zmianę
Oglądam w 150fps dzięki tej kaczusi, mega apka. Używam ją już ponad 60h
A czy ta technika sprawdzi sie w ...😝 No oki nie zapytam 🤪
Te wszystkie sztuczne skalowania są dla mnie mega KUPĄ bo działają tylko w miejscu (statyczny obrazek) a w ruchu to wygląda gorzej niz sama natywna (wyjściowa ) rozdzielczość która jest dużo mniej rozmazana. Jedyne co to dość dobry jest dlss ale to jest sprzętowe więc inna sprawa
Dlatego kupiłem na wiosnę najtańszą opłacalną kartę z DlSS czyli 4060 (nie Ti). W porównaniu z poprzednim 1660s wydajność X2, a przy FG nawet x3.
Do mojego Rożena 5500 i tak lepszej nie trzeba, bo czasami brakuje mu mocy żeby ogarnąć 100% bajerów.
Używałem generatora z dlss fg i powiem, że obraz jest płynniejszy, ale to dodatkowe opóźnienie jest mocno odczuwalne i trzeba się przyzwyczaić. Przy 80 fps nie zauważałem też jakichś znacznych artefaktów, ale zawsze coś się znajdzie.
Fajnie byłoby porównać jakość najnowszego FSR i DLSS.
Lossless swietnie sie sprawdza do emulacji np ps2. Podbijasz sobie z 60 fps do 120 i wyglada to swietnie. Z 30 artefakty sa ogromne, ale dalej wole grac z artefaktami, niz miec pokaz slajdow.
Losses dziala z dlss?
A można to na steam decku używać? hmmm
Coś do GTX 550 TI takie dlss aby było więcej klatek
Zna ktoś nazwę żywej tapety która jest w tle w 10:55 ? :)
Mam RX 7800 XT i nie mam AFMF 2 tak samo z opcjami "tryb wyszukiwania" oraz "tryb wydajności" a za to 6600 juz jest xd Czemu ktoś mi wyjaśni? Dobra rozumiem, muszę wymienić procka xD
Odnośnie Lossless scaling i cyberpunka 2077, ktoś ma pomysł czego to jest wina? Cytuje recke na steam bo tak jest mi prościej.
"W Wiedźminie 3 (next gen) narzędzie działa bardzo dobrze, ale głównie zależało mi na Cyberpunku 2077. No i niestety nie jest dobrze. Po minucie, obraz gry zawiesza się dopóki nie wyłączę nakładki programu, często zdarzają sie przycinki no i generalnie słabo to działa w przypadku CP. Próbowałem różnych ustawień i raz było lepiej, a raz gorzej. Najlepiej program chodził przy ustawieniach w grze: DLSS w trybie jakości, licznik zablokowany na 72fps, odświeżanie na poziomie 144hz, v sync ustawiony na 72hz. Włączanie generatora klatek dlss jedynie pogarszało działanie. Jeżeli chodzi o Lossess Scaling to uruchamiałem grę przy następujących ustawieniach: tryb skalowania ustawiony na amd fsr (ostrosc 5, tryb wydajnoci), generacja klatek LSFG 2.2.1, tryb X3, tryb wydajnosci, synchronizacja wylączona, API przechwytywania ustawiony na DXGI. Testowałem inne tryby i było tylko gorzej"
Reinstalowalem sterowniki i nadal jest to samo. Konfiguracja, I5 8400 + rtx 2060... a i poza miastem Lossless scaling nie wykrzacza mi sie, głównie mam tutaj na myśli obszar gdzie jest trochę więcej tłumu, czyli praktycznie teren całego Night City.
A co jesli nie mam takiej opcij jak AFMF 2?
Sprawdź jakich sterowników używasz. Muszą być specjalne.
Szkoda że na materiale tak dobrze to brzmi i w ogóle ale nie dość że na materiale nie widać tego wcale to do tego działa to słabo. Bo nie dość że w wielu grach nie działa to do tego przy nowszych kartach. Teraz to niepotrzebna zabawa, i są 2 opcje albo kupienie nowszej karty dla większej ilości FPS albo zjechanie z ustawień graficznych.
Pamiętaj proszę że to kwestia TH-cam :) nie wszystko da się zaprezentować przy 50/60 kl./s.
@@TechLipton Ja to wiem :) Ale na nagrywce było by widać różnicę jakby to tak cudownie działało a wygląda praktycznie identycznie lewa i prawa strona jak pokazujesz porównania off i on.
z chęcią bym zobaczył więcej na ten temat
Zamiast fsr/ dlls /afmf / lsfg to producenci powinni lepiej optymalizować gry a nie ze my musimy pogarszać grafikę żeby było 60fps wtf ?!
Niestety Lossless Scaling jako "najbardziej zewnętrzna nakładka na grę" psuje możliwość używania profilów myszki (Logitech).
Ja tam nie korzystam z tych zabawek jak DLSS i FSR bo uważam, że czysty nie zmodyfikowany ekran jest najlepszy. Wolę kupić lepspzą kartę i się nie bawić w takie rzeczy
W nowych grach nie masz swobody wyboru. Domyślną metoda AA w wielu tytułach jest TAA, które robi z obrazu jeszcze gorsze rzeczy niż DLSS i w takim wypadku DLSS lepiej włączyć.
Dlatego nie używam ani DLSS ani AFMF ani LSFG. Przy wyborze GPU najważniejsza jest dla mnie jej natywna wydajność a nie ile potrafi "wygenerować oszukanych" klatek.
jak polepszyć fps? niech poprawią optymalizację gier.. . 😉
Kupiłem Lossless Scaling za 27zł (bez promocji) na steam, bo bardzo ciekawił mnie efekt. Mam GTX 1660 (bez żadnych dopisków TI czy Super) po pogrzebaniu w ustawieniach LSFG mogę odpalić wiedźmina 3 NEXT GEN na ustawieniach uber+ z włączonymi hairworksami na 60 FPS'ach. Oczywiście przy szybszych ruchach myszką zdarzają się artefakty, ale jestem pod wrażeniem działania tego programu
wiedzmin 3 to chyba jedyna gra, gdzie fsr3 mod jest praktycznie idealny pod względem obrazu i działa o wiele lepiej niż lossless scaling, w którym co ruszysz myszką ci nagle głowa postaci znika xd
czyli cities skylines 1 chodzące na srednio 15-20fps w duzym udekorowanym miescie nic nie uratuje XD
Z tym to jeszcze jako tako może sobie poradzić. Testowałem Cities przy 28 klatkach i było ciekawie.
@@TechLipton to sobie przetestuje jutro, teraz w grze musiałem rezygnować z modow graficznych by gra jakoś chodziła;
szkoda że gra nie wykorzystuje GPU ani CPU w "100%" przez co u każdego gra chodzi kiepsko, chyba że oglądamy pusta mapę
Jak dla mnie nadal najlepszym wyjściem jest zjechanie z ustawieniami, a nie stosowanie takich zamulaczy.
ja jestem za tym aby był wybór i można było wybrać coś pod siebie.
czyli żeby mieć więcej trzeba mieć dużo 😁 no cóż jak w życiu
Dla mnie to jest kompletny bezsens. Jak masz te 60 klatek na których te techniki dopiero dobrze działają to po jaką cholerę włączać to i narażać się na opóźnienia artefakty itd. jak po prostu można grać na natywnych 60 klatkach? Bo mając kartę za 800 zł gracz jest przyzwyczajony do 120 klatek? 😂😂 Kompletnie nie widzę zastosowania.
Już Ci mówię. Kiedy masz monitor o odświeżaniu 144Hz, to nie chcesz grać w 60fps. A wtedy wkracza do gry FG podbijając płynność. To jest opcja dla ludzi posiadających monitory o wysokim odświeżaniu chcących dobić sobie fps dla większej płynności.
@@stark_2991 Podbijasz płynność generując fikcyjne klatki kosztem opóźnień i artefaktów. Na prawdę różnica między 60 klatkami a 144 klatkami w grach single player (bo do esportówek to się kompletnie nie nadaje) jest tak duża, żeby psuć sobie obraz?
@@zagloba1987 Tak.
pomidor
podsumowanie:
generatory klatek to ściek
lossless scaling można sobie spiracić oczywiście nie polecam jak kto woli 😅
Lossless jest juz tak dlugo a dopiero teraz zwrociles na niego uwage?
Prawie 2 miesiące temu zrobil o tym materiał...
Ktoś chyba ominął pierwszą minutę filmu 👀
@@dobrynick4313 tyle że program od 2 miesięcy nie istnieje a długo długo dłużej😉
Lossless działa z ARC-ami ?
Ciekawe czy działa na laptopach ze snapdragonem 😂
Jednak FG nvidii to inna jakość
Coś za coś. Dalej jednak nie jest to technika idealna.
@@TechLipton a ten program ze Steama działa z dlss ?
znowu film o tym samym, to juz sie nudne robi
To nie oglądaj.
Jak o tym samym? Przecież o AFMF2 jeszcze nie było mowy na tym kanale.
Looseless scaling to jedynie ciekawostka, a nie realna opcja, jakość tego 'renderowania' jest tragiczna i nieporównywalna z żadnym innym rozwiązaniem typu DLSS, FSR czy XeSS
Oczywiście że tak, to nie jest alternatywa dla podanych przez Ciebie technik. Jest to jedyny sensowny wybór dla określonych przypadków.
Spoczko ale widać róznice i rozmycie w dalekich scenach taki plaster na pupke wole 30fps z lepsza grafiką, a i na Vulkanie ten AI jest tragiczny w RDR2 słabo to wyglada ;d
Po tym filmie aż sam zainstalowałem sterowniki z AFMF2 i po chwili muszę przyznać że to faktycznie działa , wiec na razie będę dalej testował jak to u mnie się sprawdza (ryzen 9 3900x + rx6950xt)
Ja mam rtx 2050 i gram w msfs2020 bez fg na niskich ustawieniach i średnich. Kupiłem lossless scaling, i mam dwa razy więcej fps więc mogę grać na wysokich ustawieniach, ale niestety mam dziwny obraz przy ruszaniu myszką, ktoś wie jak to naprawić?
Bardzo kiepski ten program kupiłem przetestowałem i odrazu zwróciłem juz duzo lepiej za free ściągnąć dlss to fsr i wzrosty dużo lepsze.
Nie można tych dwóch technik ze sobą porównywać. Trochę inna zasada :)
Nie przekonują mnie generatory. Do sensownego działania potrzebują już nie takiego złego bazowego fpsu, generowane klatki nie tak płynne jak prawdziwe, a jeszcze dorzucają artefaktów. Z kolei polecam potestować sobie bardziej wydajnościowe presety upscalerów, zwłaszcza DLSS. Bo poszło to do przodu i potrafi wyglądać zaskakująco dobrze przy dobrym podwajaniu fpsów. Do tego stopnia, że zwykle wolałbym ratować wydajność niższym presetem niż zauważalnie schodzić z ustawieniami. Niestety FSR dalej odstaje - często widzisz coś podejrzanego, przełączasz się na DLSS, a artefakt jest łagodzony albo kompletnie znika.
No do dlss 3 to faktycznie ciezko sie przyczepic. Nie bardzo jest juz co poprawiac w kwestii jakosci obrazu.
@@msnet-73 DLSS zrobiło się fajne już od 2.0, więc ponad cztery lata temu. Odnoszę wrażenie, że z czasem poszło do przodu równocześnie w jakości i przyrostach fps. Z FSR bywa akceptowalnie, ale przy wspomnianym przeze mnie testowaniu, polegającym nie na oglądaniu analiz w necie, a realnym graniu, fundamentalną różnicą pomiędzy FSR i DLSS jest to, że przy FSR artefakty rzucają Ci się w oczy. Pomijając, że artefakty zdarzają się i w natywnym renderingu, ale przy przełączaniu upscalerów wychodzi przyczyna.
@@2MichalChojnowski2 ja to tak nie mialem do czynienia z dlss bo karta amd i upscalery w 1080p to bylo doslownie mydło. Kupilem rtx 4070 i no sorki ale fsr to nawet nie ma podejscia do dlss. Przeciez nawet do wygładzania krawedzi o niebo lepiej sie sprawdza. Reasumujac, podchodzilem sceptycznie a jestem bardzo zadowolony. Ale mimo wszystko tez zalezne od gry, prawdopodobnie wyuczenie si lepsze lub gorsze. Brak mi wiedzy dlaczego w jednej grze dlss jest perfekcyjny mozna powiedziec a w drugiej troszke gorzej to wyglada choc w obu ta sama wersja.
@@msnet-73 Z upscalerami jest też tak, że w wyższych rozdziałkach natywnych wyglądają lepiej. FSR było czymś w czasach, kiedy RTXa, nową kartę, miał mało kto. Z każdym kolejnym rokiem coraz mniej nam po nim, bo przez pięć lat wielu już karty zmieniło, a posiadaczom Radeonów porządny upscaler prędzej dostarczy Intel niż AMD. Stestuj sobie jeszcze DLDSR/DSR - fajna opcja wykorzystania nadmiaru wydajności karty graficznej, kiedy np. część wydajności karty ogranicza Ci procesor czy nie chcesz wychodzić ponad jakiś klatkaż.
Jest całkowicie odwrotnie, to właśnie FG jest lepszą jakościowo technologią, mając mimimum 60 klatek odpalasz i zachowujeez ostry obraz, dostajesz niewiele większego laga, a przy takiej ilości FPS pojedyńczej uszodzonej klatki nawet nie widzisz, za to w DLSS SR dostajesz mydło, też masz czasami jakieś artefakty a jedyne co zyskujesz to lepsze opóźnienie, technika dobra ale jak masz mniej niż 60 klatek, powyżej 60 to tylko FG.
Czy w fortnite też to może zadziałać gdy mam 120 fps ale czasem pojawiają się zaciecia?
w fortnite z reguly sa mikrościnki, mi pomoglo wlaczenie synchronizacji pionowej i ustawienie 120fps max (mam monitor 165, wiec nizej niz hz monitora) i nie mam prawie wcale mikrościnek
@@mateuszchmiel1020 No u mnie nie pomogła synchronizacja pionowa
@@damiannndesign4334 Możesz sie pobawić w różne wersje directx (masz chyba opcje wydajnosc, dx11 i dx12) i pozmieniać ustawienia co najwyżej. Generatory klatek nie pomagają z mikroscinkami a nawet i tak pogarszają sprawę bo dostajesz większe opóźnienia.
ta gra już taka jest. po pierwsze serwery epic je powodują, w godzinach późno nocnych gra chodzi lepiej. po drugie z każdą aktualizacją gry trzeba na nowo szukać optymalnych ustawień. Mnie raz dobrze chodzi na dx 11 a innym razem na dx12. Kiedyś po jednej aktualizacji była kompletnie niegrywalna z Dlss, musiałem wyłączyć, przez stutter. Co do synchronizacji, to też zależy od wersji gry, raz mi chodziło lepiej z włączoną a potem z wyłączoną
Totalna bzdura.
Sztuczne klatki
Input lag.
Jedyny sposob na wiecej fps to lepszy sprzet.
Może warto to sprawdzić, a potem zabierać się za pisanie komentarzy?
Ale biedaki masakra... Normalni ludzie kupują komputer z 4090 i minimum i9 13900k i git a nie szukają alternatywnych rozwiązań
Tylko biedaki kupują i9 13900k. Arystokracja kupuje i9 14900KS
I ja to szanuje gdy mając takiego PC ta za 16 tys zł w 4K nadal masz 30 FPS w najnowszym bestsellerze 😂😂😂😂
@@grzes.witalis ale to bait :P spokojnie
Osoby tak na serio majętne nie chwalą się swoim bogactwem i tym bardziej nie mówią o innych "biedaki"...
Ja mam GeForce Now Founders, bo mam tylko Asus Radeon Rx580 8GB+ Ryzen 5 5600+ 16 GB Ram Fury 2166. 🤷
Mam 7900XT i Ryzena 7600X wszystko śmiga elegancko polecam i pozdrawiam
aha no to fajnie
dzieki za info
ale te karty amd to syf