CO SIĘ KRYJE MIĘDZY DWIEMA KLATKAMI GRY
ฝัง
- เผยแพร่เมื่อ 27 ต.ค. 2023
- Sprawdźcie karty NVIDIA GeForce RTX: www.nvidia.com/pl-pl/geforce/...
Obraz w grze oglądamy dzięki regularnej generacji statycznych klatek. Wyświetlane w odpowiednim tempie sprawiają wrażenie płynności. Tylko co właściwie kryje się POMIĘDZY klatkami? Sprawa nie jest tak prosta, jak mogłoby się wydawać.
Sponsorem odcinka jest NVIDIA.
Instagram TZO: / toznowuoni
Facebook TZO: / toznowuoni
Nasze kanały na TH-cam:
Kacper Pitala:
/ kacperpitala
Mateusz Araszkiewicz:
/ mateuszaraszkiewicz
Szymon "Hed" Liebert:
/ @szymonliebert
Grzegorz Bobrek:
/ grzegorzbobrek
Adam "Fanggotten" Wawrzyński:
/ fanggotten0
Współpraca: tzojest@gmail.com - เกม
Brakuje mi takich mądrych materiałów o grach, więc poproszę więcej :))))
W końcu to "Ten mądry" ;D
Dzięki tego typu materiałom TvGry wybiło się na YT
nie ma tutaj niczego madrego.
Tu nie ma nic mądrego, to reklama!
@@Darkmar Bardzo długa, nudna i przegadana reklama nvidii.
To chyba najlepszy materiał sponsorowany przez Nvidia jaki kiedykolwiek widziałem, wszystko wyjaśnione rzetelnie bez marketingowego BS'a... szacun :)
Czadowy materiał! 28min mineło jak dwie minuty - z takim zaciekawieniem słuchałem. Super robota!
Super materiał Kacper! Podoba mi się Twoja ciekawość świata i chęć wyjaśniania jak działa, bardzo rozwijające. Reklama, a jednak zostajesz z ciekawą wiedzą jak działają rzeczy.
bardzo chaotyczny i pozbawiony sensownego scenariusza. facet dużo mówi i nic z tego nie wynika.
@@nnnnnn3647 jak Ci się nie podoba to polecam nie oglądać xD
@@Kodrik3 jak ci sie nie podoba opinia, to jej nie czytaj.
@@nnnnnn3647 to Ty się Kacpra czepiasz typie, weź sobie tę opinię i wsadź głęboko xD xD
@@Kodrik3 to samo ty zrób ze swoją.
Najlepszy materiał sponsorowany jaki widziałem 👊🏻😎
To przynajmniej jest powiązane z grami w 100%, a nie jakieś kitkaty i tym podobne (i te pożaranie kitkatów przed kamerą bo sponsorom coś się ubzdurało).
To mało widziałeś.
Bo tak właśnie materiały sponsorowane powinny wyglądać. Konkretnie, ale subtelnie. Rzeczowo, ale bez gwałcenia oczu logiem sponsora co 5 sekund. Ciekawe kto pamięta "sponsoring" tego jednego masła w Ranczu lata temu, gdzie był tak chamski i wielokrotny najazd kamery na talerzyk z tym produktem, że to budziło niekłamaną żenadę i chęć przełączenia kanału.
20:40 coraz lepiej i dopisuje sobie kałużę na drodze :]
Zabawa z DLSS kończy się wtedy kiedy twórcy olewają standardową rasteryzacje i optymalizują grę już pod DLSS
czytaj: dosłownie każda ostatnia premiera na pc
A już szczególnie CP2077. Bez działa średnio, a z wygląda okropnie. No chyba, że odpali się bez RT to chodzi znośnie i nie trzeba używać DLSSa.
@@Kuzyn
Na mojej karcie 1060gtx CP2077 działa jako-tako, ale nie jest wybitnie źle. Żałośnie niska ilość klatek, ale stabilna, tak jak w materiale przedstawione - częstotliwość ich wyświetlania jest w miarę regularna.
@@Kuzynale w sumie czego się spodziewać? Przecież Cyberpunk 2077 od początku był przez NVidię ,,reklamowany". Aczkolwiek grałam w CP2077 na GPU AMD i na GPU NVidii i nie widziałam jakiejś różnicy w działaniu gry. W wyglądzie tak, ale raczej na korzyść NVidii. 🤔
RDR2 wychodził bez wsparcia dla DLSS/FSR. Graficznie gniótł jaja. I nadal gniecie. A na ówczesnym topie czyli RTX2080Ti ledwo wypluwał 80fps na ULTRA. Co dopiero karty półki niżej. I też był lament. Cyberek po premierze, mając pełne RT, a później PT też był opluwany. Ludzie chcą ładnej grafiki, a nie potrafią zrozumieć, że niesie to za sobą jakiś koszt. W tym koszt obliczeń generowanych przez kartę ;) teraz płacz i rozgoryczenie bo Alan Wake 2 "pali karty". Dostaliśmy w końcu namiastkę Crysisa naszych czasów, którego następna generacja kart łyknie lekko no ale co normiki siedzący na GTX1050TI/1650/1660 po płaczą to ich xD jeszcze pewnie zassysając grę z torrentów XDDD
Stary dobry mądry Kacper wrócił 😊 jeszcze materiał o muzyce w grach i będzie ideał. Super materiał. Poproszę o więcej.
Materiał jest sponsorowany, więc siłą rzeczy nie wypada mówić w filmie o rozwiązaniach konkurencji, ale na szczęście mamy sekcję komentarzy ;) AMD opracowało własne rozwiązanie o nazwie FSR. Myślę, że najciekawszą informacją dot. FSR w wersji trzeciej jest to, że można z niego skorzystać także na starszych kartach graficzny, a nawet na kratach konkurencji, tj. kartach Nvidii. Piękny ruch ze strony AMD :)
Szkoda tylko, że FSR jest beznadziejne.
@@Smykuu96 fsr 3 też?
@@natenex Jak zbadam temat i nie zapomnę, to napiszę czy też :p
@@Smykuu96 Jest tak beznadziejne, że DLSS w 4k jest gorsze od FSR użytego w tej rozdzielczości no ale jak się oglądała kanały opłacane przez nvidie jak np. HUB (chociaż to nieaktualne bo ich umowa skończyła się jakiś czas temu). Śmieszniejsze jest to jak nvidia atakowała choćby właśnie ten kanał za jakiekolwiek dobre słowo o AMD (np. materiał o pamięci VRam w kartach nvidii i AMD). Pan kurteczka i jego śmieszna zielona firma to przedszkole dla płaczących bachorów, którzy do maksimum opanowali sztukę manipulacji i wyłudzania pieniędzy od naiwnych klientów.
@@MacTavish9619 Nie wiem o czym tam nawijasz, zbytnio fanbojowskie to zrzędzenie. Ujmę to tak: Mam 4k, mam dostęp do 4090, z przyjemnością przetestuję najnowsze FSR i najnowsze DLSS i wyciągnę wnioski.
Nie wiem Kacperku jak to robisz, ale potrafisz tak płynnie wprowadzić sponsora, że nie powoduje to u mnie ataku cringe'u. Robisz to tak jak należy, tak trzymać!
21:34 - nie prawda. Cały ""problem"" i myk z DLSS'em który generuje klatki jest taki, że najpierw generuje on klatkę 1, później generuje klatkę 2, a dopiero na sam koniec na podstawie tych 2 klatek (i dodatkowych informacji z silnika takich jak na przykład pass motion vectors) jest w stanie wygenerować klatkę 1.5. Więc gra generalnie ma opóźnienie bo generowane klatki wyświetlane nie są nam na bieżąco tylko właśnie po wygenerowaniu obu sąsiadujących i tej po środku. Widzimy więc 60fps ale mamy responsywność maksymalnie 30fps.
Co prawda tutaj wchodzi Nvidia Reflex, który ma naprawić te opóźnienia, ale tak czy siak, nie prawdą jest to, że DLSS ""przewiduje przyszłość"" tak jak powiedziałeś.
Ten algorytm jedyne co robi to generuje klatkę pomiędzy dwoma klatkami, jest to technika "motion interpolation", w taki sam sposób działa chociażby Twixtor który już od 20 lat jest dostępny na rynku, tylko, że Nvidia działa w czasie rzeczywistym i używa AI.
Przecież w materiale dosłownie tak to opisano. Ty jedynie dodałeś, że jest mniejsza responsywność.
@@Hesher Nie prawda, wiele razy powtórzone jest, że karta graficzna "przewiduje" co będzie na następnej klatce. W 21:47 dosłownie mówi "przewidywanie przyszłości" a to po prostu nie jest prawda.
@@TheMrLeoniasty czy ty specjalnie ignorujesz to co jest doslownie po 2 sekundach od tego jak to powiedzial prowadzacy czy tylko trollujesz? To pewien sposob narracji a nie wprowadzanie w blad. Skoro wyraznie chwile potem mowa jest o tym, ze algorytm nie opiera sie na samej poprzedniej klatce to wiadomym jest, ze byl to wlasnie sposob narracji, pewien dobor slow. Wiedze wyciagasz z calego materialu, a nie z wyrwanej z kontekstu linijki.
@@Hesher Tak, wyciągam z całego materiału, prowadzący 2 sekundy później mówi "ma też do dyspozycji dane na temat tego co będzie się działo w kolejnej"
też nie prawda, nie ma danych o tym co będzie, ta klatka już została wyrenderowana, więc ma dane na temat tego co "było" na następnej. Ma poprzednią i ma pełną następną, a nie "co będzie".
Ma klatkę 1, ma klatkę 2 i tworzy tylko obraz pomiędzy, nic nie musi zgadywać co będzie co by było, ma obie klatki i pomiędzy nimi interpoluje.
Prowadzący nieumiejętnie przedstawia co się dzieje i próbuje z tej technologii zrobić "magię AI" gdzie tak na prawdę to o wiele mniej skomplikowane.
@@TheMrLeoniasty ale to przeciez logiczne, ze zdanie „FG korzysta z danych z nastepnej klatki” oznacza, ze ta klatka i tak juz byla wygenerowana bo skad inaczej FG mialoby miec te dane? Moim zdaniem czepiasz sie na sile bo jakos nie widze by ktos tego nie zrozumial tak jak wlasnie ja to zrozumialem.
Tak powinny wyglądać materiały sponsorowane, a nie jakieś bezsensowne wstawki z kodem "na lepszy czołg"
Nieironicznie aż poczułem się zachęcony do zakupu i chyba to zrobię, bo niedługo czas wymieniać komputer 😎
bez kitu, chciałeś się czegoś dowiedzieć a reklama dała ci od razu namiar jak to zdobyć - tak to powinno funkcjonować
To prawda!
co to kogo gowno obchodzi
Jest i Rudolf, ciekawe co tam na kara
Polemizował bym z tym że dziś twórcy nadal stosują jakieś sztuczki optymalizacyjne. Gry z grafiką rodem z 2015-2018 a GTX 1080ti i rtx 2070 ledwo wyciągają 20-30 fps na 1080p. Optymalizacja się skończyła. Teraz każdy twórca rzuca do graczy, włączcie sobie DLSS + FG i wszystko będzie dobrze. Niestety nie jest.
dokładnie, dlss zamiast być fajną opcją zwiększania klatek stało się pierdolonym wymogiem
Też słyszałem to stwierdzenie. Połóżmy lagę na optymalizacji, bo jest DLSS, FG i FSR.
@@egg138To jest przerzucenie kosztu z producenta (gry) na konsumenta (gracza). Źle działa? Zasuwaj po nowy sprzęt, bo my mamy pieniądze, ale i tak nie zapłacimy za optymalizację produktu :)
Mega ciekawe uwielbiam takie materiały, pozwolę sobie zasugerować jedną rzecz. Super jakbyś dodawał logo lub tytuł gry z jakiego pochodzi dany urywek czy nagranie, nie wszyscy są na bieżąco, będzie o suepr dodatek jakby ktoś chciał pograć lub poczytać o jakiejś gierce, szczególnie jeśli chodzi o te wiekowe.
Podbijam pomysł!!
Dlss jest niesamowity! Dzięki za film Kacper
Kacper na miniaturce - znaczy się będzie mądry i wciągający materiał!
Uwielbiam jak Kacper unika słowa “AI” jak tylko może bo materiał jest sponsorowany XD
O co dokładnie chodzi z AI i nvidie? Bo nie rozumiem chyba
Uwielbiam jak Kacper unika zwrotu AMD FSR 3 jak tylko może bo materiał jest sponsorowany przez NVIDIE XD
@@zygmuntjakub9067może o to, że technologie graficzne w GPU Nvidii mogą być uzyskane poprzez stosowanie AI generalnie w grach bez potrzeby posiadania ich sprzętu? To takie moje domysły.
ale po co ta złośliwość nie każdy się zna na temacie@@Kar0lina_Gra
@@Kar0lina_Gra Odwrotnie :) Pozdrawiam
Jeden z najlepszych waszych odcinków. WINCYJ TAKICH!
Widzę film od tego mądrego z TZO, klikam od razu
Nie widzę tam heda
świetny materiał - to jak bym nie powiedział nic. szczeka opada ! tak trzymać !
Tęskniłem za takimi właśnie filmami! ❤
Świetny materiał!
Kacper uwielbiam twoje materiały i sposób ich nagrywania i wypowiedzi czekan na Twój kanał z nową ciekawostki z niecierpliwością ❤❤❤❤❤
Wow, Matrix się zbugował, bo właśnie oglądając film, słyszę nazwę swojej miejscowości, xDDDD. Ps. Pomiędzy jest Bratkówka :D i kilka innych mniej znaczących wiosek.
Uwielbiam styl, klimat i wiedzę w filmach Kacpra 🔥 Chylę czoła Mistrzowi
Nie nabierzcie się na marketingową gadke o Frame Generation, podwajaniu klatek etc. przy DLSS 3. Sam się na to nabrałem licząc, że te 120 klatek przy uruchomionym DLSS Frame Generation będę odczuwał naturalnie. Nic bardziej mylnego, FG drastycznie zwiększa input lag przez co granie w powiedzmy 80 fpsach z uruchomionym FG odczuwamy jak granie w 40 klatkach z upłynnionym obrazem. Responsywność poruszania się/celowania jest nadal na poziomie 40 klatek. Co nie zmienia faktu, że technologia jest bardzo spoko ale na ten moment wymaga znaczącej poprawy w kolejnych wydaniach lub znając Nvidie w serii 5000.
Input Lagu się nie przeskoczy w przypadku automatycznie generowanych klatek. Algorytm musiałby czytać Ci w myślach :D
Hmm, chociaż, gdyby dodawali aktualnie naciskane przyciski do wejścia algorytmu, to mogłoby zadziałać 🤔
Ja ze względu na FG kupiłem 4060, moje pikachu na twarzy gdy się okazało że GSYNC jest wymagany do komfortowej gry z generowaniem klatek było niesamowite. Żaden sklep nie napisał o tej kwestii, same chwalenie się nową technologią, zero mowy o haczykach takich jak potrzeba kupienia nowego monitora. Jest to jednak technologia umożliwiająca wskoczenie na poziom grafiki o którym nawet nie myślałem.
@@mcohanovale wiesz że prawie każdy monitor obsługuje gsync?
Chyba że masz taki sprzed 10lat
I są dwie opcje:
Gsync z z wbudowanym procesorem w monitorze, tych faktycznie jest mniej
I gsync compatible czyli można powiedzieć taki algorytm
Poza tym nawet jeżeli nie masz gsynca to możesz mieć 100, 200 czy 360 faktycznych wyświetlanych klatek, bo gsync odpowiada tylko za to żeby jak wyświetla się jedna klatka to żeby druga nie zaczęła się wyświetlać zanim skończy się pierwsza
Czy bez gsynca da się grać da się bo jakieś 10 lat temu go nie było a nikt nie narzekał.
Natomiast sam sobie szkodzisz nie znając technologii czy najnowszych zastosowań i kupujesz sobie kartę z najnowszej generacji i narzekasz na NOWE technologie XD
I dlatego te wszystkie pierdoły trzeba wyłączać, jeśli myślisz o grze dla wyników (turnieje CSa, Fortnita, itd, itp)
Pomysł - Zgadujemy gry po czcionce napisów 😄
Dokładnie BIOTAD PLUS team💪💪
gorzej jak ktoś gra bez napisów
@@ukash-jf4dwCo to jest Bitotad plus team? 🤣
w sn ogólnie z menu itp, ya know@@synth404
@@psizna Spam, trzeba zgłaszać
tl-dr:
Między kalatkami dzieją sie między-klatki (przewidywanie) albo dzieją się mniejsze klatki (domyslanie)
nie ma za co ale i tak polecam obejrzec, ciekawy film :)
Aż musze odpalić CP i sprawdzić czy mam włączonego DLSS`a... szczerzenie, nie siedzę w tych wszystkich smaczkach, a moje przejście było z 1060 na 3060TI i właśnie uświadomiłeś mnie jak wiele nadal nie wiem o nowych systemach : <
(a mam dosyć problem by właśnie grać w stabilnych 60fpsach przy 2560x1440)
ps: czyli jeszcze trochę o te filmowe triki " weź wyostrz obraz" może okazać się prawdą- ok. 19:00....oł szit
uwielbiam twoje materiały
Frame Generation (reklamowany tu jako DLSS 3, czyli generacja dodatkowych klatek pomiędzy normalnie wygenerowanymi) ma jednak pewne ograniczenia i tylko w określonym przypadku ma sens. Aby to wyglądało dobrze i zachowana była responsywność, potrzeba na starcie jakieś 60 klatek, czyli już względnie płynny obraz. Gdyby tak próbować tej techniki przy niskiej liczbie klatek, np. 30, to responsywność byłaby niska jak przy 30 fpsach, a obraz byłby bardziej narażony na artefakty. Ale skoro potrzeba bazowo dostatecznie dużej liczby klatek (minimum 50, najlepiej 60+) do zastosowania frame generation, to pojawia się pytanie, czy nie lepiej zadowolić się bazową liczbą klatek, ewentualnie lekko obniżyć ustawienia graficzne. W grach, gdzie responsywność ma duże znaczenie, wydaje się to lepszym rozwiązaniem. Z kolei jeśli mamy 70+ fpsów, to już na ogół jest to wartość wystarczająca do satysfakcjonującej rozgrywki i nie ma sensu włączać dlss3. Powiedziałbym, że jeśli wychodzą nam te okolice 60 fps, gra nie wymaga szybkiego czasu reakcji i ma dobrze zaimplementowany generator klatek, to wtedy ta opcja ma sens. Czyli okno zastosowania jest dość wąskie.
Co do upscalingu (fsr2, dlss2), to obecnie jest to narzędzie bardziej dla twórców gier, żeby olewać optymalizacje, niż dla graczy. To powinny być techniki dla osób ze starym i słabym sprzętem, ewentualnie do pomocy z obciążającym ray tracingiem, a nie standard. Jeśli "alan wake 2" wymaga dlss żeby grać w 60 klatkach na ustawieniach średnich w hd na 4060 (bez rt), to jest coś mocno nie tak (inna rzecz, że nvidia poskąpiła przyrostu wydajności w tej generacji kart - im niższy segment, tym bardziej żałosny wzrost wydajności względem poprzedniej serii, wyjątkiem 4090). Wbrew temu co tu było powiedziane, upscalery nie dają tak samo dobrego obrazu jak natywny, zawsze są jakieś niedociągnięcia i artefakty jak się przypatrzeć.
4060 jest porównywalne wydajnościowo do 3060Ti, a nawet w wielu testach wolniejsze i pomijając dostęp do DLSS3, oferuje praktycznie tę samą wydajność co RTX 2080, high-end z 2018. Gier AAA nie tworzy się w rok, czasem są to 3 czy 5 lat, więc deweloperzy, patrząc na tempo rozwoju w tamtym czasie i przeszłości, śmiało mogli założyć, że będzie on kontynuowany, i zwyczajnie, słabe karty zostaną wyparte przez wydajniejsze, a wydaje się, że się tempo rozwoju trochę się zatrzymało ostatnimi czasy, nie licząc topowych modeli, które zawsze odstawały od poprzednich, choć ostatnio zauważalnie mniej.
Drugim problemem może być to, że tu może nie chodzić o problem optymalizacyjny, a o efekty użyte do osiągnięcia specyficznego celu które są zwyczajnie zbyt wymagające dla sprzętu sprzed 3 czy 5 lat, jak i galop do osiągnięcia 60 czy 120 klatek w 4k, gdzie przed 2018 "Ultra" celowało maksymalnie w 60 przy 1080p, a na konsolach standardem było 30 również w 1080p. I tu "low" z Alana Wake 2 w niczym nie przypomina "low" czy nawet "medium" z tego 2018 więc dlaczego miałoby działać podobnie wydajnościowo na tym sprzęcie?
@@krzysztofg7677
"tu może nie chodzić o problem optymalizacyjny, a o efekty użyte do osiągnięcia specyficznego celu które są zwyczajnie zbyt wymagające dla sprzętu"
To też jest kwestia optymalizacji ;)
Ale ogólnie zgadzam się z Twoją wypowiedzią. 4090 jest jakieś 60-70% mocniejszy niż 3090, a 4060 może 20% lepszy niż 3060, czyli właśnie okolice 3060ti. Gdyby nvidia nie była ngreedią, to mogłaby dać przyrosty generacyjne, które pozwoliłyby kartom ze średniego segmentu radzić sobie z wymagającymi tytułami w 2023 roku. Ale dostaliśmy wykastrowane karty, których główną zaletą jest wydajność energetyczna i dlss3 w wybranych tytułach. Szkoda, że amd zawiodło ze wzrostem wydajności w rdna3 (rdna2 w rasteryzacji miało poziom rtxów 3000), słaba konkurencja to brak presji na postęp.
@@TheEldarie "To też jest kwestia optymalizacji ;)"
Oczywiście, tyle, że tu dochodzimy do kwestii: co artystycznie chciano przekazać, bo pierwszy Alan Wake też miał bardzo mocną stronę wizualną? Czy te efekty byłyby możliwe do osiągnięcia na słabszym sprzęcie?
Pojawiają się głosy, że przecież mogli zoptymalizować Alana Wake 2 jeszcze bardziej np.: rezygnując z Mesh Shader'ów i przycisnąć optymalizację pod "starą technologię". Problem w tym, że w tym przypadku mesh shader'y to jest właśnie optymalizacja. Właściwie pierwszy taki przypadek od wielu lat gdzie faktycznie miałby sens upgrade sprzętu gdyby więcej gier zaczęło używać tej technologii (ignorując oczywiście koszt takiego przejścia). Ogólnie polecam zerknąć na najnowszy film od DigitalFoundry gdzie porównują różnice w grafice między PS5 i PC. Przy końcu porównując właściwie identyczne wydajnościowo karty z różnych generacji, z tym, że te starsze nie wspierają "nowej" technologii, notabene z 2018 roku - różnica jest 2x, a miejscami nawet 3x w fps, już pomijając jakość obrazu.
W każdym razie, jeśli chodzi o nadużywanie DLSS czy FSR, jak najbardziej, widać, że twórcy trochę tego nadużywają, jednak Alan Wake 2 wydaje się być takim rodzynkiem na ten moment, może nawet takim trochę Crysis'em 2, gdzie bez wszystkich tych technologii gra nie działałaby tak jak działa, a co najważniejsze, nie wyglądałaby tak jak wygląda.
Jeśli chodzi o presję na postęp, cóż, z jednej strony mieliśmy wirus który mógł zaburzyć prace, ale wydaje się, że po prostu wyczerpano możliwości obecnej technologii (pozostając rozsądnym w kwestii prądożerności) i potrzeba czegoś bardziej rewolucyjnego, a to niestety wymaga czasu no i oczywiście pieniędzy, mnóstwa pieniędzy :D
Masakra
Przyznaje Kacper, najlepsza półgodzinna reklama jaką oglądałem. Szacunek.
To znowu świetny filmik Panie!
Zawsze miło słucha się Kacpra, nie ważne co robi
Dobry materiał, czegoś mozna sie dowiedzieć
Nigdy mi sie tak dobrze nie zasypialo jak do tych filmow :D
Mam pytanie
Czy przywrócicie co op który wykończy każdego?
Jeśli tak to polecam grę GTFO
Dobry materiał, szacun
Jestem zafascynowany rozwojem technologicznym i z wielką ekscytacją czekam codziennie na kolejne postępy. Serce rośnie jak widzę, że tak dynamicznie się rozwijamy w każdej dziedzinie.
bibliotekę DLL DLSR czy też DLFG i DLRR można ręcznie w starszych grach aktualizować i to też polecam robić ;)
ja jestem pomiędzy tymi pikselami. ale się naja.najadłem. świetny materiał stary.
Super material ❤
Super materiał ziom💪
5:13 "komputer" szeroko rozumiany oczywiscie że rozróżnia kształty i tutaj troche poleciałeś;) komputer a dokładniej karta graficzna głównie robi siatke obiektów, wiele punktów tworzy w 3d a dosłownie na ostatnich etapach posiada odpowiednie podzespoły aby przetworzyć tą "mape" czy "siatke" punktów lini, kształtów itd z 3d na jedynie 2d płaszczyzne na ekranie. Nie używałem zaawansowanej terminologi i bardzo uprościłem temat żeby był łatwiejszy do zrozumienia
Esit: tak tylko dodam, że to oczywistw że ekran sam w sobie odbiera już sygnał (najczęściej) cyfrowy z odpowiednią konbinacją pikseli ktore ma wyświetlax po sobie, od lewwj do prawej z góry na dół i tak jak powiedziales: wtedy to ekran rozrożnia piksele tylko i wyłącznie po kolorze
Pomysł renderingu obrazu w niższej rozdzielczości, a potem rozciągnięcie do rozmiaru tv/ monitora oczywiście masowo był wykorzystywany w konsolach.w
W dobie DLSS/FSR które znacząco przyczyniły się do poprawienia płynności, wygenerowało starsze lenistwo twórców gier.
Bo po co optymalizować grę, niech "se" włączą DLSS/FSR i będzie "git".
Rozumiem postęp graficzny jednak nie usprawiedliwia on wymagań co do sprzętu.
Lata temu w 2006 kupiłem X800 GTO do rozdzielczości 1280x1024.
W 2010 porównaniu do HD 4850 to była przepaść w/w rozdzielczości, a X800 GTO nadawał się "do kosza" ze względu na mikrą wydajność.
W 2017 zmieniłem monitor na 2650x1440, Vega 64/GTX 1080 były takim rozsądnym modelem pod tą rozdzielczość.
W 2023 w/w modele dawały by radę w 1920x1080, ale nie bo musisz kupić nowszy model bo w CP 2077 2.0 olano Vegi, a GTX 1080 nie dostało "fjuczerów" i jedyna szansa to FSR 3.
Znowu zmorą modeli RTX jest jak nie przycięta szyna, to za mało VRAM.
O skoku na kasę w cenach MRSP RTX 2XXX i 4XXX nie wspomnę, oczywiście AMD też "jest dobre" bo dostosowuje się do monopolisty producenta GPU dla graczy, zamiast walczyć ceną jak kiedyś w CPU walczyli z Intelem.
Chyba jedna z najlepszych reklam jakie widziałem! Kacper Pitala, kc!
Jooooool czy to mareczek??? Bo ja fan
Podzielam, Kacper jest najlepszy
Pozdrawiam
zobaczyłem Contre i nie czekałem na koniec materiału żeby zostawić łapkę w górę
Kacper niczym Einstein, fryzura w nieładzie 😁 A tak prawdę mówiąc, materiał kozacki
Hej co to za materiał video w 8:44 ? można prosić źródło?
Dzięki za ciekawy temat ale widać że sponsorowany. Testowałem DLSS 2 w wielu grach i obniżenie jakości obrazu (skalowanie z niższej do wyższej rozdzielczości) jest wyraźnie zauważalne. Jedyna opcja warta włączenia to DSLL 3 i generator klatek.
nividia nie miała lepszej reklamy niz Twoj film na polskiej scenie , brawo powinni Cie zatrudnić
16:00 w praktyce trzeba upscalować z 1080p aby obraz był dobrej jakości
Brawo. Świetny materiał. Szkoda że nie dożyje matrixa.
Ooo, grasz w Overka. Nie znoszę tych nowych map z 5-cioma punktami..
lapka w gore w ciemno :D Ciesze sie ze ten kanal powstal
Ciekawe jest to, że taki DLSS działa tylko na nowej generacji kart od Nvidii (czyli 3000+), podczas gdy FSR 3, mimo bycia od AMD i bazowania na tej samej technologii, będzie działać nawet na GTX 1650, którego nawet Nvidia nie chce wspierać DLSSem.
pewnie dla tego że DLSS ma działać dobrze a FSR ma tylko działać, u mnie FSR zabiera bardzo dużo jakości grafiki a nic nie daje, za to u kolegi z 3070 różnicy prawie nie widać a płynność od razu
AMD zaznaczyło że FSR 3 będzie działać najlepiej na kartach z serii rtx 3000 i wyżej a wsparcie dla kart typu rx580 czy gtx1650 da słabsze wyniki
ty kpisz czy naprawde to lykasz@@bezimienny1337
Ja gram w Cyberpunka 2077 w 1440p i samo odpalenie DLSS na quality zjada tyle jakości na obiektach znajdujących się daleko że jak tylko mogę to jadę na natywnej rozdzielczości. Gram na ultra a że mój RTX3070 nie wyrabia w tej rozdziałce z 40 fps to muszę zmniejszyć Ray Tracing na średni... Ale wolę tak niż upscalery. Są gry gdzie DLSS wygląda ok (np Hogwarts Legacy) ale w Cyberpunku tak średnio.
@@bezimienny1337u mnie fsr dużo daje
Pomiędzy klatkami jest wkurzony gracz, któremu FPS spadły do 1
Fantastyczny materiał!
Wszystko fajnie, ale są trzy problemy:
1. Ogromna cena kart graficznych. Kiedyś taką za 1600 zł to była katra z górnej półki (jakieś 3000-3500 zł na dzisiejsze) dzisiaj tą z górnej półki to jakieś trzy razy tyle.
2. Nowsze karty wymagają wymiany wszystkiego innego z czego procesory również mega podrożały. Jeśli ktoś nie aktualizował w ostatnich latach komputera, to stoi przed gigantycznym wydatkiem.
3. Karty zwiększyły swoją moc zwiększając liczbę układów obliczeniowych, co oznacza wzrost zapotrzebowania na pobór prądu. Oznacza to, że koszty korzystania z potężnej karty również bardzo mocno wzrosły.
W efekcie wodotryski graficzne nie są warte ceny jaką trzeba zapłacić za nie. W sumie godzina grania wychodzi drożej niż granie na dawnych automatach gdzieś po barach porostawianych.
Ok policzyłem. Godzinny koszt to jakieś 70 groszy. Jak się gra z 4,5 godziny dziennie to w ciągu roku wyjdzie 1642,5 zł rocznie. Do tego taka karta za 10 tys używana przez 6 kat kosztuje złotówkę dziennie. No dodajmy resztę sprzętu. Sam potrzebny zasilacz 1000W kosztuje ponad 1000 zł. Myślę że wyjdzie złotówka za godzinę grania. A, no nie policzyłem kosztów zasilania monitora.
To jest i tak bardzo tanie "hobby", w porównaniu z używkami, kobietami czy motoryzacją.
Materiał oczywiście bardzo ciekawy i dobrze poprowadzony. Muszę też pochwalić za jasne zaznaczenie że film jest sponsorowany.
fajny materiał
Więcej takich materiałów!
Jako posiadaczka karty NVIDIA doceniam ten materiał. Fantastyczny materiał!
Kuriozum z tym Dlls polega na tym żeby to miało sens czyli znośny lag musi być wyjściowo minimum 50/60fps. + Okazyjne artefakty i lekkie rozmycie obrazu w gratisie Ale cichooo bo się wyda hehehe. :D
DLLS: powstało aby na słabszym sprzęcie można było również grać. Producenci gier: optymalizacja gier? dlaczego? a komu to potrzebne?
Z tym zapalnikiem w postaci Gry się zgadzam bardzo. Gry potrafią obudzić w nad resterki czy emocje, o których nie byliśmy dotychczasowo świadomi, a od dawna w nas były. Sam doświadczyłem z co najmniej 5 takich rowerkach. Z resztą, nie tylko gry, ale filmy czy animacje mogą podobnie na nas działać
Gdzie można pograć w to demo o którym mówisz w 23:52 ? dzieki za odp.
Ale to jest turbo interesujące, a do tego sensownie wytłumaczone poparte przykładami. Coś czego my- gracze oczekujemy. Brawo
8:16 - co to za gra?
8:32 - i ta? Cyberprank?
jak Kacper dropnie materiał to nie ma ch*ja we wsi!
Czemu kacper coraz bardziej wygląda jakby był na 3 dniowym ciągu amfetaminowym? XD
lubie Twoje materiały, a od przejścia do TZN widać, że sam dopierasz tematy, gdzie masz większą swobodę wypowiedzi na znany temat
Pozdro z okolic Wojkówki i Odrzykonia. Wiem gdzie to jest.
@ToZnowuOni doskonały materiał, ale w tym wszystkim zabrakło mi jednej informacji, wiemy że obraz gier na ogół działa z częśtotliwością 30 lub 60hz, ale z jaką częstotliwością działa sama gra czy z taką samą jak wyświetlany obraz? Same dane które procesor dostaje z pada lub myszy na pewno przekraczają 500Hz
Proszę o taki sam materiał, ale z trochę bardziej technicznym aspektem działania gier samych w sobie, a nie tylko wyświetlania obrazu. Myślę, że warto byłoby wziąć na tapetę działanie gier strategicznych, w jaki sposób obliczana jest w jednym czasie pozycja setek jednostek wojskowych itp
Pozdrawiam!
jak niby ma działać z tą samą jak w materiale nawet było mówione, ze komputer ma dane z 2 klatka w czasie gdy generowana jest 1.Gra to pewnie sie kreci w ghz juz
@@Avvvvszyxty nie no, bez jaj, nie znam się na projektowaniu gier, ale na pewno nie w ghz :)
kiedyś było tak, że przy szybszych procesorach gra po prostu liczyła się szybciej i była wyświetlana tak jakby z przyspieszonym tempem, ale to było u zarania dziejów rozgrywki gameingowej, chętnie obejrzałbym program na temat powstawania gier
Dokąd to zmierza? Oby nie do podziału gier działających na kartach tylko jednego producenta. Powoli te zamknięte standardy zaczynają wyłączać spora część (na razie tylko wyglądu) gier.
Materiał filmowy super ale same techniki pchane przez nVidie, a działające tylko na icg kartach to słaby temat. I od razu uprzedzę, sam mam obecnie RTX3070, co nie zmienia faktu że nie popieram zamkniętych standardów.
Ale masz tylko nvidie i AMD gościu XD
Z czego AMD ma własny dlss
Niedawno doszedł jeszcze intell który też ma własną technologie wzorowana na dllss
I masz tylko te 3 firmy
A poza tym to dllss nvidii działa najlepiej bo pierwsi opracowali takie rozwiązanie i najdłużej je rozwijaja
@@Joker_Black Czyli jest ich trzech.
Mega materiał :))))
Powinna myć konkurencyja metoda do tej aby napędzać innowację, dla mnie w grach w których mogę mając 1660ti włączam XESS Intela i to sprawia, że gra wygląda gładko i chodzi płynnie.
Otóż jest, AMD Fluid Motion Frames (FSR3), dostępna zarówno na kartach AMD, jak i Nvidia i Intel, choć pełny dostęp jest obecnie ograniczony do dwóch gier, niestety finalna jakość takich rozwiązań czasami mocno odstaje, a źródłem problemu wydaje się być moim zdaniem przekonanie, że aby wykonać podobne operacje nie jest potrzebny dodatkowy moduł AI. Niestety czas pokazuje, że dobrze wyszkolone AI nie jest idealne, ale jednak zdaje się robić to zdecydowanie lepiej niż najlepsze konwencjonalne algorytmy, więc osobiście nie zdziwię się jeśli kolejna generacja kart graficznych AMD czy intela, zostanie uzupełniona o podobne moduły jakimi obecnie dysponują karty Nvidia.
Może dobrze trafiłem bo mam taki problem - zaktualizowałem przez geforce experience sterowniki game ready do swojego GTX'a 1080 Ti, i podczas oglądania filmików na YT kolorystyka i kontrast zmienia się przy pełnym ekranie (w oknie jest ok), tak jakby podrasowany HDR, no i po wyłączeniu w ustawieniach Windowsa tego HDR problem już nie występuje. Ma ktoś jakieś pomysły ????? Dodam, że częściowo sie z tym uporałem instalując sterowniki geforce studio, ale wiadomo nie są to pisane pod gry...
A polecisz jakiś dobry laptop z tak dobrą kartą graficzną ?
dla mnie najlepiej się korzysta z dlss w połączeniu z upsamplingiem dldsr. w rdr2 wygląda obłędnie i spokojnie działa w 60-70 klatkach. spróbujcie sobie na 1440p monitorze ustawić dldsr do 4K i włączyć dlss balanced. Skok jakości mega a wydajność tylko trochę gorsza.
Doceniam starania, ale jeśli Nvidia chce nas zachęcić do kupna ich kart graficznych, to niech obniży ceny, a nie bawi się w materiały sponsorowane. Dobry materiał mimo wszystko c:
Myślę że nVidia ma ceny za jakie kupują je użytkownicy. To my Polacy po prostu za mało zarabiamy. Takie gadanie nic nie zmieni.
Jedyne co nVidia powinna rozważyc to nie przesadzanie ze standardami opcji dostępnych tylko na ich kartach. AMD jakoś potrafi wprowadzić otwarte ficzery.
Jakbtak dalej pójdzie to za parę lat będą gry, które odpala się tylko na komputerach wyposażonych w karty jednego lub drugiego producenta.
@@Szymon331 Nie? Ludzie na calym swiecie mowia ze nvidia jest za droga
@@zecikk_5651ludzie na całym świecie mówią, że ziemia jest płaska.
@@Szymon331 Chyba mało (albo wcale) oglądasz zagranicznych kanałów technologicznych. W USA, Kanadzie, Niemczech czy Japonii sytuacja wygląda identycznie. Zobacz sobie jak Steve z kanału Gamers Nexus robi wywiady z pracownikami sklepów, pytając ich o sprzedaż. RTX 4090 sprzedaje się znacznie lepiej niż RTX 4080, bo dopłacasz niewiele więcej za znacznie większy przyrost wydajności. Chyba jeszcze nigdy u Nvidii nie było tak korzystnego dla konsumenta stosunku cena - wydajność w segmencie top end. Najtańsze RTXy 4080 kosztują 5500 zł, a do niedawna RTX 4090 można było kupić za 7000 zł. Blokada dla Chin spowodowała teraz znaczny wzrost ceny. Czyli dopłacając mniej niż 30% ceny RTX 4080 zyskujesz 30% wydajności oraz 50% więcej pamięci. Teraz spójrzmy wstecz. RTX 2080 kosztował jakieś 3200 zł, a RTX 2080 Ti ok. 5500 zł. Dopłacałeś ponad 70% ceny RTX 2080 za 20-30% wzrostu wydajności i dodatkowe 3GB (40%) pamięci. RTX 3080 kosztował jakieś 3200 zł, RTX 3090 ponad 7000 zł. Dopłacałeś ponad 100% ceny RTX 3080 dla zaledwie 10-15% większej wydajności i ~150% więcej pamięci. Wielu ludzi którzy kupują RTX 4090 używają jej do pracy, więc dla nich jest to dodatkowo inwestycja, która szybko się zwraca. Nvidia chyba nie zdaje sobie sprawy że obniżenie cen spowodowałoby dla nich mniejsze straty niż to ile pompują w marketing.
@@Wiewioor666ale co to ma do rzeczy? NVidia ma po prostu drogi sprzęt. Nie bez powodu AMD tworzy konkurencję. XD
Hmm... Zastanawia mnie kiedy przedstawione narzedzie zostanie wykorzystane do np. uruchomienia starej gry np. taki oblivion w rodzielczosci z poprzedniej dekady, a technologia automatycznie przedstawi nam obraz w full HD domyslalajac sie co jest pomoedzy brakujacymi pikselami.
No to ogień 😈
Ooo, pół godziny z tym mądrym, aż zredukuję prędkość z 1.25 do 1.00 żeby wszystko zrozumieć.
Bardzo fajny ale mam zarzut że film pokazuje jakby do renderu gry potrzebna jest sama karta graficzna a do tego trzeba dwojga i można dokładać dlss i fg po co optymalizować grę skoro można mieć klatki za darmo a bottleneck ze strony CPU wgl nie ma znaczenia...
Czyli dlatego np u mnie na gtx bronie są tak jak by no ostre a na rtx takie plastelinowe w grze call of duty bo dls to czyni?
Kacper Pitala === S tier odcinek
a dlaczego gry soulslike (dark souls, blasphemous, remnant itp) są graficznie podobne do siebie? czy też posiadają wspólny algorytm czy wynika to z koncepcji artystów
Czyli robimy na 4x mniejszej rozdzielczości 30 klatek o rozdzielczości ziemniaka, aby wygenerować je ponownie i wsadzić między nie sztuczne klatki i mamy hd grę w 60 fpsach, ale o wiele mniejszym kosztem zasobów.
Czy to oznacza, że karty z serii RTX 40 są oszczędne i maja niewielki ślad węglowy użytkowania?
Powinieneś zostać technikiem ludologicznym
DLSS mówiąc na skróty - olewanie przez deweloperów optymalizacji na rzecz tego "bajeru" forsowanego przez Nvidie, żeby wydusić z ludzi każdy grosz.
Jak sama Nvidia przyznała, jesteśmy już przy końcu drogi jeżeli mowa o tworzeniu nowych mocniejszych kart graficznych. Oczywiście najnowsze wersje DLSS nie są dostępne na starszych kartach z rodziny RTX 20XX od tak.
Nie jestem fanem teorii spiskowych jednak w tym przypadku wydaje mi się, że producenci GPU dogadują się z twórcami gier tylko po to aby pchać sztucznie stworzoną technologie, która magicznie poprawia wydajność. Spójrzmy tylko na ostatnie premiery. Jednak czy skok graficzny jest odczuwalny?
Kacper jak zwykle materiał super, jeżeli mowa o treść i wykonanie
Nie czaje...
Nie czaje w jaki sposób można, aż tak ciekawie opowiadać 🙈🤯
Człowiek słucha o ultrasamplingu sprzed lat, a kilka dni temu wyszedł taki potworek jak Cities Skylines II, gdzie trzeba grać na razie na 1080p na wyświetlaczu 4K, ponieważ twórcy nie mają pojęcia czym jest optymalizacja na dzień premiery.
Zawsze marudziłem na CyberPunk'a, ale człowiek po latach docenia, że mógł przynajmniej zagrać na leciwym GTX 1070, na w miarę stabilnym klatkarzu, na premierę! A takie Cities dławi się nawet na RTX 4090, to się nazywa technoligiczny postęp. :)
I zabrakło dokładnej informacji co się dzieje między dwiema klatkami gry. A dzieje się tam sporo. Bo oprócz już samego wyświetlania tych klatek to silnik gry musi nieźle się napracować. Oblicza całą fizykę w grze. Które obiekty i jak się przemieściły, gdzie nastąpiła kolizja, czy ta kolizja ma uruchomić jakiś wyzwalacz czy nie. Zmienne muszą przyjąć nowe wartości (np. zmianę HP, kolejne "cyknięcie" zegara w świecie, przyrost lub ubytek jakiegoś przedmiotu np. w magazynie) itp. Ale tym już głównie zajmuje się procesor, a nie karta graficzna.
prawda, dużo wypowiedzianych słów i podawane są informacje na około tematu, ale samo pytanie tytułowe słabo rozwinięte.
Bardzo bardzo dobry film
0:17 o kurwa, dlaczego?! pozdro z Krosna mordo
Algorytmy sztucznej inteligencji wejdą w każdy aspekt naszego życia tak głęboko, że chyba jeszcze nie zdajemy sobie z tego sprawy.
Wojkówka nie graniczy z Odrzykoniem 💔
Bardzo przyjemnie sponsorowany materiał, niestety mój GTX 1080 za 2300 zł musi mi jeszcze posłużyć, bo wymiana na RTX 4090 przy obecnych cenach jest raczej nie możliwa.
dobry przykład do uzmysłowienia płaskoziemcą ,że ziemia jest okrągła, 3 poligony wyglądają płasko ,a zestawinie tysięcy poligonów tworzy kulisty kształt , skala jest ważna w perspektywie rzeczywistości