Герконыч, я своему другу так и сказал нафига ты используешь свою старую GTX 1650 на своём 10-ти летнем 23-х дюймовом мониторе Делл, Возьми себе нормальную видеокарту и новый 4К монитор, ну он мне и ответил что уже с зарпалаты в 20 тыщ начал откладывать по 3 тыщи в месяц на новую видеокарту, и монитор, когда накопится нужная сумма он купит себе RTX 4090!
У Викона в обзоре речь шла про 4070ti, ну и как я понимаю на тот момент, производитель имеет право поменять элементную базу в любой момент))), прошу заметить что данные карты после обзора прилично набрала вес по стоимости)))
Привет! Спасибо, как всегда, за хорошее, "ламповое" видео! Карта интересная, но я чет посижу на 3090 до 5090 пока, вроде и "хочется", а с другой стороны "А зачем?". А намеки то надо отзеркаливать чтобы понять! )))) Я то понял про что, но спойлерить не буду ))))
Я себе купил QHD монитор на 31" ещё когда у меня GTX1066 была, в "Исход" вполне нормально игралось, хорошая детализация гораздо больше впечатляет, чем частота кадров выше пятидесяти-шестидесяти. И ещё: не всегда же играешь, иногда и другие дела на компьютере делаешь, а на большом мониторе можно раскидать больше вкладок. Но в этом случае второй монитор всё равно нужен.
Поздравляю с покупочками, обновлениями, мы заценили! Сам приобрел 4070 Ti, доволен, сидел раньше на 1080Ti 👍 С некоторым сказанным конечно не согласен (про питальники, про элементы, что тип разницы нет), но рад видеть в эфире
@@gerkonyoutube ну к этому подвел, в плане если брак одинаковый, а в стриксах якобы даже больше, чем у Гигабайта, то тип зачем платить больше, если по этой логике, Гигабайт лучшче :)
Не совсем так. Тут скорее имелось в виду, что покупая "бомж сегмент" не нужно сидеть на панике. Совсем не факт, что соседский рог стрикс проживет дольше, вот в чем суть. Но, чисто теоретически, стриксы конечно должны жить дольше, однако, опять же, на практике, совсем не факт)
@@gerkonyoutube Конечно, тут я согласен, что на панике не стоит сидеть, ведь как минимум, ты сэкономил значительную часть деньжищ (учитываю разницу в цене) :) И конечно, не факт, что проживет дольше, но шансы естественно намного выше, так как к примеру, учитываю ту инфу, которую ты озвучил по фазам и деталькам, чем лучше питание, чем оно стабильнее, тем меньше перегрев, меньше всплески и дольше живет чип и все остальное (следую просто логике), тож самое и по мощности, если рассчитано на 1800 ватт (по твоей инфе), а от палита на 800 ватт, то запас огромен, и естественно, в теории, при нагрузке в 30% от стрикса должна прожить дольше (просто логично), ну и плюс нельзя забывать о качестве деталей, там заявлено 800, но далеко не факт, что эта цифра и есть (сравниваю с дешевыми блоками питания, заявлено 850, а держит 650)... С коннекторами также, там же их не Стрикс Асус делает, а другие ребята, и учитываю мощность, которую ты озвучил (1800 ватт), естественно шанс прогара коннектора выше... Плюс учитываю владельцев этих самих карт, кто берет Стриксы, те любят "баловаться" с картами, так как знают, за что платят, и хотят выжать максимум
@@gerkonyoutube Но тема очень интересная, с этими якобы отличиями :)) Так как сам выбирал карту 4070 Ti, зашел на канал Викона или Викофа, и там короче все гарты хреновые 😄 Но выбрал от MSI, средний ценовой сегмент, просто из-за охлада и самого имени MSI, внешки
Спасибо за видео, рад тебя снова видеть! По первой части про бомж сегменты, наверное, дополню: бомж сегмент и референсный вариант отличаются от топовых версий того же ASUS не только ценообразованием с учётом более качественной элементной базы. При разгоне топовых версий - легче выиграть в силиконовую лотерею в плане GPU - андервольтинг и разгон почти всегда удивляет, действительно отличными результатами. Только по GPU и памяти можно получить разницу между референсным вариантом и топовым в 20% производительности. Ах да, чуть не забыл - топовые варианты лучше держат частоты, я бы сказал мёртвой хваткой. А брак и там и там может быть: по моему опыту дохли MSI, Palit, GIGABYTE. ASUS же ни разу не подвёл на протяжении 15+ лет. Недавно вендором NVIDIA перестал быть хвалёный американский EVGA - все мы помним офигительную историю с контроллером вентиляторов при игре в New World. Буквально на днях Бетатест Диаблы 4 стал убивать 3080 от GIGABYTE - проблема массового характера не только по тому, что этих видеокарт больше на руках у пользователей=) То что касается лучшей системы питания с запасом, которая якобы не нужна=) Ну тут очень просто. Примерно тоже самое, что и спор о том: зачем тебе БП на 1200 Вт, если твоя система потребляет всего 800 Вт? Отсутствие запаса мощности при работе на предельных значениях температур и нагрузки во времени, может сказаться на более быстром выходе техники из эксплуатации. В противном случае комфортная температуры цепей питания и прочие качественные компоненты с работой не на износ - могут продлить срок жизни Вашим железкам. А то запихнут дешевых компонентов в схема технику за свою цену и пусть жарится всё там на предельных значениях. Ценообразование продуктов не появляется на ровном месте. Разгон так же зависит от отличной реализации подсистемы питания. Про вторую часть видео полностью солидарен: Жалкие отмазки любителей АМУДЭ, чьи видеокарты никому не нужны, так как в Проприетарное технологии мы не могём с искусственным интеллектом. А ценник за открытый код и обычный растровый рендеринг ставим почти такой же, как у технологического конкурента, который вложил гораздо больше денег?! Прикрываясь блин более высокой производительности в голом рендеринге на ватт, хотя и там 40 серия выдала более низкое потребление в играх. Про реализацию RT даже не хочется расписывать - все всё знают и у кого она лучше реализована. Вот, как-то так. Ещё раз спасибо за видео Герыч!
Спасибо, друг! Рад, что кто-то ждёт мои видосы! Про питальники, лотереи кремниевые и прочее, все верно. Ведь я же не имел ввиду, что кол-во фаз, например, вообще не роляет и возможности питальника рог стриксов полностью бесполезны и никому не нужны. Суть же не в этом была) А в том, что не нужно прям переживать, если выбрали так называемый "бомж сегмент", посмотрев соответствующие видео про их схемотехнику, в сравнении с очевидными топами. Вот вроде бы стараюсь последовательно проговаривать все, что бы четко была ясна основная мысль, но все равно слушателя начинает уводить не в ту степь) Уверен, если бы ты переслушал, то четко бы это понял. Видимо это мой косяк, что какие-то вещи проговариваю недостаточно четко, хотя и стараюсь всех удовлетворить и новичков и, так сказать, ветеранов в этом деле. А теперь просто о разгоне 4090, если тебе конечно интересно. При определённой настройке, все они могут железно держать определенные частоты, т.к. проблемы в лимите мощности нет, которая была на топах 30й линейки, где всегда ограничителем было потребление и частоты гуляли. Кроме того, даже в самых удачных случаях, когда капец как повезло с чипом и памятью (3100Мгц и 25000Мгц соответственно), прирост на удивление малюсенький. При этом карта начинает жрать под 600Вт в определенных сценариях. Не знаю кому это надо, кому-то надо наверное, но точно не тому, кому будет интересно это видео) Так что вопрос остаётся в общей надёжности. И вот по этому поводу я как раз таки и высказался. Даже в видео сказал, что было бы у меня много денег, то конечно я бы взял стриксу какую-нибудь, она безусловно круче Палита и ко. Вот как-то так)
@@gerkonyoutube Разобрались спасибо! Влияние DLSS 3.0 без упора в максимальное потребление немножечко размоет разницу между топовым вариантом и бом ж сегментом - есть такое. У самого 3080 ti пока и до пятитысячных и хороших Мониторов OLED, за приличную цену, останусь пока при своих железках. Да и новый Экстремальный ультрафиолет хочется посчупать от синих. Ну и DDR5 к тому времени начнёт выдавать сочный результат за свои деньги.
@@deymas3221 В видео же говорил что и асус тож отлетают, может брак, а может еще что-то. Чел работал или работает в магазине комп железяк+ сборки, уже наверно не одну сотню перелопатил тех или иных вендоров видеокарт как и тесты всяких гпу, цпу. А можно просто покупать одну карту на 3, 5, 10 лет, ну и говорить некогда небыли проблемы с асусом 15 лет))) у меня некогда не были проблемы от слово совсем от гигабайт видеокарт лет 9-10, брал 9, 10, 20-ую линейку видеокарт, но проблемы у гигов есть как и у других, брак, не брак, то да се. Может мне так везет))) знакомому продал свою 1066 от гигабайт 16 года выпуска, и по сей день она у него отлично работает без намека о скорой кончине))) причем так и работает с разгоном памяти +1000мгц и гпу +/- 100, 150мгц что у меня, что у него.
Правильно потому что даже в FHD в нативе 4050 не вывезет эти RT в играх....и вопрос а почему так? DLSS+FrG это здорово, особенно хорошо на будущее, когда карта уже особо не тянет и добавить кадры можно. но блин нафига сейчас выпускать карты которые годны только с этой фичей? без этих приблуд карты шлак выходят ( говорю с 50-60) это бюджетка и какой никакой мидл сегмент, а они в 2к не могут. 4К это классно, но пока не доступно для многим. тож самое с электрокарами) это круто и замечательно, но почему то ни один производитель не пытается удешевить производство и сделать более доступным) Вся суть выжать больше бабок - пока производитель не пожелает сделать качественно для масс так и будет) Тут просто понимание общей схемы раскрывает карты, тут нет заговора, тут просто бизнес, а бизнес это " бабки, бабки, ....бабки". Стремление к сверхприбыли ведет к тому что шина у 4050 это просто днище Хуанга)
А нет где-нибудь таблички, чтоле, с сравнением потенциала разгона одних и тех же карт в зависимости от базы (вендора)? Жаль, конечно, что сами вендоры и производители не собирают информацию о продажах/браке/косяках, ведь сейчас такая возможность вполне есть.
Кайф... Поздравляю ! Я вот по рабочим нуждам тоже скоро планирую брать 4090. Муки выбора были даже не в плане видеокарты а блока питания. В моем регионе было как то совсем уж тяжко с ATX 3.0/PCIE5Gen блоками (я не с РФ). Хотелось вот что бы по феншую было, без переходников. С горем пополам удалось найти Биквает Dark Power 13 1000W. А так хотелось какой нить Seasonic, эх... Ну надеюсь норм будет. 4090 все равно планирую андервольтить по видосу der8auer-а до ~350вт. 13900KF на Z790 Tomahawk DDR4 смог придушить до ~235W без потери производительности (LLC7, AC-20, DC-69, VF Point -0.12V, VRM 1000Khz). Думаю под эти расклады мне бы и 750вт БП хватило бы. Но решил уж не экономить и с запасом взять )) Были еще мысли взять с eBay - A6000 48GB. Она по идее на уровне 3090 +/- 48GB прям очень привлекали для моих нужд. Но напрягает турбинный охлад у нее, да и неясно насколько водоблоки подходят к ней от обычных видях. В общем решил не надеятся что Хуанг начнет игрунам скармливать 48гб в потребительском сегменте и взять 4090 пока что.
Я взял таф 490, больше 450w не видел, блок старый оставил, корсайр на кВт, купил родные провода с 2-х 8пин на этот 12whpv или как он там... Итог, 4090 стоит, блок не менял, провода "родные с блока прямо в карту... Думаю у других производителей должны быть такие же провода, посмотри..
@@Petbl4 что посмотреть, куда посмотреть ? У меня уже куплен новый БП у которого все по феншую, ATX3.0/PCIE5Gen и родной 12VHPWR 16-ти пиновый. А был у меня 750вт Чифтек бронзовый которому уже лет пять, наверное. И вот с Октября на нем жили - 13900KF, 128GB 3866Mhz/CL16-CR2 Gear1 памяти, три M.2, три HDD, куча пропеллеров, ASUS Strix Soar 6-пин Аудио. И вы хотите что бы я ставил 4090 на этот БП ? Ну уж нет... Спасибо. На такой экстрим я не готов. Потому сразу и купил новый БП с запасом.
@@Earanak3D друг, ну я хз, что у тебя на нем висело)) просто сказал, что есть провода от производителя))) а сделал ты хорошо, я не смог найти в наличии такие бп, поэтому для меня это был выход. А теперь и не хочу)
Абсолютно поддерживаю по поводу DLSS и генерации: - 4k с DLSS гораздо четче нативного 2K (1440) - если без генерации есть 40+ кадров, то генерация кадров не даёт заметной на глаз задержки
Спасибо и тебе, пойду дальше чекать твои видео, буду писать тонны комментов. Очень крутой канал, и ведь никто нигде мне не сказал - эй, есть хороший канал. Хочешь его?
По поводу длсс 3.0 и задержек не удивлен. Нвидия только только избавилась от задержек вывода изображения вплоть до 1000 линейки, сам сталкивался на 660 и 980ти. На них 75 кадров выглядят менее плавными чем 60 на рыксах. А если фрисинк подключен, то там и 50 кадров плавнее будут. Это до того меня выбесило, что я с огромной опаской 2060 покупал. Но благо с ней обошлось и картинка такая же плавная, как и была на рыксах. А теперь опять задержки, но благо про эту проблему не промолчали в интернетах как случилось с задержкой вывода кадров, да и длсс 3.0 выключить можно. Осталось только 150к накопить на 4090, и еще 10к на блок питания не помешало бы, ну и еще 5500 ряженку до 5800х3д обновить за 30к, а то че, в киберпанке всего 90 кадров будет.
Вот только проблема даже 2К разрешения в том, что взяв однажды 2К моник, тебе теперь придется всегда обновлять комп под 2К разрешение, чтобы он его нормально тянул (хотя бы в 60 фпс). Потому что если на 2К монике разрешение понизить до 1080p, то это будет ужасное зрелище, будет даже хуже, чем на 1080p монике. А это значит, что обновлять комп придется ощутимо чаще, т.к. нагрузка при переходе с 1080р на 1440р возрастает в 1.77 раза (количество пикселей, которые необходимо обработать при 1920х1080 и при 2560х1440 - можете сами посчитать). Т.е. условной RTX 3070 хватит не на 5-6 лет комфортного использования, а на года 3, после чего уже придется обновлять видеокарту, что очень сильно бьет по бюджету, особенно в наше время. Так что поэтому сейчас большая часть людей и продолжает сидеть на 1080p, и говорить что ваши эти 2К и 4К не нужны, имея в виду то, что они не нужны именно за те деньги, которые придется для них тратить. Понятное дело, что со временем и 2К и потом 4К станет так называемым "стандартом", как это было с 1080p и с 720p. Но произойдет это только тогда, когда когда сборка компа, который потянет эти разрешения, станет общедоступной по цене для большинства людей. Сейчас этого нет.
В статье на ресурсе DTF смешалось в кучу всё - и кони и люди... Статья вроде написана грамотно, но вот например пару логических дыр в ней: 1) В начале говорится о том, что с инпут лагом под 110 ms нормально играли все и всё было хорошо, что в целом верно, но есть один нюанс - человек такое существо, которое ко всему привыкает. Приведу пример - когда начали появляться высокогерцовые мониторы, многие кричали - нафига, нам хватит 60 Hz, однако в последствии эти же люди посидев за высокогерцовым монитором говорили, что не хотят пересаживаться обратно. Или вот например, раньше играли в 720p, а ещё раньше на приставках. И никто тогда не говорил, что кровь из глаз от пикселей идет, а сейчас 4к уже хорошо и вон детализация с ним лучше... Так же и с инпут-лагом - в статье делается вывод, что если раньше так играли, то значит и сейчас тоже нормально будет, но так тогда вообще можно сказать про что угодно - "раньше так было, всем было норм, значит и сейчас тоже норм". Если человек большую часть времени играет на xbox и ps или на слабой ПК системе - он просто не заметит никакого инпут лага. 2) "Использование видеокарты от АМД в играх где есть Reflex, увеличивает инпут лаг на 10 - 50 ms" возможно автор хотел сказать, что использование карты Nvidia позволяет уменьшить ипут-лаг, в результате чего он получается меньше при одинаковом FPS по сравнению с AMD? а так звучит как бред. Я не хэйтер RT или DLLS и за новые технологии, думаю что наличие лишних настроек всяко лучше, чем их отсутствие. Но как показывает реальность, к сожалению, разработчикам проще положить болт на оптимизацию игры добавить FSR и DLLS а потом сказать, что чтобы игра шла хорошо, надо их включить. Наивно полагать, что если в играх будет легко добавить ray-tracing, то освободившиеся деньги/человекочасы будут потрачены на добавление контента в игру или улучшения баланса или механик. Скорее больше денег издатель заработает. Может быть люди не оценили DLLS3 из-за цен на 4000ю линейку и в частности 4090 и 4080? Ведь на народных картах типа 4060 (надеюсь цена будет хоть как-то приближена к реальности) включение DLLS3 не даст всех преимуществ этой технологии потому что карта будет и так загружена как верно подмечено на DTF.
К слову, киберпанк теперь и на стимдек работает... Оказывается так можно было... Щя начал plague tale requiem проходить - графон уровня 2017 год (анчартед 4, хорайзен выглядят не хуже, а фпс в 2 раза больше) , ресуросов жрет что ни в себя... Зато атомик харт нормально оптимизирована - а че так можно было?
Взял 3080 под fullHD монитор и всё вправо, потом на 2к мониторе попробовал DLDSR и теперь с 4к моником всё выглядит потрясающе, в GTA5 как заново поиграл, а думал как старовер, что для игр 2к за глаза хватит)
Посоветовали твоё видео посмотреть про линейку 40+, и ... просто приятнее было бы, если бы я смотрел на тебя, а не на геймплей. Не знаю, какой характер носит твой канал, я так понял что-то про колду или иже с ним (вообще не играю в шутеры, и в онлайн), но тут просто сидел и смотрел именно на тебя, на твою реакцию когда ты говоришь те, или иные слова, и было интересно (ведь по эмоциям можно сразу понять, как человек относится к тому, или другому), и в маленьком экранчике это было смотреть просто не удобно. А так, мимокрокодил, спасибо за видео, всё по пополчкам + сам работаешь в этой сфере, а личный опыт. как говорится, всегда приветствуется. Лайк, естесвенно. P.S. пошел по каналу, интересно стало что да как, и сразу натыкаюсь - 12400vs12700, а я тут как раз думаю брать 12900... просто как-то... Подпишусь еще пожалуй. P.P.S. дошел до момента dls 3.0 и киберпанка. Прям недавно видео смотрел, уже не помню кого, но чувак очень здраво рассудил - смотрите, у них был ведьмак 3, и они делали его с забегом наперед, и сейчас он смотрится всё равно хорошо. Без модов, не ремастеред, а даже оригинал смотрится то очень бодро, круто. Конечно, 10 летнюю игру вы сейчас не будете нахваливать но блин... ей 10 лет! 10! и они на своём движке создали невероятную картинку, которая без всяких скайрим модов смотрится и сейчас хорошо. Да, каюсь, сам хотел взять 144 гц монитор, и плевать на 2-4к, но твоё видео изменило мой взгляд на этот вопрос. У самого 2060 Super. Не думаю обновлять видеокарту в ближайший год-2 точно, но даже так, я просто ради прикола после того, как ты сказал, что можно играть как в 4к на говно мониторе в fullhd, пошел, поставил параметры, и... Теперь я хочу, блин, 4к монитор, потому что я наконец то понял, зачем же он нужен. В чем разница была, и хорошо, что популярно объяснил, в чем разница между rtx и без rtx. У меня очень многие знакомые тоже сидят на rtx, и типа такие - ну, и в чем прикол? Я что, в лужи эти смотрю? Оно же и раньше было так. Сделай небольшие прям вырезки, и заливай как шот-видео, или как это тут называется, чтобы до людей дошло, что - оно там не всё вот так, как ты думаешь. P.P.P.S. Namaste, но ты тут как раз всё проигрываешь в какой то онлайн игре, я хз че это. Но это было печально.
Со всеми этими мыслями про длсс живу последнее время и единственный человек который мыслит так же это ты, я серьезно, я даже удалился со всех гиг чатов и групп, меня не понимают и не слышат, вечные споры, какая то секта блеать… когда мне говорят что длсс и фср это аналоги, АНАЛОГИ!!! Я хочу человеку глаза выдавить ахахах
Про физикс, кстати ещё могу добавить: я сегодня переустанавливал дрова на видяху и он там идёт отдельной строкой! А на счёт RTX лучей: они не только облегчают работу разрабам, но и реально делают картинку более живой! Вам любой профессиональный художник или фотограф скажет, что освещение - это большая часть успеха картинки! Так всё что мы видим, это отражённый свет от поверхностей. И если он не искусственно создан, просто точечно распихан по углам, а есть реальное глобальное освещение, с отражениями и перломлениями, то конечная картинка всегда будет выглядеть более живой и настоящей. Если вы не видете разницы, значит вы счастливый человек, значит вам для счастья просто нужно гораздо меньше, а я вижу разницу и мне нужны лучи и всё остальное)
Запоздалое - "Поздравляю!". Сам купил 4090 ZOTAC GAMING AMP Extreme AIRO на релизе и такого плавного рабочего стола я ещё не видел XD Но, если без шуток - эта херовина для VR - самое то! А насчет задержек DLSS 3 FG - надо включать Reflex и ставить лок ниже Vsync кадров на 3-9, тогда задержки очень низкие становятся. Если, конечно, фпс не прыгает туда сюда супер сильно. @Gerkon, с новой матерью ждём хороший тест-разгон через BLCK, благо - она могёт =)
такой вопрос, ты говоришь что лучи это не технология для апа картинки, а технология в первую очередь для упрощения разработки и что будучи игра построена полностью на лучах ее было бы проще разрабатывать т.к. меньше нагрузка на человека, но сейчас ведь нет таких игр которые по умолчанию идут ТОЛЬКО на лучах... получается наоборот что разработчик тратит полный запас времени на разработку обычной версии графики, а потом сверху еще и допиливает возможность использования лучей, получается тратится даже больше времени разве нет?
Чуж . В ред деад редемпеш 2 консольный порт не для пк. Который ужат в 720п в фул хд. Там не видно деталей не потому что там нет 4к. Просто выставляя 4к ты компенсируешь этот недостаток. Да и игра не очень детализированная. Ты зайди в комнату и присмотрись к деталям. Они довольно всратенькие, это даже как человек без синдрома ваномаса говорю. Там мало полигонов и мыльные текстурки. В некоторых играх есть преимущества, которые можно заметить только в 4к, но таких игр пока крупицы на самом деле. И это далеко не ред деад редемпшен 2
DL-DSR - это ВЕЩЬ. Без неё никуда. Сам сижу на Full HD телике, но при этом везде, где возможно, использую DL-DSR + DLSS. По производительности нативные 1080p примерно на уровне DL-DSR 1,78 (1440p) + DLSS "качество", а вот качество изображения с апскейлом всегда заметно лучше. При использовании DL-DSR 2,25 (1620p) + DLSS "качество" еще лучше результат выходит, но тут уже производительность снижается немного. Моя 3060 не везде вывозит. Но если бы видяха была помощнее, я бы всегда использовал DL-DSR 2,25 + DLSS со своим Full HD ТВ. С DLSS ещё такая фишка, что файлик, отвечающий за его работу (онивсегда находится в папке с игрой) очень легко заменить. Подверсий DLSS 2 очень много вышло. Некоторые более удачные, чем другие. Так вот, если подобрать "правильную" подверсию, то результат при апскейле при помощи DL-DSR выходит значительно лучше, чем при нативном выводе. Плюс, сообщество при помощи модов научились прикручивать DLSS к тем играм, где он отсутствует. Например, в демо RE 4 Remake прикрученный DLSS работает значительно лучше, чем FSR 2. Ещё Nvidia не так давно представила метод сглаживания DLAA. Это как раз для тех, кто не хочет апскейлить. Потеря в производительности от активации DLAA на картах серии RTX весьма скромная. Так что его точно имеет смысл использовать, если мощности карты вам не хватает для апскейла через DL-DSR.
*20:50** - у тебя самого какой моник?* *Я играл на 4К 27" 60 гц и также на 27" 2К 170 гц (оба IPS)* *И плотность пикселей такая в 4К, что она избыточна для обычного расстояния 60-90 см от монитора. А вот при любом мувинге (движении) камеры, всё вокруг мылит, т.к. фпс низок 60-70...* *В нейтив 2К фпс будет в той же игре около 130-140 и ppi = 110 на 27 дюймах.*
спасибо ! давайте про 4к мониторы. Что взять дешевле Samsung LS27AG5 ? и что взять лучше Samsung LS27AG5 ? почему VA всё ещё блюрит, и сколько стоит хороший VA/IPS
У меня asus strix 4090 , коннектор на второй день , начал лед сигнал гореть , дело не в картах а в том , что только эта стрикса может уходить в почти 650 ват , соответственно качество этих коннекторов , кто держал в руках тот понимает, очень плохое, а особенно переходники на 4 коннектора, которые сходятся в один маленький 16 пин . Немного что-то перегнулось или надломалось , соответственно нагрузка начинает идти по остальным проводам , что при 600+ ват создаёт нагрев , того стриксы так много замечены в прогарах 16пин
Честно говоря, мне и с 3080 было норм) Так приятно, когда человек просто радуется за тебя, а не начинает писать завистливые гадости. А я счастлив, что у меня есть такие зрители! 🤝
Никто сейчас не играет в 720p или 480p, большинство играет в 1080р, пусть и на минималках, но не ставят 720р разрешение, чтобы выставить настройки графики побольше. Все видят разницу между HD и FullHD. Соответственно и с 2к и 4к так будет. Нужно только подождать, пока народ пересядет на новые мониторы и новые видеокарты. Уже довольно активно пересаживается на 2к мониторы 12,44% (+1,27%), а 4 к мониторы только у 2,73% людей. Большинство же сидят пока на FulHD 65%.
Есть в окружении моем человек который насмотрелся всяких ВИКоФФов и теперь бьет себя пяткой в грудь мол покупать можно только АСУС СТРИКС и МСИ СУПРАЙМ!!! У них компонентная база качественная!!)))))))
Для себя выбрал вариант 4K@60fps, купив 2080Ti в 2019 году. С тех пор на другие разрешения уже никогда не слезу.. но и в онлайншутаки не играю, поэтому 144 герца монитора до сих пор у меня нет. Сейчас продаю 3080Ti и буду брать 4080
2 месяца назад пересел с 1080 на 1440. ну да покрасивее, но прям "вау" эффекта не было. у жены 1080 моник я за ним спокойно работаю. на работе вообще 720 квадратный, но так же за ним работаю и блевать не тянет. киберпук я прошел в 1080 на низких настройках с 1050ти с длс 1.0. 2 раз прошел его на ультрах в 2к и ниче особо не заметил я. По прежнему считаю, что 3060 или даже 3050 или 6600хт за глаза всем хватит. По прежнему считаю, что на данный момент 4090 - вытягивание бабок.
Так уж и всем хватит? Мне, например, не хватает. Мне и 1080 не охота и меньше 144 Гц не хочу =) При таком раскладе мне и 3080 не хватало. Сейчас 4080 стоит в компе, 1440p и 180Гц. Вроде более мене играбельно. Пока 4к моник не куплю...
С обновкой! Ваще, 4000 линейка по качеству значительно лучше, чем 3000. Отказались кажись (не видел, не слышал) от сдвоенных фаз (реальное зло). И в целом всё работает, так или иначе. Топовые версии будут тише и гнаться лучше, но стоит ли оно того? С красной стороны, 7900xtx не так стабильно. Референсов бракованных уже кажись и не осталось, но референсы ваще не гонятся из-за питания. Asrock phantom gaming - очень горячий мусор. Высокие лимиты питания, слабый охлад. А остальные нормально сделаны, хорошо.
Про мониторы 4К - а ничего, что на всех видеокартах nVidia, включая 4090, стоят устаревшие порты HDMI и DP, которые не способны без сжатия передавать 4К в 144 fps и выше? Лично я предпочту более высокую герцовку, а не более высокое разрешение. Поэтому для своей системы с 4090 и 13900к я использую монитор QHD 165Гц. Ну а разницы в качестве графики между 4К и QHD на мониторе я не замечаю, разве что шрифты в 4К меньше и их хуже читать)) Почему не использую FullHD? Потому что на 27 дюймах в FHD я вижу пиксели экрана, а на QHD - нет.
Полезный ролик благодарю. Только по поводу разрешения 4к, dsr, dldsr я лично вообще никакой разницы не вижу с 2к хотя все это уже перепробовал видимо я слепой или еще, что не знаю :)
Сама технология длдср дает детали и отличное сглаживание в играх где нет длсс. Но для фулхд достаточно 1,78 и получить 2к. А для монитора 2к включить также первую ступень
@@gerkonyoutube Ну я себе 4090 взял и во все проекты с RT играю и вижу сразу разницу, а вот с разрешением вообще не выкупаю разницы, как и с высокой герцовской к слову.
Я правильно понимаю, чтобы мне почуствовать этот ваш некст ген, мне нужно взять 4к монитор, видеокарту за 100+к, топовый проц, чтобы видяха не простаивала. памяти хотя бы 32 гига? То есть "немыльная" картинка мне обойдётся больше, чем в 200 тыщ.
В КП77 длсс даёт блики солнца такие, что хоть глаза выкалывай. И вот на 40ой серии можно в 1440р поиграть просто с ФГ. На максималках без лучей будешь иметь не 60 кадров, а 95. Артефактов ты не увидишь. Задержки управления нет (киберкотлеты заметят разницу с ФГ и без, но они её заметят даже там, где её нет). Т.е. технология просто имба. Единственный минус - если свернуть игру, то из-за ФГ она вылетает. Лечение простое - нажимай эскейп перед сворачиванием экрана (т.е. при остановке игры в меню ФГ не работает). Когда попробуешь эти новые технологии, то назад уже не хочется. Но чтобы иметь такое трезвое мнение - это надо самому пощупать, а не смотреть на блогеров, которые ноют про шину (хотя спустя полгода они про неё уже не вспоминают).
Здравствуй Gerkon, дождались тебя. Можешь высказать свое мнение о генераторе кадров, протестить технологию на народных герцовках: из 30-40 получить 60-75, померить при этом задержку. 4090 тяжело загрузить на 99%, но борода прохайтек говорит что при этой загрузке генератор теряет кпд и даёт небольшой прирост. Вообщем нужно твоё профессиональное мнение, в свое время благодаря тебе познал технологию dldsr и научился включать её в играх сони и любой другой)
я в описании к этому видео ссылку оставил на хорошую статью, по этому поводу. Там и замеры есть в т.ч. Для нормальной работы генерации кадров, без конской задержки, нужно от 45 фпс примерно что бы было.
Досмотрел видос) Статью читал ранее = со многим не согласен. Пока генератор выглядит как технология которая минусит в отзывчивости геймплея чтобы сделать картинку плавнее. Только вот говоришь в кибире всё в край и 120 фпс вместе с фейковыми кадрами, а если грамотно выставить настройки, возможно немного потеряв в качестве картинки и получив 120 процессорозависимых кадров = будет лучше? с точки зрения геймплея? Надеюсь амд выпустят аналог и сам попробую... но складывается ощущение что если у человека моник 60-75 гц, то генератор не нужОн
@@АнтониониАнтон Для генерации кадров нужно фпс от 60+, что бы не ощущать пьяную мышь(инпутлаг, ватность,большой отклик на отзывчивость управления). Но есть одно но, если ограничиваешь фпс в игре(ну просто потому что надо для джи синха\фрисинха или просто не хочешь что бы видюха работала в холостую выдавая ненужные 200+ фпс), то ограничивтаь надо строго в дровах видюхи, не риватюнером! ДЛСС3 от риватюнера ломается почему то и начинается дикий инпутлаг, фпс показывает 150+, а по факту 30.
Купил 4070ти до апгрейда проца. В ведьмак 3 в Новиграде 10400 захлебывается и выдаёт 30-35 фпс, включил длсс 3, получил 80-90 фпс(вроде так, может больше, просто я сразу ограничил на 60). Задержек по сравнению с нативными 60 фпс (около замка барона проц позволяет вывести 60+ кадров) не заметил. Инпут лаг не ощущается
@@B1GN1ck как при изначальных 35 фпс инпут лаг может не чувствоваться?! Ну и 4070ти к 10400 сомнительное решение... Ну и 35 фпс в ведьмаке 3 = честно = смешно) Нужно разрабам клавиатуру засунуть в одно место, только засовывать её не в доль, а поперёк... Тем временем киберпанк, на том же движке, идет на стимдек... Оказывается так можно было
Да все нормально) Я практически всегда общаюсь в начале с постоянным зрителем. Новым это не сразу заходит. Но, в тайм-кодах же написано в начале "Приветствие, вступление (вода)". Можно промотать, если что)
*20:00** - поспорю, лучше 2К 240 гц или 2К 165 гц, чем 4К 120 гц. и тем более 4К 70 гц* *Про мыло в движении ты совсем забыл? Фото в статике в игре смотреть пришёл или играть?* *8К Красивые пейзажи можно и из гугл скачать.*
Привет, Геркон ! 🌞😉👍 Доброго, солнечного, счастливого дня всем ! 🌞😊👌 По-дружески я рад тебя видеть.🌞😉👍 Я поздравляю тебя с обновлением видюхи до RTX 4090 и материнки, - от всей души ! 🌞🙏👍 Пользуйся на здоровье, - тебе на радость, зрителям на мудрость ! Так это очень сильно поможет тебе в производстве твоего классного, здравомысленного, компьютерно-юморного, полезного, умного контента. Я рад, что ты продолжаешь глаголить истину, про устройство компьютерных деталюшечек, и нюансы работы с программным обеспечением. Крепкого здоровья тебе и огромных успехов.
Герконыч ну ты конечно прав, надо брать RTX 4090 и 80 дюймовый 4К 120 герц ТВ, и садится в метре от него, что бы рассматривать все вены и прыщи у глав героев, ну или на реалистичный ручеёк в RDR2 смотреть!
В декабре приобрел 4090 Game Rock обычную бес OC, пользуюсь не нарадуюсь. Использую через родной переходник, никаких нареканий к карте нету, работает как часы. С разъемом 12vhpwr все отлично. В играх потребление в среднем 300-350 ватт, карта в стоке. Только Portal RTX и Киберпанк 2077 могут загрузить ее на максимум 450 ватт. Температура чипа 63-64 градуса, хот спот +10. Вертушки даже на 50% не крутятся. В общем отличная карта
@@КАВО2 да и стоковые температуры устраивают, не вижу в этом смысла, карта бесшумная практически а 63 градуса впринциппе нормально считаю, после 1080ти где 80+ были
Для полноценного hdr нужен хороший экран, с яркостью не менее 1000 нит. Все они дорогие весьма. То, что есть в дешёвых не работает как положено. Кроме того, в некоторых играх, hdr реализован коряво изначально. А вообще хорошая штука)
Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают Хотелось бы услышать твоем мнение, про G-Sync, так как года 3 назад, купил моник от Asus, с этой технологией, 165 Герц, 2К, 27 Дюймов и матрицей IPS. Теперь вот присматриваю также с G-Sync, но уже 4К и тоже 165 либо выше, с матрицей IPS, но уже хочу побольше, 32 дюйма (G-Sync есть разный, хотелось бы твое мнение)
Многие понимают, но не могут себе позволить, вот и подгорает. Как-то давно немного переделывал локацию "Затон" в в X-Ray, а там есть вариант пробной компиляции без просчета теней от источников света для пробы игры в локации, потому что без света локация считалась примерно час, а в конечном качестве могла и больше суток, так вот: Естественно без правильных теней игра выглядела так себе, к примеру прямоугольник стены на самом деле из двух треугольных полигонов, верхний треугольник кирпича был к примеру светлый, а нижний строго по диагонали был той же текстуры и темный, цилиндрические предметы вообще из-за разницы казались с треугольными вырезами и т.п.., НО немного побегав для проверки введенных изменений, я даже не сразу заметил, что зрение адаптировалось, и все тени и даже рейтрессинг стал рассчитываться в голове. Возможно это не у всех, возможно для этого надо было детстве играть в деревянный кубики прибитые к полу, представляя, что это танки и корабли...
@@Neuromancer2023 пока не выбрал, сейчас использую ROG SWIFT PG279Q, купленный 3,5 года назад Вот хотелось бы по качеству не менее худший, но в 4К и 31-32 Дюйма. Раз уж брать 4К, то побольше 😄
"Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают " И ты не понимаешь. Разрабам от RTX только головняка больше. Сейчас у разработв RTX и так есть, они строят сцену и потом на мощных серверах запекают освещение и тени через RTX. И дальше уже не нужно это тестировать, ты сразу видишь как оно будет выглядеть в любых условиях. Да после прогона RTX рендера, кое где будут косяки с освещением, и нужно будет поставить доп. источники невидимые, это своего рода полировка. А вот что бы RTX работал кореректно в реальном времени у игрока, нужно расставить все те же источники, нарисовать все те же модели, только еще и протестировать множество различных комбинаций, расположения источников света, предусмотреть разрушаемость объектов и источников света. Т.е. примерно та же самая работа что и перед рендером с запеканием в текстуры но только с гораздо большим количеством неизвестных. Уже лет 10 как весь свет и тени в играх считают через RTX а не художники руками, художники если что и делают так это правят косяки RTX, точнее косяки сцены которые выявляет RTX рендер. Да полный переход на RTX уберет из пайплайна разработки рендеренг на RTX фермы с запеканием в текстуры, это сэконосит какое то время (но не человеческие ресурсы, так как это все автоматически проиходит). Но в целом все последние движки уже и так дают возможность предпросмотра в реальном времени, пусть и в пониженом качестве, так что достаточно каждую ночь делать полный рендер, а в рабочем процессе использовать RTX предпросмор. Но в то же время это сильно повысит требования к проработке сцены, так как теперь уже художник не контролирует что именно увидит игрок, могут быть разные настройки (разное качество), разные условия (разбили источник света, принесли новый, разбии стену, загородили окно другим объектом) и.т.п. Уже не получится просто подрисовать тень там где по замыслу хуждожника нужна более мрачная атмосфера, нужно будет настраивать свет как это делают операторы при съемке фильма. Вообще RTX и Запекание можно сравнить с Живым фото и обработкой фото. С живым фото (RTX рендер на стороне игрока) если ты хочешь что бы у твоей модели не былло тени под носом и в морщинах, ты ставишь отражатели, подбираешь температуру света и т.п. А вот в фотошопе (запекание в текстуры) ты можешь не особо заморачиваться а нарисовать как тебе нужно. При RTX будет часто такая ситуация что например хочется что бы на барной стойке отражались цвета неоновой вывески, но очень сильный свет с потолка портит эффект, тогда ты делаешь свет слабее но тогда темно в баре, и особенно в дальнем углу, тогда тебе нужно поставить источник света еще и туда. Запекая в текстуры ты можешь просто обработать результат, добавить насыщенности, поднять контраст и все. Да и смоделями персонажей могут быть сложности слементами экипировки котоыре отбрасывают тень, или особенно с лицами.
@@stasbabakin1028 для сингла, а особено игр от сони, нужно брать 43. Я вообще не понимаю как можно через эти 23 дюймовые форточки играть в игры типа детройт или хоразен... Да я бы даже 55 поставил но места нет. Соевновательные, там да запаришься головой крутить :) Для них что то до 32 брать
Из всех игр в которые играл с DLSS, артефакты и явно бросающийся в глаза гостинг видел только в War Thunder. Но там DLSS первого поколения вшит. Так что не удивительно. В играх с DLSS второго поколения нужно прям целенаправленно сидеть и искать косяки. Разве что во время релиза игр могут быть явные артефакты, когда дрова ещё допиленные не вышли. Но их можно и без DLSS вагон и маленькую тележку найти. На то и слово такое мерзкое "релиз" =D
@@gerkonyoutube буквально месяц назад играл и был гостинг у падающих деревьев. Причём жёсткий, размазывало листву к чертям, словно это артефакты. Ну мне и DLSS не нужен был, т.к. игра и без него отлично идёт. Просто ради интереса запускал. И это не единичный случай. А систематически происходило. Запускаю с DLSS. Сбиваю в бою деревья. Раз в несколько сбитых деревьев происходит гостинг. Т.е. повторяемость присутствует. Отключаешь DLSS. Всё в норме. Локации использовал одинаковые для сравнения. Может конечно это был баг. Всё-таки на 100% утверждать не могу, что это гостинг от самого DLSS.. Но наблюдал данную картину два патча подряд, с момента покупки RTX 3060.
Буквально вчера купил монитор 31,5" 2к 165гепц, и как оказалось на нем есть 4к, но только 60герц. При этом везде, даже на оф сайте написано только 2к. Интересно, это на всех подобных мониторах с VA матрицей, или мне так повезло?
th-cam.com/video/N9HGN68zWK4/w-d-xo.html Ты тут путаешь: "Не будет" и "Вы не заметите". А точнее, эти просадки заменятся на артефакты. DLSS3 хорошо работает там где и так все хорошо, просто позволяет рисовать повыше цифру. С таким же успехом на g-sync мониторе можно играть и в 40 и в 60 к/с и все будет плавно. DLSS3 спасает в 2х случаях: 1. VR 2. VSYNC По сути все сводится к тому что если к выводу кадра на монитор, кадр не готов, то будет выведен предыдущий, это мы и расцениваем как отсутсвие плавности, так как в этот момент FPS как бы падает в 2 раза, если такое происзодит не часто мы не замечаем, если более регулярно то замечаем уже как неплавную картинку. А отклчюать VSYNC не кто не хочет иначе в такие моменты будут разрывы на изображении которые вообще не приятные. И вот тут выручает DLSS3 так как тепрерь у нас картинка для вывода всегда есть. Но опять же это работает только на высоких FPS где мы уже не воспринимаем 1 кадр. На тех же 40 FPS ошибки в предсказании очень заметны (т.е. DLSS нарисовала один кадр, и он кривой что само по себе плохо, потом приходит от видеокарты нормальный и это еще хуже на контрасте с первым). Ну и понятное дело что на input lag это вообще никак не влияет, он будет по честному FPS. При этом 144 мониторы нужны как раз для того что бы максимально снизить инпутлаг. А так получается, что в синглы и на 60 можно играть (там вообще все анимации заточены на 60) а в мультик от DLSS3 толку нет. Плюс кадры от DLSS3 выведутся только тогда когда не будетр реального кадра для вывода. Так что 120 кадров DLSS3 могут смотреться идеально на 60гц мониторе, если игра способна выдавать 50-65 кадров настоящих. При этом те же 144 к/с на мониторе 144 гц при реальных 50-65 к/с будут сыпать артефактами. Поэтому если уж говорить о том что "я не вижу артефактов" то нужно говорить и о том какой реальный FPS и какая развертка. Напрмиер: Игра выдает 55-65 кадров, монитор 75 с G-sync /free sync Лучше выбрать честное отобржение кадров на g-sync, что бы исключить артефакты. Игра выдает 65-80 кадров, монитор 75 с G-sync /free sync. Тут я бы предпочел DLSS3 так как большую часть времени будет выше развертки монитора, и DLSS3 кадров будет мало, что не даст артефактов, зато позволит максимально использовать герцовку матрицы. (input lag будет одинаковый что с DLSS3 что без него, что касается плавности то уже 40 и 60 с трудом можно оиличить, 60 и 75 нужно прям приглядываться и уже замедлять, а выше вообще смысл толкьо в понижении input lag, чего опять же DLSS3 дать не может)
Сам являюсь обладателем 4к144гц монитора, и в том же киберпанке без dlss в режиме производительность , моя 3080 не выдает достаточное количество кадров. Но покупка именно 4к была оправдана тем самым эффектом детализации картинки, про что и говорил Геркон. З.ы. планирую теперь продать 3080 и купить 4080.
Купил карту 4080, а монитор 2560*1080 60гц, вот думаю перейти на 4к, вопрос стоит ли брать 144гц или 60 хватит? В кс-ы не играю, так киберпанк, атомик, и т.д.
Тут такое дело, мож кто сталкивался/шарит.. Испытываю бесячие мгновенные ни с того ни с сего статтеры (буквально возьмет и проскочит пик на графике нормального фреймтайма) в РДР 2 и Форзе Хорайзен 5, может в чем то еще, не догоняю, почему так. Грешу на сами игры/движок, однако уж больно идентично их поведение.. 10700f, 16gb Балики, 3070ти Ну и ждем видево про VR) Донамекался)
А в чем заключается потеря производительности при андервольте? Если ты подберешь для той же частоты, на которую буститься карта в стоке меньшее напряжение
согласен полностью Геркон!Сам часто сталкиваюсь с топ картами и асус стрикс одни из самых проблемных , начиная с писка дросселей ВСЕГДА заканчивая дохлым охладом с заводе где 3090 греется до 100 градусов Чип и вертушки на 100 процентов,а все из за битых трубок.Конечно дешман тоже умирает часто,но тут никто не застрахован,переплата большая чаще всего того не стоит
Не то что бы я считаю Стриксы ненадежными, но Асус несколько оборзели с ценами на них. И не факт, что в итоге с картой все будет збс. Была бы доплата хотя бы в пределах 20 тыр., еще куда ни шло, а в случае с 4090 надо 60 тыр вывалить, в сравнении с Палитом. Сомнительная переплата. Но, если деньги не проблема, я бы от Стриксы не отказался)
Хм... разрабы специально мылят картинку, что покупали 4К мониторы? Это как вводить задержку ввода-вывода, чтоб покупали крутые карты. Так, погодите-ка... Очередь кадров не для этого ли придумали?
Привет геркон! С обновкой тебя) Длсс не заходит мне, ни в рдр ни в пауке ремастере. Текстуры перерезкие и детальность самих текстур падает, да и вообще без сглаживания играю, лучше детальнее видеть в нативе, а длсс только если реально с фпс проблема
Привет, мужик! Спасибо!) Вот мне самому интересно, почему одни люди воспринимают картинку с длсс так, другие иначе. Если конечно это не касается каких-то проблем со зрением. У меня, в этом плане, все четко, но я не вижу никаких перерезкостей, артефактов и подобных неприятностей. Наоборот, выкручиваю, как правило, резкость DLSS почти в максимум. Может на каких-то мониторах конкретных такой эффект возникает, хз..
@@gerkonyoutube У меня хуавей 3440х1440, в рдр включаешь когда длсс он заодно и таа врубает и листва на деревьях превращается в лопухи, особенно на дальней дистанции, и качество на дальней уже заметно падает. Да и как будто зрение падает с длсс, какая то мутная пелена на весь экран. Проблем со зрением нету.
Подскажите 4070ti для игр в Full HD, будет достаточно?? Ну и на счёт мыло на Full HD, тут всё зависит от монитора, сижу с монитором Dell на IPS матрице, всё даже очень огонь!
А может дело не 4k а в PPI монитора? Про длсс 3 смотрел тесты и тестеровщик пищал что вот видите 3090 38 кадров а в 4070 больше 60, а по факту и там дергается (стробит) изображения, да хоть 1000 кадров нарисуйте, толку то (вот прям бесит)? тперь я должен оплатить 4090 чтоб разрабу легче и быстре разрабатывалось и потом это гавно я и еще дороже купил? Согласен капиталисты красавчики убедили. Вопрос не в заговорах, а в честном прогрессе, а не всратом маркетинге. Нет хлеба, кушайте пирожные (это здравый смысл) ? Феррари не гавно, но не надо мне ее впаривать под видом семейного авто? Лучи хорошо и длсс3 очень крутое профессиональное решение, но оплачивать чью-то жадность извольте. А и последнее когда там уже лучи допилят без длсс в 4K и 144 кадра, еще лет 5 и вот точно будет оно или там очередная технология подъедет и мы опять лохи у нас все в мыле?
Разогнать/настроить видеокарту, оперативную память, процессор вместе со мной, подобрать ПК и т.п. m.vk.com/gerkonpc?from=groups
Скажи в Батлу 2042 тепловизоры завезли?
@@maikl_75 угу
Герконыч, я своему другу так и сказал нафига ты используешь свою старую GTX 1650 на своём 10-ти летнем 23-х дюймовом мониторе Делл, Возьми себе нормальную видеокарту и новый 4К монитор, ну он мне и ответил что уже с зарпалаты в 20 тыщ начал откладывать по 3 тыщи в месяц на новую видеокарту, и монитор, когда накопится нужная сумма он купит себе RTX 4090!
@@Igor-Bond помянем друга
25:08 Панарамикс? Идеафикс?
У Викона в обзоре речь шла про 4070ti, ну и как я понимаю на тот момент, производитель имеет право поменять элементную базу в любой момент))), прошу заметить что данные карты после обзора прилично набрала вес по стоимости)))
и начались возвраты...
Что за карта? С хорошей базой? Как цена поменялась?
@@alexdigixela palit gamerock classic, одна из самых дешёвых 4070ti
А когда будет видео про тонкости выбора пивасика? Темное и светлое, фильтрованое и прозрачное и так далее. Лайкаем если хотим такой ролик!!!!😮😮😮😮
на стриме))
Вот пипец, набирает сколько влезет в сумку и дегустируешь, банки которые не понравились сжимаешь кулаком а которые понравились хранишь на полочке ))
Да лучше Rodenbach в массмаркете в замкадье все равно ничего нет. Тема закрыта. 😂
Шо то х*ня, шо это х*ня. ) вот тонкости выбора вашего пивасика 😂
В жопу себе свой пивасик сунь, алкаш.
Ништяк, поздравляю с покупкой, пусть будет верной помощницей в создании полезного контента!
Привет! Спасибо, как всегда, за хорошее, "ламповое" видео! Карта интересная, но я чет посижу на 3090 до 5090 пока, вроде и "хочется", а с другой стороны "А зачем?". А намеки то надо отзеркаливать чтобы понять! )))) Я то понял про что, но спойлерить не буду ))))
3090 ? Ламповая? Да я тебя...(с)
Только вчера про тебя вспоминал, а новых видосов не было, как рад что не забываешь про нас, почаще бы контента разного завозил, красава!
Многие устанавливают драйверы Нвидии в авто-режиме и даже не в курсе, что вместе с дровами устанавливается PhysX)
ООО, здорово дружище, делал у тебя разгон , всегда приятно смотреть твоё видео, спасибо!!!
Я себе купил QHD монитор на 31" ещё когда у меня GTX1066 была, в "Исход" вполне нормально игралось, хорошая детализация гораздо больше впечатляет, чем частота кадров выше пятидесяти-шестидесяти.
И ещё: не всегда же играешь, иногда и другие дела на компьютере делаешь, а на большом мониторе можно раскидать больше вкладок. Но в этом случае второй монитор всё равно нужен.
Поздравляю с покупочками, обновлениями, мы заценили! Сам приобрел 4070 Ti, доволен, сидел раньше на 1080Ti 👍
С некоторым сказанным конечно не согласен (про питальники, про элементы, что тип разницы нет), но рад видеть в эфире
А где я сказал, что разницы нет? 😯 Ты не совсем правильно понял мысль ;)
@@gerkonyoutube ну к этому подвел, в плане если брак одинаковый, а в стриксах якобы даже больше, чем у Гигабайта, то тип зачем платить больше, если по этой логике, Гигабайт лучшче :)
Не совсем так. Тут скорее имелось в виду, что покупая "бомж сегмент" не нужно сидеть на панике. Совсем не факт, что соседский рог стрикс проживет дольше, вот в чем суть. Но, чисто теоретически, стриксы конечно должны жить дольше, однако, опять же, на практике, совсем не факт)
@@gerkonyoutube Конечно, тут я согласен, что на панике не стоит сидеть, ведь как минимум, ты сэкономил значительную часть деньжищ (учитываю разницу в цене) :) И конечно, не факт, что проживет дольше, но шансы естественно намного выше, так как к примеру, учитываю ту инфу, которую ты озвучил по фазам и деталькам, чем лучше питание, чем оно стабильнее, тем меньше перегрев, меньше всплески и дольше живет чип и все остальное (следую просто логике), тож самое и по мощности, если рассчитано на 1800 ватт (по твоей инфе), а от палита на 800 ватт, то запас огромен, и естественно, в теории, при нагрузке в 30% от стрикса должна прожить дольше (просто логично), ну и плюс нельзя забывать о качестве деталей, там заявлено 800, но далеко не факт, что эта цифра и есть (сравниваю с дешевыми блоками питания, заявлено 850, а держит 650)... С коннекторами также, там же их не Стрикс Асус делает, а другие ребята, и учитываю мощность, которую ты озвучил (1800 ватт), естественно шанс прогара коннектора выше... Плюс учитываю владельцев этих самих карт, кто берет Стриксы, те любят "баловаться" с картами, так как знают, за что платят, и хотят выжать максимум
@@gerkonyoutube Но тема очень интересная, с этими якобы отличиями :)) Так как сам выбирал карту 4070 Ti, зашел на канал Викона или Викофа, и там короче все гарты хреновые 😄 Но выбрал от MSI, средний ценовой сегмент, просто из-за охлада и самого имени MSI, внешки
Спасибо за видео, рад тебя снова видеть!
По первой части про бомж сегменты, наверное, дополню: бомж сегмент и референсный вариант отличаются от топовых версий того же ASUS не только ценообразованием с учётом более качественной элементной базы. При разгоне топовых версий - легче выиграть в силиконовую лотерею в плане GPU - андервольтинг и разгон почти всегда удивляет, действительно отличными результатами. Только по GPU и памяти можно получить разницу между референсным вариантом и топовым в 20% производительности. Ах да, чуть не забыл - топовые варианты лучше держат частоты, я бы сказал мёртвой хваткой.
А брак и там и там может быть: по моему опыту дохли MSI, Palit, GIGABYTE. ASUS же ни разу не подвёл на протяжении 15+ лет. Недавно вендором NVIDIA перестал быть хвалёный американский EVGA - все мы помним офигительную историю с контроллером вентиляторов при игре в New World. Буквально на днях Бетатест Диаблы 4 стал убивать 3080 от GIGABYTE - проблема массового характера не только по тому, что этих видеокарт больше на руках у пользователей=)
То что касается лучшей системы питания с запасом, которая якобы не нужна=) Ну тут очень просто. Примерно тоже самое, что и спор о том: зачем тебе БП на 1200 Вт, если твоя система потребляет всего 800 Вт? Отсутствие запаса мощности при работе на предельных значениях температур и нагрузки во времени, может сказаться на более быстром выходе техники из эксплуатации. В противном случае комфортная температуры цепей питания и прочие качественные компоненты с работой не на износ - могут продлить срок жизни Вашим железкам. А то запихнут дешевых компонентов в схема технику за свою цену и пусть жарится всё там на предельных значениях. Ценообразование продуктов не появляется на ровном месте. Разгон так же зависит от отличной реализации подсистемы питания.
Про вторую часть видео полностью солидарен: Жалкие отмазки любителей АМУДЭ, чьи видеокарты никому не нужны, так как в Проприетарное технологии мы не могём с искусственным интеллектом. А ценник за открытый код и обычный растровый рендеринг ставим почти такой же, как у технологического конкурента, который вложил гораздо больше денег?! Прикрываясь блин более высокой производительности в голом рендеринге на ватт, хотя и там 40 серия выдала более низкое потребление в играх. Про реализацию RT даже не хочется расписывать - все всё знают и у кого она лучше реализована. Вот, как-то так. Ещё раз спасибо за видео Герыч!
Спасибо, друг! Рад, что кто-то ждёт мои видосы! Про питальники, лотереи кремниевые и прочее, все верно. Ведь я же не имел ввиду, что кол-во фаз, например, вообще не роляет и возможности питальника рог стриксов полностью бесполезны и никому не нужны. Суть же не в этом была) А в том, что не нужно прям переживать, если выбрали так называемый "бомж сегмент", посмотрев соответствующие видео про их схемотехнику, в сравнении с очевидными топами. Вот вроде бы стараюсь последовательно проговаривать все, что бы четко была ясна основная мысль, но все равно слушателя начинает уводить не в ту степь) Уверен, если бы ты переслушал, то четко бы это понял. Видимо это мой косяк, что какие-то вещи проговариваю недостаточно четко, хотя и стараюсь всех удовлетворить и новичков и, так сказать, ветеранов в этом деле. А теперь просто о разгоне 4090, если тебе конечно интересно. При определённой настройке, все они могут железно держать определенные частоты, т.к. проблемы в лимите мощности нет, которая была на топах 30й линейки, где всегда ограничителем было потребление и частоты гуляли. Кроме того, даже в самых удачных случаях, когда капец как повезло с чипом и памятью (3100Мгц и 25000Мгц соответственно), прирост на удивление малюсенький. При этом карта начинает жрать под 600Вт в определенных сценариях. Не знаю кому это надо, кому-то надо наверное, но точно не тому, кому будет интересно это видео) Так что вопрос остаётся в общей надёжности. И вот по этому поводу я как раз таки и высказался. Даже в видео сказал, что было бы у меня много денег, то конечно я бы взял стриксу какую-нибудь, она безусловно круче Палита и ко. Вот как-то так)
@@gerkonyoutube Разобрались спасибо! Влияние DLSS 3.0 без упора в максимальное потребление немножечко размоет разницу между топовым вариантом и бом ж сегментом - есть такое.
У самого 3080 ti пока и до пятитысячных и хороших Мониторов OLED, за приличную цену, останусь пока при своих железках. Да и новый Экстремальный ультрафиолет хочется посчупать от синих. Ну и DDR5 к тому времени начнёт выдавать сочный результат за свои деньги.
@@deymas3221 В видео же говорил что и асус тож отлетают, может брак, а может еще что-то. Чел работал или работает в магазине комп железяк+ сборки, уже наверно не одну сотню перелопатил тех или иных вендоров видеокарт как и тесты всяких гпу, цпу. А можно просто покупать одну карту на 3, 5, 10 лет, ну и говорить некогда небыли проблемы с асусом 15 лет))) у меня некогда не были проблемы от слово совсем от гигабайт видеокарт лет 9-10, брал 9, 10, 20-ую линейку видеокарт, но проблемы у гигов есть как и у других, брак, не брак, то да се. Может мне так везет))) знакомому продал свою 1066 от гигабайт 16 года выпуска, и по сей день она у него отлично работает без намека о скорой кончине))) причем так и работает с разгоном памяти +1000мгц и гпу +/- 100, 150мгц что у меня, что у него.
Правильно потому что даже в FHD в нативе 4050 не вывезет эти RT в играх....и вопрос а почему так? DLSS+FrG это здорово, особенно хорошо на будущее, когда карта уже особо не тянет и добавить кадры можно. но блин нафига сейчас выпускать карты которые годны только с этой фичей? без этих приблуд карты шлак выходят ( говорю с 50-60) это бюджетка и какой никакой мидл сегмент, а они в 2к не могут. 4К это классно, но пока не доступно для многим. тож самое с электрокарами) это круто и замечательно, но почему то ни один производитель не пытается удешевить производство и сделать более доступным) Вся суть выжать больше бабок - пока производитель не пожелает сделать качественно для масс так и будет) Тут просто понимание общей схемы раскрывает карты, тут нет заговора, тут просто бизнес, а бизнес это " бабки, бабки, ....бабки". Стремление к сверхприбыли ведет к тому что шина у 4050 это просто днище Хуанга)
А нет где-нибудь таблички, чтоле, с сравнением потенциала разгона одних и тех же карт в зависимости от базы (вендора)?
Жаль, конечно, что сами вендоры и производители не собирают информацию о продажах/браке/косяках, ведь сейчас такая возможность вполне есть.
Теперь я знаю как выглядит зомби 😂
Круто! С возвращением, Геркон! Жду новых роликов про 40ю линейку , про все новые плюшки и адекватный разбор всей этой хайповой темы с dlss3
Кайф... Поздравляю !
Я вот по рабочим нуждам тоже скоро планирую брать 4090.
Муки выбора были даже не в плане видеокарты а блока питания.
В моем регионе было как то совсем уж тяжко с ATX 3.0/PCIE5Gen блоками (я не с РФ).
Хотелось вот что бы по феншую было, без переходников. С горем пополам удалось найти Биквает Dark Power 13 1000W.
А так хотелось какой нить Seasonic, эх... Ну надеюсь норм будет. 4090 все равно планирую андервольтить по видосу der8auer-а до ~350вт.
13900KF на Z790 Tomahawk DDR4 смог придушить до ~235W без потери производительности (LLC7, AC-20, DC-69, VF Point -0.12V, VRM 1000Khz).
Думаю под эти расклады мне бы и 750вт БП хватило бы. Но решил уж не экономить и с запасом взять ))
Были еще мысли взять с eBay - A6000 48GB. Она по идее на уровне 3090 +/- 48GB прям очень привлекали для моих нужд.
Но напрягает турбинный охлад у нее, да и неясно насколько водоблоки подходят к ней от обычных видях.
В общем решил не надеятся что Хуанг начнет игрунам скармливать 48гб в потребительском сегменте и взять 4090 пока что.
Я взял таф 490, больше 450w не видел, блок старый оставил, корсайр на кВт, купил родные провода с 2-х 8пин на этот 12whpv или как он там... Итог, 4090 стоит, блок не менял, провода "родные с блока прямо в карту... Думаю у других производителей должны быть такие же провода, посмотри..
@@Petbl4 что посмотреть, куда посмотреть ? У меня уже куплен новый БП у которого все по феншую, ATX3.0/PCIE5Gen и родной 12VHPWR 16-ти пиновый. А был у меня 750вт Чифтек бронзовый которому уже лет пять, наверное. И вот с Октября на нем жили - 13900KF, 128GB 3866Mhz/CL16-CR2 Gear1 памяти, три M.2, три HDD, куча пропеллеров, ASUS Strix Soar 6-пин Аудио. И вы хотите что бы я ставил 4090 на этот БП ? Ну уж нет... Спасибо. На такой экстрим я не готов. Потому сразу и купил новый БП с запасом.
@@Earanak3D друг, ну я хз, что у тебя на нем висело)) просто сказал, что есть провода от производителя))) а сделал ты хорошо, я не смог найти в наличии такие бп, поэтому для меня это был выход. А теперь и не хочу)
Абсолютно поддерживаю по поводу DLSS и генерации:
- 4k с DLSS гораздо четче нативного 2K (1440)
- если без генерации есть 40+ кадров, то генерация кадров не даёт заметной на глаз задержки
Спасибо и тебе, пойду дальше чекать твои видео, буду писать тонны комментов. Очень крутой канал, и ведь никто нигде мне не сказал - эй, есть хороший канал. Хочешь его?
Дядька очень здорово вещи говорит) вам бы с ремом совместное что-то замутить)
По поводу длсс 3.0 и задержек не удивлен. Нвидия только только избавилась от задержек вывода изображения вплоть до 1000 линейки, сам сталкивался на 660 и 980ти. На них 75 кадров выглядят менее плавными чем 60 на рыксах. А если фрисинк подключен, то там и 50 кадров плавнее будут. Это до того меня выбесило, что я с огромной опаской 2060 покупал. Но благо с ней обошлось и картинка такая же плавная, как и была на рыксах. А теперь опять задержки, но благо про эту проблему не промолчали в интернетах как случилось с задержкой вывода кадров, да и длсс 3.0 выключить можно. Осталось только 150к накопить на 4090, и еще 10к на блок питания не помешало бы, ну и еще 5500 ряженку до 5800х3д обновить за 30к, а то че, в киберпанке всего 90 кадров будет.
4К гейминг дорогой всё ещё да)
Спасибо за полезный и информативный контент братка !!
Вот только проблема даже 2К разрешения в том, что взяв однажды 2К моник, тебе теперь придется всегда обновлять комп под 2К разрешение, чтобы он его нормально тянул (хотя бы в 60 фпс). Потому что если на 2К монике разрешение понизить до 1080p, то это будет ужасное зрелище, будет даже хуже, чем на 1080p монике. А это значит, что обновлять комп придется ощутимо чаще, т.к. нагрузка при переходе с 1080р на 1440р возрастает в 1.77 раза (количество пикселей, которые необходимо обработать при 1920х1080 и при 2560х1440 - можете сами посчитать). Т.е. условной RTX 3070 хватит не на 5-6 лет комфортного использования, а на года 3, после чего уже придется обновлять видеокарту, что очень сильно бьет по бюджету, особенно в наше время. Так что поэтому сейчас большая часть людей и продолжает сидеть на 1080p, и говорить что ваши эти 2К и 4К не нужны, имея в виду то, что они не нужны именно за те деньги, которые придется для них тратить.
Понятное дело, что со временем и 2К и потом 4К станет так называемым "стандартом", как это было с 1080p и с 720p. Но произойдет это только тогда, когда когда сборка компа, который потянет эти разрешения, станет общедоступной по цене для большинства людей. Сейчас этого нет.
В статье на ресурсе DTF смешалось в кучу всё - и кони и люди... Статья вроде написана грамотно, но вот например пару логических дыр в ней:
1) В начале говорится о том, что с инпут лагом под 110 ms нормально играли все и всё было хорошо, что в целом верно, но есть один нюанс - человек такое существо, которое ко всему привыкает. Приведу пример - когда начали появляться высокогерцовые мониторы, многие кричали - нафига, нам хватит 60 Hz, однако в последствии эти же люди посидев за высокогерцовым монитором говорили, что не хотят пересаживаться обратно. Или вот например, раньше играли в 720p, а ещё раньше на приставках. И никто тогда не говорил, что кровь из глаз от пикселей идет, а сейчас 4к уже хорошо и вон детализация с ним лучше... Так же и с инпут-лагом - в статье делается вывод, что если раньше так играли, то значит и сейчас тоже нормально будет, но так тогда вообще можно сказать про что угодно - "раньше так было, всем было норм, значит и сейчас тоже норм". Если человек большую часть времени играет на xbox и ps или на слабой ПК системе - он просто не заметит никакого инпут лага.
2) "Использование видеокарты от АМД в играх где есть Reflex, увеличивает инпут лаг на 10 - 50 ms" возможно автор хотел сказать, что использование карты Nvidia позволяет уменьшить ипут-лаг, в результате чего он получается меньше при одинаковом FPS по сравнению с AMD? а так звучит как бред.
Я не хэйтер RT или DLLS и за новые технологии, думаю что наличие лишних настроек всяко лучше, чем их отсутствие. Но как показывает реальность, к сожалению, разработчикам проще положить болт на оптимизацию игры добавить FSR и DLLS а потом сказать, что чтобы игра шла хорошо, надо их включить. Наивно полагать, что если в играх будет легко добавить ray-tracing, то освободившиеся деньги/человекочасы будут потрачены на добавление контента в игру или улучшения баланса или механик. Скорее больше денег издатель заработает. Может быть люди не оценили DLLS3 из-за цен на 4000ю линейку и в частности 4090 и 4080? Ведь на народных картах типа 4060 (надеюсь цена будет хоть как-то приближена к реальности) включение DLLS3 не даст всех преимуществ этой технологии потому что карта будет и так загружена как верно подмечено на DTF.
сразу сказал, что в статье не все прям идеально, но суть, думаю, передана вполне хорошо
@@gerkonyoutube Верно, просто решил свои 5 копеек внести, какие моменты не очень понравились там)
К слову, киберпанк теперь и на стимдек работает... Оказывается так можно было...
Щя начал plague tale requiem проходить - графон уровня 2017 год (анчартед 4, хорайзен выглядят не хуже, а фпс в 2 раза больше) , ресуросов жрет что ни в себя...
Зато атомик харт нормально оптимизирована - а че так можно было?
Когда мне начинают затирать про "раньше", я отвечаю: раньше в лаптях ходили =)
ахаххахаха - 4090 показалась, поздравляю с железом.
пс. продолжил просмотр, заранее лайк поставив )
Взял 3080 под fullHD монитор и всё вправо, потом на 2к мониторе попробовал DLDSR и теперь с 4к моником всё выглядит потрясающе, в GTA5 как заново поиграл, а думал как старовер, что для игр 2к за глаза хватит)
Посоветовали твоё видео посмотреть про линейку 40+, и ... просто приятнее было бы, если бы я смотрел на тебя, а не на геймплей.
Не знаю, какой характер носит твой канал, я так понял что-то про колду или иже с ним (вообще не играю в шутеры, и в онлайн), но тут просто сидел и смотрел именно на тебя, на твою реакцию когда ты говоришь те, или иные слова, и было интересно (ведь по эмоциям можно сразу понять, как человек относится к тому, или другому), и в маленьком экранчике это было смотреть просто не удобно.
А так, мимокрокодил, спасибо за видео, всё по пополчкам + сам работаешь в этой сфере, а личный опыт. как говорится, всегда приветствуется.
Лайк, естесвенно.
P.S. пошел по каналу, интересно стало что да как, и сразу натыкаюсь - 12400vs12700, а я тут как раз думаю брать 12900... просто как-то... Подпишусь еще пожалуй.
P.P.S. дошел до момента dls 3.0 и киберпанка.
Прям недавно видео смотрел, уже не помню кого, но чувак очень здраво рассудил - смотрите, у них был ведьмак 3, и они делали его с забегом наперед, и сейчас он смотрится всё равно хорошо. Без модов, не ремастеред, а даже оригинал смотрится то очень бодро, круто. Конечно, 10 летнюю игру вы сейчас не будете нахваливать но блин... ей 10 лет! 10! и они на своём движке создали невероятную картинку, которая без всяких скайрим модов смотрится и сейчас хорошо.
Да, каюсь, сам хотел взять 144 гц монитор, и плевать на 2-4к, но твоё видео изменило мой взгляд на этот вопрос. У самого 2060 Super.
Не думаю обновлять видеокарту в ближайший год-2 точно, но даже так, я просто ради прикола после того, как ты сказал, что можно играть как в 4к на говно мониторе в fullhd, пошел, поставил параметры, и...
Теперь я хочу, блин, 4к монитор, потому что я наконец то понял, зачем же он нужен. В чем разница была, и хорошо, что популярно объяснил, в чем разница между rtx и без rtx. У меня очень многие знакомые тоже сидят на rtx, и типа такие - ну, и в чем прикол? Я что, в лужи эти смотрю? Оно же и раньше было так.
Сделай небольшие прям вырезки, и заливай как шот-видео, или как это тут называется, чтобы до людей дошло, что - оно там не всё вот так, как ты думаешь.
P.P.P.S. Namaste, но ты тут как раз всё проигрываешь в какой то онлайн игре, я хз че это. Но это было печально.
Всё верно сказал, герыч. Согласен с тобой. Про дилдо как-то пропустил новости, надо тоже попробовать. Спасибо за рекомендацию. 😂
Со всеми этими мыслями про длсс живу последнее время и единственный человек который мыслит так же это ты, я серьезно, я даже удалился со всех гиг чатов и групп, меня не понимают и не слышат, вечные споры, какая то секта блеать… когда мне говорят что длсс и фср это аналоги, АНАЛОГИ!!! Я хочу человеку глаза выдавить ахахах
Про физикс, кстати ещё могу добавить: я сегодня переустанавливал дрова на видяху и он там идёт отдельной строкой! А на счёт RTX лучей: они не только облегчают работу разрабам, но и реально делают картинку более живой! Вам любой профессиональный художник или фотограф скажет, что освещение - это большая часть успеха картинки! Так всё что мы видим, это отражённый свет от поверхностей. И если он не искусственно создан, просто точечно распихан по углам, а есть реальное глобальное освещение, с отражениями и перломлениями, то конечная картинка всегда будет выглядеть более живой и настоящей. Если вы не видете разницы, значит вы счастливый человек, значит вам для счастья просто нужно гораздо меньше, а я вижу разницу и мне нужны лучи и всё остальное)
Я уже беспокоится стал, что пропал человек с экранов радара!)) С возвращением!!))
Запоздалое - "Поздравляю!". Сам купил 4090 ZOTAC GAMING AMP Extreme AIRO на релизе и такого плавного рабочего стола я ещё не видел XD
Но, если без шуток - эта херовина для VR - самое то!
А насчет задержек DLSS 3 FG - надо включать Reflex и ставить лок ниже Vsync кадров на 3-9, тогда задержки очень низкие становятся. Если, конечно, фпс не прыгает туда сюда супер сильно.
@Gerkon, с новой матерью ждём хороший тест-разгон через BLCK, благо - она могёт =)
Да было бы что гнать, через bclk 🙂
такой вопрос, ты говоришь что лучи это не технология для апа картинки, а технология в первую очередь для упрощения разработки и что будучи игра построена полностью на лучах ее было бы проще разрабатывать т.к. меньше нагрузка на человека, но сейчас ведь нет таких игр которые по умолчанию идут ТОЛЬКО на лучах... получается наоборот что разработчик тратит полный запас времени на разработку обычной версии графики, а потом сверху еще и допиливает возможность использования лучей, получается тратится даже больше времени разве нет?
Геркон спасибо за видос, все по делу) Ждемс следующих видео)
Спасибо боатишка, как то даже спокойней стало! Психолог из тебя вышел бы хороший👍🙂
Спасибо за видео со здравым мнением, ждём обзор 5800x3d
Чуж . В ред деад редемпеш 2 консольный порт не для пк. Который ужат в 720п в фул хд. Там не видно деталей не потому что там нет 4к. Просто выставляя 4к ты компенсируешь этот недостаток. Да и игра не очень детализированная. Ты зайди в комнату и присмотрись к деталям. Они довольно всратенькие, это даже как человек без синдрома ваномаса говорю. Там мало полигонов и мыльные текстурки. В некоторых играх есть преимущества, которые можно заметить только в 4к, но таких игр пока крупицы на самом деле. И это далеко не ред деад редемпшен 2
Благодарю за твою честность и прямоту)
Привет земляк. Поздравляю с покупками!
DL-DSR - это ВЕЩЬ. Без неё никуда. Сам сижу на Full HD телике, но при этом везде, где возможно, использую DL-DSR + DLSS. По производительности нативные 1080p примерно на уровне DL-DSR 1,78 (1440p) + DLSS "качество", а вот качество изображения с апскейлом всегда заметно лучше. При использовании DL-DSR 2,25 (1620p) + DLSS "качество" еще лучше результат выходит, но тут уже производительность снижается немного. Моя 3060 не везде вывозит. Но если бы видяха была помощнее, я бы всегда использовал DL-DSR 2,25 + DLSS со своим Full HD ТВ.
С DLSS ещё такая фишка, что файлик, отвечающий за его работу (онивсегда находится в папке с игрой) очень легко заменить. Подверсий DLSS 2 очень много вышло. Некоторые более удачные, чем другие. Так вот, если подобрать "правильную" подверсию, то результат при апскейле при помощи DL-DSR выходит значительно лучше, чем при нативном выводе.
Плюс, сообщество при помощи модов научились прикручивать DLSS к тем играм, где он отсутствует. Например, в демо RE 4 Remake прикрученный DLSS работает значительно лучше, чем FSR 2.
Ещё Nvidia не так давно представила метод сглаживания DLAA. Это как раз для тех, кто не хочет апскейлить. Потеря в производительности от активации DLAA на картах серии RTX весьма скромная. Так что его точно имеет смысл использовать, если мощности карты вам не хватает для апскейла через DL-DSR.
Очень понравилось разрешение 3440 на 1440 (21:9), широко, удобно.
Нормальных 21:9 мониторов в 4к пока нет =/
для этого и существует dldsr ;)
Все правильно говоришь! Полностью согласен👍
*20:50** - у тебя самого какой моник?*
*Я играл на 4К 27" 60 гц и также на 27" 2К 170 гц (оба IPS)*
*И плотность пикселей такая в 4К, что она избыточна для обычного расстояния 60-90 см от монитора. А вот при любом мувинге (движении) камеры, всё вокруг мылит, т.к. фпс низок 60-70...*
*В нейтив 2К фпс будет в той же игре около 130-140 и ppi = 110 на 27 дюймах.*
спасибо ! давайте про 4к мониторы. Что взять дешевле Samsung LS27AG5 ? и что взять лучше Samsung LS27AG5 ? почему VA всё ещё блюрит, и сколько стоит хороший VA/IPS
У меня asus strix 4090 , коннектор на второй день , начал лед сигнал гореть , дело не в картах а в том , что только эта стрикса может уходить в почти 650 ват , соответственно качество этих коннекторов , кто держал в руках тот понимает, очень плохое, а особенно переходники на 4 коннектора, которые сходятся в один маленький 16 пин . Немного что-то перегнулось или надломалось , соответственно нагрузка начинает идти по остальным проводам , что при 600+ ват создаёт нагрев , того стриксы так много замечены в прогарах 16пин
Вернулся, ураааа!!
Срочно требую стрим с реактом на новое большое разоблачение бригмана, там прям мякотки много хорошей :)))
на счет лучей мы видим как в атомик харт легко лучи добавлять))До сих пор нет дорабатывают)
Круть, у тебя 4090, растекаюсь в улыбке, сижу как лох завидую, со своей 3080, счастлив за тебя))
Честно говоря, мне и с 3080 было норм) Так приятно, когда человек просто радуется за тебя, а не начинает писать завистливые гадости. А я счастлив, что у меня есть такие зрители! 🤝
У меня кстати есть старая GTX280 от палит, которой уже больше 10 лет и она до сих пор у брата работает.
Никто сейчас не играет в 720p или 480p, большинство играет в 1080р, пусть и на минималках, но не ставят 720р разрешение, чтобы выставить настройки графики побольше. Все видят разницу между HD и FullHD. Соответственно и с 2к и 4к так будет. Нужно только подождать, пока народ пересядет на новые мониторы и новые видеокарты. Уже довольно активно пересаживается на 2к мониторы 12,44% (+1,27%), а 4 к мониторы только у 2,73% людей. Большинство же сидят пока на FulHD 65%.
VikOff согласен с Вами. Вышел ролик
Такое ощущение, что ролик больше похож на оправдывание каких либо взглядов и догм..
Молодец чувствуется искренность 👌
Есть в окружении моем человек который насмотрелся всяких ВИКоФФов и теперь бьет себя пяткой в грудь мол покупать можно только АСУС СТРИКС и МСИ СУПРАЙМ!!! У них компонентная база качественная!!)))))))
Для себя выбрал вариант 4K@60fps, купив 2080Ti в 2019 году. С тех пор на другие разрешения уже никогда не слезу.. но и в онлайншутаки не играю, поэтому 144 герца монитора до сих пор у меня нет. Сейчас продаю 3080Ti и буду брать 4080
В 144 герца даже котиков скроллить в интернете приятнее. Без шуток, я аж офигел, когда увидел.
4080 после 3080Ti?
@@ek2who да, прирост 30% с доплатой 40 тыс и карта новая, и dlss3.. 4090 слишком дорогая
@@Viktor_Barinov 130к напрямую у Ozon.
@@ek2who для меня Озон существует только для покупок мелкой и дешёвой ерунды. Их гарантию за гарантию не считаю. Сталкивался и не только я.
Ну вот теперь после этого видео, ремонтяш, точно купит себе rtx 4090 ;) поздравляю с покупкой)
2 месяца назад пересел с 1080 на 1440. ну да покрасивее, но прям "вау" эффекта не было. у жены 1080 моник я за ним спокойно работаю. на работе вообще 720 квадратный, но так же за ним работаю и блевать не тянет. киберпук я прошел в 1080 на низких настройках с 1050ти с длс 1.0. 2 раз прошел его на ультрах в 2к и ниче особо не заметил я. По прежнему считаю, что 3060 или даже 3050 или 6600хт за глаза всем хватит. По прежнему считаю, что на данный момент 4090 - вытягивание бабок.
Так уж и всем хватит? Мне, например, не хватает. Мне и 1080 не охота и меньше 144 Гц не хочу =)
При таком раскладе мне и 3080 не хватало. Сейчас 4080 стоит в компе, 1440p и 180Гц. Вроде более мене играбельно. Пока 4к моник не куплю...
Всё по полочкам. Молодец👍
Интересные мысли про разрешение в играх надо признать
Ламповое. Приятное. Спасибо))
С обновкой! Ваще, 4000 линейка по качеству значительно лучше, чем 3000. Отказались кажись (не видел, не слышал) от сдвоенных фаз (реальное зло). И в целом всё работает, так или иначе. Топовые версии будут тише и гнаться лучше, но стоит ли оно того? С красной стороны, 7900xtx не так стабильно. Референсов бракованных уже кажись и не осталось, но референсы ваще не гонятся из-за питания. Asrock phantom gaming - очень горячий мусор. Высокие лимиты питания, слабый охлад. А остальные нормально сделаны, хорошо.
Спасибо! В 40й линейке все так же, фазы у всех сдвоенные. В некоторых моделях еще и строенные попадаются.
Теперь новый тренд в разрешения играть)))
вижу геркона - ставлю лайк!
Спасибо за ролик, покушал пельмешек с удовольствием и поздравляю с обновками :) Свою 3080 продал?
Продал. За полчаса улетела)
Про мониторы 4К - а ничего, что на всех видеокартах nVidia, включая 4090, стоят устаревшие порты HDMI и DP, которые не способны без сжатия передавать 4К в 144 fps и выше? Лично я предпочту более высокую герцовку, а не более высокое разрешение. Поэтому для своей системы с 4090 и 13900к я использую монитор QHD 165Гц. Ну а разницы в качестве графики между 4К и QHD на мониторе я не замечаю, разве что шрифты в 4К меньше и их хуже читать)) Почему не использую FullHD? Потому что на 27 дюймах в FHD я вижу пиксели экрана, а на QHD - нет.
50-я обещает самый сильный скачок производительности) Хотел 40-ю брать тоже, но пожалуй пока на 30 до 50 подожду)
Полезный ролик благодарю. Только по поводу разрешения 4к, dsr, dldsr я лично вообще никакой разницы не вижу с 2к хотя все это уже перепробовал видимо я слепой или еще, что не знаю :)
Хм, даже не знаю почему...наверное какие-то особенности зрения. Зато на видеокарту дорогую тратиться нет необходимости)
Сама технология длдср дает детали и отличное сглаживание в играх где нет длсс. Но для фулхд достаточно 1,78 и получить 2к. А для монитора 2к включить также первую ступень
@@gerkonyoutube Ну я себе 4090 взял и во все проекты с RT играю и вижу сразу разницу, а вот с разрешением вообще не выкупаю разницы, как и с высокой герцовской к слову.
Я правильно понимаю, чтобы мне почуствовать этот ваш некст ген, мне нужно взять 4к монитор, видеокарту за 100+к, топовый проц, чтобы видяха не простаивала. памяти хотя бы 32 гига? То есть "немыльная" картинка мне обойдётся больше, чем в 200 тыщ.
И не забывай менять видюху каждое поколение для 4к. А потом 8к подъедет.
Ну про FullHD когда-то примерно то же самое можно было сказать. Это лишь дело времени. Суть видео же не в том, что все должны купить 4090 и 4к моник.
Ну да, так что забей.
Ты так говоришь, как-будто 200 тысяч это большие деньги =)
@@Mishanya_sibiryak 😭
Great work buddy 👍
В КП77 длсс даёт блики солнца такие, что хоть глаза выкалывай. И вот на 40ой серии можно в 1440р поиграть просто с ФГ. На максималках без лучей будешь иметь не 60 кадров, а 95. Артефактов ты не увидишь. Задержки управления нет (киберкотлеты заметят разницу с ФГ и без, но они её заметят даже там, где её нет).
Т.е. технология просто имба. Единственный минус - если свернуть игру, то из-за ФГ она вылетает. Лечение простое - нажимай эскейп перед сворачиванием экрана (т.е. при остановке игры в меню ФГ не работает).
Когда попробуешь эти новые технологии, то назад уже не хочется. Но чтобы иметь такое трезвое мнение - это надо самому пощупать, а не смотреть на блогеров, которые ноют про шину (хотя спустя полгода они про неё уже не вспоминают).
Хорошее и интересное видео 🙂
Здравствуй Gerkon, дождались тебя. Можешь высказать свое мнение о генераторе кадров, протестить технологию на народных герцовках: из 30-40 получить 60-75, померить при этом задержку. 4090 тяжело загрузить на 99%, но борода прохайтек говорит что при этой загрузке генератор теряет кпд и даёт небольшой прирост. Вообщем нужно твоё профессиональное мнение, в свое время благодаря тебе познал технологию dldsr и научился включать её в играх сони и любой другой)
я в описании к этому видео ссылку оставил на хорошую статью, по этому поводу. Там и замеры есть в т.ч. Для нормальной работы генерации кадров, без конской задержки, нужно от 45 фпс примерно что бы было.
Досмотрел видос) Статью читал ранее = со многим не согласен. Пока генератор выглядит как технология которая минусит в отзывчивости геймплея чтобы сделать картинку плавнее. Только вот говоришь в кибире всё в край и 120 фпс вместе с фейковыми кадрами, а если грамотно выставить настройки, возможно немного потеряв в качестве картинки и получив 120 процессорозависимых кадров = будет лучше? с точки зрения геймплея? Надеюсь амд выпустят аналог и сам попробую... но складывается ощущение что если у человека моник 60-75 гц, то генератор не нужОн
@@АнтониониАнтон Для генерации кадров нужно фпс от 60+, что бы не ощущать пьяную мышь(инпутлаг, ватность,большой отклик на отзывчивость управления). Но есть одно но, если ограничиваешь фпс в игре(ну просто потому что надо для джи синха\фрисинха или просто не хочешь что бы видюха работала в холостую выдавая ненужные 200+ фпс), то ограничивтаь надо строго в дровах видюхи, не риватюнером! ДЛСС3 от риватюнера ломается почему то и начинается дикий инпутлаг, фпс показывает 150+, а по факту 30.
Купил 4070ти до апгрейда проца. В ведьмак 3 в Новиграде 10400 захлебывается и выдаёт 30-35 фпс, включил длсс 3, получил 80-90 фпс(вроде так, может больше, просто я сразу ограничил на 60). Задержек по сравнению с нативными 60 фпс (около замка барона проц позволяет вывести 60+ кадров) не заметил. Инпут лаг не ощущается
@@B1GN1ck как при изначальных 35 фпс инпут лаг может не чувствоваться?! Ну и 4070ти к 10400 сомнительное решение... Ну и 35 фпс в ведьмаке 3 = честно = смешно) Нужно разрабам клавиатуру засунуть в одно место, только засовывать её не в доль, а поперёк...
Тем временем киберпанк, на том же движке, идет на стимдек... Оказывается так можно было
Я был не прав, когда писал про воду. Норм видео. Вступление смутило сильно.
Да все нормально) Я практически всегда общаюсь в начале с постоянным зрителем. Новым это не сразу заходит. Но, в тайм-кодах же написано в начале "Приветствие, вступление (вода)". Можно промотать, если что)
Браво кросавчег рассказал правду матку !
*20:00** - поспорю, лучше 2К 240 гц или 2К 165 гц, чем 4К 120 гц. и тем более 4К 70 гц*
*Про мыло в движении ты совсем забыл? Фото в статике в игре смотреть пришёл или играть?*
*8К Красивые пейзажи можно и из гугл скачать.*
побольше видео товарищь!!!!!!!
Ну ты и жертва Хуанга
Лучше быть жертвой Хуанга, чем завистливой душнилой 😎
Привет, Геркон ! 🌞😉👍
Доброго, солнечного, счастливого дня всем ! 🌞😊👌
По-дружески я рад тебя видеть.🌞😉👍
Я поздравляю тебя с обновлением видюхи до RTX 4090 и материнки,
- от всей души ! 🌞🙏👍
Пользуйся на здоровье, - тебе на радость, зрителям на мудрость !
Так это очень сильно поможет тебе в производстве твоего классного, здравомысленного, компьютерно-юморного, полезного, умного контента.
Я рад, что ты продолжаешь глаголить истину, про устройство компьютерных деталюшечек, и нюансы работы с программным обеспечением.
Крепкого здоровья тебе и огромных успехов.
Спасибо, друг!)
@@gerkonyoutube По-дружески, - всегда пожалуйста, дружище !
(Когда есть такая возможность ! 🌞🙏👍)
За здравомыслие благодарю тебя я ! 🌞🙏👍
Геркон жив, и даже, невсётакпросто не чмoбилизиpoвaн! Это уже достижение.
Герконыч ну ты конечно прав, надо брать RTX 4090 и 80 дюймовый 4К 120 герц ТВ, и садится в метре от него, что бы рассматривать все вены и прыщи у глав героев, ну или на реалистичный ручеёк в RDR2 смотреть!
Использую 4к Олед 55" 120Гц с 2019года вместо монитора и желания менять на чтото другое до сих пор не возникало.
@@monstr3282 Хорошо, а как эта модель называется и в каком магазине её можно купить?
8к, 4к прошлый век 😂😂😂
А, что, второй раз поставить лайк нельзя!? 😊
Спасибо!
В декабре приобрел 4090 Game Rock обычную бес OC, пользуюсь не нарадуюсь. Использую через родной переходник, никаких нареканий к карте нету, работает как часы. С разъемом 12vhpwr все отлично. В играх потребление в среднем 300-350 ватт, карта в стоке. Только Portal RTX и Киберпанк 2077 могут загрузить ее на максимум 450 ватт. Температура чипа 63-64 градуса, хот спот +10. Вертушки даже на 50% не крутятся. В общем отличная карта
сделай андервольт, будет кушать максимум 200-250ватт и холодная.
@@КАВО2 да и стоковые температуры устраивают, не вижу в этом смысла, карта бесшумная практически а 63 градуса впринциппе нормально считаю, после 1080ти где 80+ были
С 4к и dlss всё понятно, спасибо. Теперь HDR остался, оно нам надо? Вот бы так же доходчиво.
Для полноценного hdr нужен хороший экран, с яркостью не менее 1000 нит. Все они дорогие весьма. То, что есть в дешёвых не работает как положено. Кроме того, в некоторых играх, hdr реализован коряво изначально. А вообще хорошая штука)
Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают
Хотелось бы услышать твоем мнение, про G-Sync, так как года 3 назад, купил моник от Asus, с этой технологией, 165 Герц, 2К, 27 Дюймов и матрицей IPS. Теперь вот присматриваю также с G-Sync, но уже 4К и тоже 165 либо выше, с матрицей IPS, но уже хочу побольше, 32 дюйма (G-Sync есть разный, хотелось бы твое мнение)
Многие понимают, но не могут себе позволить, вот и подгорает.
Как-то давно немного переделывал локацию "Затон" в в X-Ray, а там есть вариант пробной компиляции без просчета теней от источников света для пробы игры в локации, потому что без света локация считалась примерно час, а в конечном качестве могла и больше суток, так вот:
Естественно без правильных теней игра выглядела так себе, к примеру прямоугольник стены на самом деле из двух треугольных полигонов, верхний треугольник кирпича был к примеру светлый, а нижний строго по диагонали был той же текстуры и темный, цилиндрические предметы вообще из-за разницы казались с треугольными вырезами и т.п.., НО немного побегав для проверки введенных изменений, я даже не сразу заметил, что зрение адаптировалось, и все тени и даже рейтрессинг стал рассчитываться в голове.
Возможно это не у всех, возможно для этого надо было детстве играть в деревянный кубики прибитые к полу, представляя, что это танки и корабли...
G-Sync апаратный слишком дорогой всё равно,если у тебя 4070-4090 то хватит любого имхо.
Какой монитор выбрал?Тоже ищу 31.5-34 дюймовый 4К с G-Sync
@@Neuromancer2023 пока не выбрал, сейчас использую ROG SWIFT PG279Q, купленный 3,5 года назад
Вот хотелось бы по качеству не менее худший, но в 4К и 31-32 Дюйма. Раз уж брать 4К, то побольше 😄
"Про 4К, про DLSS, RTX и разрабов полностью согласен, хорошо, что озвучиваешь это! Многие не понимают "
И ты не понимаешь.
Разрабам от RTX только головняка больше.
Сейчас у разработв RTX и так есть, они строят сцену и потом на мощных серверах запекают освещение и тени через RTX.
И дальше уже не нужно это тестировать, ты сразу видишь как оно будет выглядеть в любых условиях.
Да после прогона RTX рендера, кое где будут косяки с освещением, и нужно будет поставить доп. источники невидимые, это своего рода полировка.
А вот что бы RTX работал кореректно в реальном времени у игрока, нужно расставить все те же источники, нарисовать все те же модели, только еще и протестировать множество различных комбинаций, расположения источников света, предусмотреть разрушаемость объектов и источников света.
Т.е. примерно та же самая работа что и перед рендером с запеканием в текстуры но только с гораздо большим количеством неизвестных.
Уже лет 10 как весь свет и тени в играх считают через RTX а не художники руками, художники если что и делают так это правят косяки RTX, точнее косяки сцены которые выявляет RTX рендер.
Да полный переход на RTX уберет из пайплайна разработки рендеренг на RTX фермы с запеканием в текстуры, это сэконосит какое то время (но не человеческие ресурсы, так как это все автоматически проиходит).
Но в целом все последние движки уже и так дают возможность предпросмотра в реальном времени, пусть и в пониженом качестве, так что достаточно каждую ночь делать полный рендер, а в рабочем процессе использовать RTX предпросмор.
Но в то же время это сильно повысит требования к проработке сцены, так как теперь уже художник не контролирует что именно увидит игрок, могут быть разные настройки (разное качество), разные условия (разбили источник света, принесли новый, разбии стену, загородили окно другим объектом) и.т.п.
Уже не получится просто подрисовать тень там где по замыслу хуждожника нужна более мрачная атмосфера, нужно будет настраивать свет как это делают операторы при съемке фильма.
Вообще RTX и Запекание можно сравнить с Живым фото и обработкой фото.
С живым фото (RTX рендер на стороне игрока) если ты хочешь что бы у твоей модели не былло тени под носом и в морщинах, ты ставишь отражатели, подбираешь температуру света и т.п.
А вот в фотошопе (запекание в текстуры) ты можешь не особо заморачиваться а нарисовать как тебе нужно.
При RTX будет часто такая ситуация что например хочется что бы на барной стойке отражались цвета неоновой вывески, но очень сильный свет с потолка портит эффект, тогда ты делаешь свет слабее но тогда темно в баре, и особенно в дальнем углу, тогда тебе нужно поставить источник света еще и туда.
Запекая в текстуры ты можешь просто обработать результат, добавить насыщенности, поднять контраст и все.
Да и смоделями персонажей могут быть сложности слементами экипировки котоыре отбрасывают тень, или особенно с лицами.
@@stasbabakin1028 для сингла, а особено игр от сони, нужно брать 43.
Я вообще не понимаю как можно через эти 23 дюймовые форточки играть в игры типа детройт или хоразен...
Да я бы даже 55 поставил но места нет.
Соевновательные, там да запаришься головой крутить :) Для них что то до 32 брать
Был монитор 4к 60 Гц. Хотел 144 Гц. Взял квадшд 144 Гц. После 4к картинка на нем такая стремная, что пришлось продать и опять взять 4к.
У меня примерно такая же история, но обратно на 4к менять не стал, благодаря dldsr. Картинка буквально чуть-чуть хуже чем с нативными 4к, зато 144Гц
Из всех игр в которые играл с DLSS, артефакты и явно бросающийся в глаза гостинг видел только в War Thunder. Но там DLSS первого поколения вшит. Так что не удивительно. В играх с DLSS второго поколения нужно прям целенаправленно сидеть и искать косяки. Разве что во время релиза игр могут быть явные артефакты, когда дрова ещё допиленные не вышли. Но их можно и без DLSS вагон и маленькую тележку найти. На то и слово такое мерзкое "релиз" =D
А я и в Тундре никаких гостингов не вижу в 4К. Они, вроде как, уже давненько на вторую версию dlss перешли
@@gerkonyoutube Есть там гостинг, но иногда, от самзиков на днях видел и от антен танков.
@@gerkonyoutube буквально месяц назад играл и был гостинг у падающих деревьев. Причём жёсткий, размазывало листву к чертям, словно это артефакты. Ну мне и DLSS не нужен был, т.к. игра и без него отлично идёт. Просто ради интереса запускал. И это не единичный случай. А систематически происходило. Запускаю с DLSS. Сбиваю в бою деревья. Раз в несколько сбитых деревьев происходит гостинг. Т.е. повторяемость присутствует. Отключаешь DLSS. Всё в норме. Локации использовал одинаковые для сравнения. Может конечно это был баг. Всё-таки на 100% утверждать не могу, что это гостинг от самого DLSS.. Но наблюдал данную картину два патча подряд, с момента покупки RTX 3060.
@@MrJB327 да я тоже не спорю, но играю иногда именно с длсс, чисто из-за лучшего сглаживания и как-то не замечаю каких-то проблем с картинкой 🤷♂️
@@gerkonyoutube значит это был просто баг
Самое главное, чтобы дросселями не свистела, а так можно брать самую дешевую, темпы +- у всех одинаковые)
Ответь почём взял?
На Авито купил за 120К без предоплаты или по предоплате?
Купил 4070ти длсс3 просто пушка
Буквально вчера купил монитор 31,5" 2к 165гепц, и как оказалось на нем есть 4к, но только 60герц. При этом везде, даже на оф сайте написано только 2к. Интересно, это на всех подобных мониторах с VA матрицей, или мне так повезло?
Что за модель?
@@DearLittleSable Acer Nitro EI322QURP
th-cam.com/video/N9HGN68zWK4/w-d-xo.html
Ты тут путаешь: "Не будет" и "Вы не заметите".
А точнее, эти просадки заменятся на артефакты.
DLSS3 хорошо работает там где и так все хорошо, просто позволяет рисовать повыше цифру. С таким же успехом на g-sync мониторе можно играть и в 40 и в 60 к/с и все будет плавно.
DLSS3 спасает в 2х случаях:
1. VR
2. VSYNC
По сути все сводится к тому что если к выводу кадра на монитор, кадр не готов, то будет выведен предыдущий, это мы и расцениваем как отсутсвие плавности, так как в этот момент FPS как бы падает в 2 раза, если такое происзодит не часто мы не замечаем, если более регулярно то замечаем уже как неплавную картинку.
А отклчюать VSYNC не кто не хочет иначе в такие моменты будут разрывы на изображении которые вообще не приятные.
И вот тут выручает DLSS3 так как тепрерь у нас картинка для вывода всегда есть. Но опять же это работает только на высоких FPS где мы уже не воспринимаем 1 кадр.
На тех же 40 FPS ошибки в предсказании очень заметны (т.е. DLSS нарисовала один кадр, и он кривой что само по себе плохо, потом приходит от видеокарты нормальный и это еще хуже на контрасте с первым).
Ну и понятное дело что на input lag это вообще никак не влияет, он будет по честному FPS. При этом 144 мониторы нужны как раз для того что бы максимально снизить инпутлаг.
А так получается, что в синглы и на 60 можно играть (там вообще все анимации заточены на 60) а в мультик от DLSS3 толку нет.
Плюс кадры от DLSS3 выведутся только тогда когда не будетр реального кадра для вывода.
Так что 120 кадров DLSS3 могут смотреться идеально на 60гц мониторе, если игра способна выдавать 50-65 кадров настоящих. При этом те же 144 к/с на мониторе 144 гц при реальных 50-65 к/с будут сыпать артефактами.
Поэтому если уж говорить о том что "я не вижу артефактов" то нужно говорить и о том какой реальный FPS и какая развертка.
Напрмиер:
Игра выдает 55-65 кадров, монитор 75 с G-sync /free sync
Лучше выбрать честное отобржение кадров на g-sync, что бы исключить артефакты.
Игра выдает 65-80 кадров, монитор 75 с G-sync /free sync.
Тут я бы предпочел DLSS3 так как большую часть времени будет выше развертки монитора, и DLSS3 кадров будет мало, что не даст артефактов, зато позволит максимально использовать герцовку матрицы.
(input lag будет одинаковый что с DLSS3 что без него, что касается плавности то уже 40 и 60 с трудом можно оиличить, 60 и 75 нужно прям приглядываться и уже замедлять, а выше вообще смысл толкьо в понижении input lag, чего опять же DLSS3 дать не может)
Сам являюсь обладателем 4к144гц монитора, и в том же киберпанке без dlss в режиме производительность , моя 3080 не выдает достаточное количество кадров. Но покупка именно 4к была оправдана тем самым эффектом детализации картинки, про что и говорил Геркон. З.ы. планирую теперь продать 3080 и купить 4080.
Да лучше подождать 5000 линеку
@@morti.96 тоже об этом задумываюсь, но хочется сейчас и здесь, а не потом и когда-нибудь.
@@dmitrynewman6591 Если хочется, то надо брать, хз сколько нам всем тут осталось.
@@КАВО2 недолго уже, смотрел Рен тв, там сказали - или вулкан бахнет, или метеорит прилетит, но точняк - мы фсе умрём.
Купил карту 4080, а монитор 2560*1080 60гц, вот думаю перейти на 4к, вопрос стоит ли брать 144гц или 60 хватит? В кс-ы не играю, так киберпанк, атомик, и т.д.
Тут такое дело, мож кто сталкивался/шарит.. Испытываю бесячие мгновенные ни с того ни с сего статтеры (буквально возьмет и проскочит пик на графике нормального фреймтайма) в РДР 2 и Форзе Хорайзен 5, может в чем то еще, не догоняю, почему так. Грешу на сами игры/движок, однако уж больно идентично их поведение.. 10700f, 16gb Балики, 3070ти
Ну и ждем видево про VR) Донамекался)
Думаю, проблема может быть в драйвере от нвидиа, за последние годы постоянно сталкиваюсь с нестабильностью с их стороны
А в чем заключается потеря производительности при андервольте? Если ты подберешь для той же частоты, на которую буститься карта в стоке меньшее напряжение
согласен полностью Геркон!Сам часто сталкиваюсь с топ картами и асус стрикс одни из самых проблемных , начиная с писка дросселей ВСЕГДА заканчивая дохлым охладом с заводе где 3090 греется до 100 градусов Чип и вертушки на 100 процентов,а все из за битых трубок.Конечно дешман тоже умирает часто,но тут никто не застрахован,переплата большая чаще всего того не стоит
Не знаю, что не так со Strix, может сейчас Asus днище позорное, но 20 лет назад он был заебись и все другие рядом не стояли😂
Не то что бы я считаю Стриксы ненадежными, но Асус несколько оборзели с ценами на них. И не факт, что в итоге с картой все будет збс. Была бы доплата хотя бы в пределах 20 тыр., еще куда ни шло, а в случае с 4090 надо 60 тыр вывалить, в сравнении с Палитом. Сомнительная переплата. Но, если деньги не проблема, я бы от Стриксы не отказался)
Хм... разрабы специально мылят картинку, что покупали 4К мониторы? Это как вводить задержку ввода-вывода, чтоб покупали крутые карты. Так, погодите-ка... Очередь кадров не для этого ли придумали?
Привет геркон!
С обновкой тебя)
Длсс не заходит мне, ни в рдр ни в пауке ремастере. Текстуры перерезкие и детальность самих текстур падает, да и вообще без сглаживания играю, лучше детальнее видеть в нативе, а длсс только если реально с фпс проблема
Привет, мужик! Спасибо!) Вот мне самому интересно, почему одни люди воспринимают картинку с длсс так, другие иначе. Если конечно это не касается каких-то проблем со зрением. У меня, в этом плане, все четко, но я не вижу никаких перерезкостей, артефактов и подобных неприятностей. Наоборот, выкручиваю, как правило, резкость DLSS почти в максимум. Может на каких-то мониторах конкретных такой эффект возникает, хз..
@@gerkonyoutube У меня хуавей 3440х1440, в рдр включаешь когда длсс он заодно и таа врубает и листва на деревьях превращается в лопухи, особенно на дальней дистанции, и качество на дальней уже заметно падает. Да и как будто зрение падает с длсс, какая то мутная пелена на весь экран. Проблем со зрением нету.
Подскажите 4070ti для игр в Full HD, будет достаточно?? Ну и на счёт мыло на Full HD, тут всё зависит от монитора, сижу с монитором Dell на IPS матрице, всё даже очень огонь!
будет, карта под qhd
Не перестаю восхищаться адекватности этого блогера. Герконыч не пропадай надолго, ты незаменим в этой технопомойке.
А может дело не 4k а в PPI монитора? Про длсс 3 смотрел тесты и тестеровщик пищал что вот видите 3090 38 кадров а в 4070 больше 60, а по факту и там дергается (стробит) изображения, да хоть 1000 кадров нарисуйте, толку то (вот прям бесит)? тперь я должен оплатить 4090 чтоб разрабу легче и быстре разрабатывалось и потом это гавно я и еще дороже купил? Согласен капиталисты красавчики убедили. Вопрос не в заговорах, а в честном прогрессе, а не всратом маркетинге. Нет хлеба, кушайте пирожные (это здравый смысл) ? Феррари не гавно, но не надо мне ее впаривать под видом семейного авто? Лучи хорошо и длсс3 очень крутое профессиональное решение, но оплачивать чью-то жадность извольте.
А и последнее когда там уже лучи допилят без длсс в 4K и 144 кадра, еще лет 5 и вот точно будет оно или там очередная технология подъедет и мы опять лохи у нас все в мыле?
Просто комментарий для поддержки. Спасибо за контент.
Хоть кто то🎉 спасибо за адекватность
👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍