Пропусти 10-минутное вступление в видео на 1,5 часа, если биржи горят. Таймкоды - тоже зло, как и длсс с прочими маркетинговыми технологиями злых корпораций?
Он этого и не говорил, а пояснял за глупышей, которые не смотрят видео и испражняют свое важное мнение, не посмотрев, прям как ты в своем комментарии. А так же ты в любом случае нажатием одного своего пальца можешь перемотать
"Популярном на тот момент разрешении" при обсуждении 1440p (2K) в 2014 году? При таких темпах популярности, к сегодняшнему дню 8К было бы золотым стандартом...
@@costea. 1440 - это 2.6к, потому что, если следовать вашей логике, 1080, при 1920 пикселях в ширину, должно называться 2к, хотя недобирает 80 пикселей
Посмотрел фул видос. В былые года, когда "топы не тянули игры", хотя на самом деле тянули, и это видно даже из этого видоса, никто не обещал 4к гейминг с лучами и всем прилагающимся. В комплексе картинка Far Cry 5 выглядит прекрасно и условная rx 580 тянет игру шикарно в нативном 1080, в отличии от современных или шумных или мыльных вариациях настроек игр. Хотелось бы на примере общего восприятия игры в рамках требований к производительности услышать - что такого настолько крутого насыпали в современных проектах, что "Far Cry 5 даже и рядом не стоял". Уточню, что конечного пользовательно мало интересует какими алгоритмами считается трава на земле или листочек на дереве. Важно лишь комплексное восприятие графики, а при х4 требованих к железу оно не воспринимается в 4 раза приятнее/реалистичнее. Беда как раз в том, что апскейлеры теперь предлагаются не как опция для улучшения производительности на старом железе, а являют собой необходимость в дополнение к новому железу. Тем не менне, я согласен, что DLAA и TAA отличне варианты сглаживания, на порядок лучше остальных. Однако в современном геймдеве это играет злую шутку; и как мы все можем пронаблюдать на опыте ААА проектов послених пары лет - все они подразумевают использование апскейлеров априори. DLSS/FSR/XeSS позволяют разработчикам откровенно класть большой болт на оптимизацию игр как впринципе (в меньшей степени), так и (в большей степени) для разных конфигураций систем на которых они запускаются. Условный ведьмак 3 в 900р на низких настройках выглядит более чем приемлемо относительно 1080р. Запустите любую современную ААА игру в 900р на низких сейчас...)) Откровенно поржал над двумя последними сегментами видео с названиями "а имеет ли смысл играть в нативе?" и "720upscale против реального 720p", когда автор рассматривает эти разрешения на 7ми дюймовом экранчике портативной консоли, где как раз присутствует оптимизация под конкретное железо. Тут даже сказать больше нечего) Так же хочу заметить, что раньше мы просто запускали игры и играли, особо не вдаваясь в подробности того как работает тот или иной метод сглаживания. Теперь же мы как сообщество бесконечно обсасываем вопросы апскейлеров и сглаживания (интересно с чего бы это). То есть по сути современный геймдев утрированно предлагает нам 2 стула - шумы+ступеньки или мыло+гостинг. Каких-нибудь 6-7 лет назад, кто бы мог подумать, эти вопросы не то что не возникали - даже не выносились на обсуждение. Интересно почему?) PS: Даже не смотря на то, что трава в кадре дергается, это не рассмотрение работы любого из вида сглаживания в динамике, где восхваляемые, хотя все еще более предпочтительные TAA и DLAA явят зрителю дополнительный ряд компромисов, о которых в видео не упоминается)
относительно отличий с FarCry 5 - это системы динамического глобального освещения. Они очень тяжёлые, но и дают хорошее качество картинки. Это так не объяснить в комментарии, нужно делать либо видео, либо на стриме отвечать на вопрос. Что касается апскейла и игры в натиме, я на 01:34:43 даю конкретный список пунктов, который, при его соблюдении, даст возможность найти баланс между сглаживанием, производительностью и чёткостью на любом экране, не только 7 люймов в портативке. Под портативку, кстати, никаких оптимизаций не делают. Максимум в некоторых играх есть пресеты настроек, но их можно и самому подобрать. По поводу проблем сглаживания я говорил на стриме и рассказал в послендем видео в секции про DLSS. Я бы и рад уместить всё в один ролик, но тут столько аспектов, что в одно видео не получится уложить все знания, которые есть по этой теме. Я бы мог сделать видео более полным, я уже позже понял где именно, но ролик и так получился на час сорок, поэтому....
Я вот одного не понимаю, а автору что поста на DTF, что автору этого видео, вообще знакомо понятие - прогресс? Типа тыкать в старые игры и говорить что мол как же так, топ карта, и 30 фпс, и это HD. если не ниже, вы чего про 4к ноете, это разве адекватно? Прогресс где? А то я ведь так же легко могу ткнуть в телефоны на заре выхода с стоимостью больше косаря баксов за штуку, в которых камеры нет, а сейчас за косарь баксов у тебя что? Медиакомбайн, 4к экран, ПК, телефон, фотоаппарат, игровая консоль, да вообще ВСЕ, за за куда меньший с учетом инфляции прайс, сколько новых технологий, возможностей, мощностей - не перечесть просто. Ничего в голову не стукает? Тогда было нормально играть в 25-30 кадров и HD, а были времена когда и меньшее разрешение было стандартом, потом стало FHD, теперь настала эра 2/4к. И ровно так же с фпс, какие вообще 60? Стандарт должен быть выше, 60 это то что с оговорками было доступны ОЧЕНЬ ранее, есть смысл говорить про 120, и МИНИМУМ 60. Где была эта простая мысль когда автор этот ролик делал? Почему мы должны смотреть на стандарты 10, 15 летней давности, и потом говорить да, чет мы зажрались? Да нет, не зажрались, требовать от 4060 4к@60 фпс в нативе конечно глупо даже сейчас - но карты выше уровнем, учитывая прогресс, доступность и качество даже хай герцовых 4к мониторов, обязаны это обеспечивать, что они чаще всего не делают, от чего люди собственно про это и ноют. Причем процессоры, что забавно, которые идут +- в ногу, из за конкуренции такой проблемы решены - какой нибудь i5 7400 с учетом инфляции стоил ДОРОЖЕ 12400, который является его полным аналогом в линейке, почему я про него вспомнил? Ну потому что это примерно временные рамки те же что между 10 серией зеленых карт и 30/40. При этом что у нас происходит? 12400 в хвост и гриву без каких либо шансов обходит топ того времени 7700K, лучше ВО ВСЕМ, во всем ли лучше 4060 чем 1080ti? Ну да, лучше очень во многом, но память где например? Где приросты как между 12400 и 7700K прямой производительности? Нет конкуренции - зато есть ценники и совсем не впечатляющие приросты, можно разве что топ выделить, в лице 4090. По поводу DLSS бтв база, DLSS - это в любом случае лучший вариант оптимизации, относительно снижения разрешения или порезки настроек, а под по TAA автор как то так себе прошелся, косяков у него вагон и тележка, и дело даже не в самой технологии, а как раз в теме ролика, типа разрабы забили болт на оптимизацию, вот как раз очень многие на его норм настройку действительно забили, он гостит, он мылит, и это просто отвратительно, при том что игры с его хорошей реализацией, даже прекрасной вполне себе существуют. Ну и бтв графика тоже отдельный вопрос, тоже ведь все просто, раньше проще относились к 30 фпс в крайзис 1, он выглядел прорывным, и для этого обычному игроку вовсе не нужно было знать про технологии которые там использовались, было ПОНЯТНО почему у тебя лагает. А сейчас? Сейчас мы еще во времена ps4 подошли к такому уровню картинки, что при грамотной работе художника это УЖЕ реалистично и красиво, хоть в глубине это сплошной обман и костыли. И получается что время идет, игры стали выглядеть лучше, и намного, это правда, но чем дальше - тем это менее заметно обычному игроку, это логично, чем ближе к фотореализму, тем меньше заметно каждое небольшое улучшение. При этом расчётов и тяжелых технологий для того самого НАСТОЯЩЕГО реализма надо много, но обычный игрок не будет говорить вау с того, что у него появились лучи которые ему фпс х2 сажают, потому что он видел как грамотные разрабы путем ручной работы, изобретательности и смешивания кучи более тупых алгоритмов получали картинку конечно хуже - но выглядящую не в 2 раза хуже, как у него сейчас фпс падает. Игроку пофиг что там лучики теперь реально обсчитываются, свет настоящий РЕАЛЬНО, а не фейки, его волнует итоговый результат, его НЕ ДОЛЖНО волновать что +1% к реализму обходится тяжело и дорого, его должен волновать и волнует лишь итоговый результат, как там оно все внутри работает - вообще не важно, это не его проблемы. И то что каждый шажок на самой вершине все сложнее и сложнее - не оправдание для потребителя, ему то что с того, что графика апнулась с 78 до 83% до фотореализма, это 5%, на уже высокой базе, это слабо заметно, и совершенно все равно что эти 5% требуют ресурсов как все 70 до него суммарно.
1. Про "прогресс" "Типа тыкать в старые игры и говорить, что мол как же так, топ карта, и 30 фпс..." Ты говоришь о прогрессе, но забываешь, что прогресс - это не просто увеличивающиеся цифры. Вспомни, как выглядели игры 10-15 лет назад. Да, мы играли в 30 FPS, но это было на картинке, которая даже близко не стояла к тому, что мы видим сейчас. Прогресс в графике идёт семимильными шагами, и это требует ресурсов. Если ты хочешь 4К при 120 FPS, будь добр понять, что современный уровень графики этого требует. Или играй в пиксель-арт на 60 FPS и не ной. 2. "Где стандарты? Где 60 FPS?" "60 это то, что с оговорками было доступно ранее, есть смысл говорить про 120, и МИНИМУМ 60." Во-первых, стандарт в игровой индустрии формируется не абстрактными "хотелками" игроков, а возможностями технологий. Если бы все делали упор на 120 FPS, то: Ты бы не увидел современной графики. Игры были бы абсолютно одинаковыми, без художественных экспериментов. И давай не забывать про баланс между платформами: консоли, ПК, облачные сервисы. Производители игр оптимизируют под массовый рынок, а не под тех, кто хочет RTX 4090 за свои 2000$. 3. Сравнение с процессорами "12400 в хвост и гриву обходит 7700K..." Сравнение процессоров с видеокартами некорректно. У процессоров и видеокарт разный цикл развития: Процессоры решают задачи параллелизма и оптимизации базовых вычислений, это более "понятная" и "массовая" технология. Видеокарты работают с графикой, где каждый шаг приближает нас к фотореализму, что требует всё больше ресурсов. Сравнивать прогресс между этими двумя вещами - это как сравнивать прогресс в производстве велосипедов с ракетостроением. Да, один продукт дешевеет и становится доступнее, а другой остаётся дорогим и сложным. 4. "Игроку не важно, как работает RTX" "Игроку пофиг, что там лучики обсчитываются..." Конечно, большинству игроков всё равно, как это работает. Но такие технологии, как RTX, - это огромный шаг вперёд. До трассировки лучей мы пользовались "фейками" в освещении и отражениях, которые выглядели хуже и были менее реалистичными. RTX - это не про "сейчас", это про будущее. Сегодня это дорого и сложно, но через 5-10 лет такие технологии станут стандартом. Тебе не кажется странным, что ты сейчас требуешь прогресса в FPS, но отрицаешь прогресс в графике? 5. "Требовать от 4060..." "Требовать от 4060 4К@60 FPS в нативе глупо даже сейчас..." Ну так в чём проблема? Ты сам признаёшь, что технологии не успевают за ожиданиями, но при этом продолжаешь жаловаться. Хотите видеть 4К@120 FPS - платите за топовое железо. RTX 4060 - это средний сегмент. Почему ты ожидаешь от неё производительности уровня 4090? 6. "Графика стала лучше, но это не заметно" "Игры стали выглядеть лучше, но это менее заметно обычному игроку." Ты сам же отвечаешь на свой вопрос. Чем ближе мы к фотореализму, тем меньше скачки в графике заметны. Но это не значит, что прогресса нет. Это просто означает, что для достижения мелких улучшений требуется гораздо больше усилий. Тебе бы понравилось, если бы разработчики остановились на уровне PS4? Если да, то почему ты вообще рассуждаешь о прогрессе? 7. "Игрокам не должно быть важно, как работает графика" "Игрока должен волновать итоговый результат." Это справедливо, но ты противоречишь себе. Если игрока волнует только результат, почему ты требуешь 4К@120 FPS? Это тоже "внутренние проблемы", которые должны волновать разработчиков, верно? Тогда радуйся тому, что дают, или неси деньги за новое железо. 8. "Нет конкуренции" "Нет конкуренции - зато есть ценники." Согласен, конкуренция в графическом сегменте действительно слабее, чем у процессоров. Но это связано с технологическими ограничениями. GPU - это более сложная и узкоспециализированная отрасль. AMD старается составить конкуренцию NVIDIA, но из-за меньшего бюджета это получается не так эффективно. Итоговый ответ: "Чувак, ты вроде говоришь о прогрессе, но сам противоречишь себе. Ты хочешь 4К@120 FPS, но отрицаешь технологии, которые ведут нас к этому будущему. Если тебе не хватает FPS, настрой графику или купи железо мощнее. А если хочешь стабильности и оптимизации - играй на консолях. Прогресс всегда идёт медленно, особенно на вершине, где каждые +1% требуют огромных ресурсов. Так что хватит ныть, плати за технологии или смирись с тем, что у тебя есть." 😎
@zoofi12007 до этого освещение тоже использовало ртх, просто он запекался в карты освещения. Ртх сейчас улучшает только отражения (ценой огромного количества фпс). Я считаю, что для отражений можно создать менее требовательную технологию, либо реализывывать их по старинке костылями. Проблема развития современных технологий заключается в том, что они направлены не на улучшение картинки, а на сокращение расходов для компаний. Тот же ртх и нанит, тебе больше не нужно расставлять освещение, создавать лоды, подумаешь что теперь проект не тянет у людей, главное расходы сократили, разработка ускорилась, доходы в карман
Чувак какого лешего ты решил сравнить 12400 и 7700к? 7700к это процессор, который за 6 лет прогресса нарастил 25% производительности по сравнению с i7 2600k, и его разгон до 4.7ггц спокойно уравнивает их производительность. То, что 12400 на несколько голов лучше 7700 это не столько показатель прогресса нынешних процессоров сколько показатель стагнации процессоров тех лет! И второе, видеокарты не умеют в универсальные вычисления, и добавление каждого блока вычислений стоит отдельных денег, что же ты тогда возможности в работе с нейросетями и трассировкой у 4060 и 1080ти не сравнишь?)
@zoofi12007 "RTX - это не про "сейчас", это про будущее. Сегодня это дорого и сложно, но через 5-10 лет такие технологии станут стандартом." - карты 20 серии RTX вышли в сентябре 2018г. абы как уже 6,5лет прошло. те-же байки, насчёт того что "лучи будут скоро нормой" рассказывали уже тогда. Лучи не будут нормой. Хватить мечты выдавать за действительность
Претензия к ТАА 1) при низком или нестабильном количестве кадров любое темпоральное решение не успевает улучшать изображение, оставляя артефакты "призрачных следов", замыливания и кубичности. Это усиливается в движении. 2) в каждой игре по разному работает темпоральные сглаживания и масштабирования, ввиду чего в одной игре он выглядит хорошо даже в движении, а в другой - нет. 3) многие игры используют по умолчанию временное масштабирование в качестве временного сглаживания, в результате сглаживая не только края алиазинга, но и вполне четкие текстуры, которые становятся размытыми, особенно в движении. 4) картинка при любом временном решении успевает рассыпаться в движении и нестабильна. Особенно это портит файтинги. 5) некоторые элементы в играх разрабатывают с использованием методов дизеринга и иных приколов, которые дают лучшее качество исключительно в темпоральных решениях. Например рендеринг бороды и волос в рдр2 без таа или масштабирования ужасен. 6) люди хотят видеть сырые пиксели. Они хотят резаться о края и получать картинку в том виде, в каком она выводится на экран без бикудических залуп и временных решений. Это не значит что таа плохо. Это значит что человека лишают выбора. Сравнивать сглаживание в статике глупо, кстати. Нужно сравнивать в движении, в катсценах и прочих вещах. Банальное движение камеры без сглаживания в игре не позволяет увидеть весь ужас алиазинга, ибо в движении он незаметен
Вообще проблему лесенок бесполезно пытаться решать костылями типа 100500 сортов сглаживания. Любое сглаживание неизбежно приводит к мылу. Корень проблемы лесенок - в плотности пикселей абсолютного большинства мониторов. Я не знаю почему все делают вид что не замечают этого, но главная же проблема в том что 99,9% мониторов имеют пиксели размером с собаку и физически не способны изобразить диагональную линию не превращая её в лестницу. Наверное, современные технологии уже должны позволять засунуть 2к матрицу в диагональ 20-23 дюйма, чтобы плотность пикселей была ну хотя бы больше 120. При такой плотности пикселей без всякого сглаживания любая картинка будет выглядеть в сто раз лучше чем с любым сглаживанием но с плотностью в 80-90 пикселей на дюйм. А если совсем размечтаться и пофантазировать про монитор с плотностью пикселей больше 250-300 на дюйм... Так чтобы индивидуальные пиксели вообще не были видны невооружённым глазом... Тогда ведь можно отказаться от всякого сглаживания вообще, оно просто не нужно. И даже с использованием апскейлинга можно будет получать супер чёткую картинку без любых лесенок, при этом полностью отказавшись от сглаживания. И одновременно это высвобождает какую-то часть вычислительной мощности непосредственно на создание картинки вместо попыток размазать её так чтобы замаскировать лесенки.
На телефонах уже больше 15 лет 300 ппи является просто стандартом, в современных топ мобилках стоят панели на 400 или вообще 500 ппи. Почему мониторы застряли на 90-100 ппи? В самых топовых 4к панелях максимум 150-160 ппи. Ну это просто морально устаревшие технологии.
@@Chastity_Belt потому что телефоны иначе не продать, надо что то подвысpaть в виде преимущества почему нужно купить новый телефон) А на моники все забивают болт, люди до сих пор на full hd не все перешли, чего уж там про 2к или 4к говорить на маленьких диагоналях. Есть шакалы которые на 27 дюймах в full hd сидят, ну это смешно. У меня 21,5 дюйма на full hd и то глаза режет, а им на 27 збс.
@@jackstone4815 нет, потому что на телефоне плотность пикселей ниже 300 выглядит просто отвратительно Монитор хотя бы находится на каком-то расстоянии от глаз, индивидуальные пиксели не так различимы, телефон же ты держишь очень близко потому что он маленький, ты иначе ничего не увидишь на маленьком экране если смотреть на него на вытянутой руке, поэтому на телефонах высокая плотность пикселей - это необходимость И в принципе если бы не игры, то на мониторах низкая плотность пикселей не была бы такой уж существенной проблемой, в винде сглаживание интерфейса и шрифтов уже триста лет назад было сделано, ещё на висте или может даже на хр
@@Chastity_Belt да так и есть, но чтобы нативно большое разрешение рендерить это такая нагрузка сумашедшая и что то надо было придумать вот и апскейлеры пришли на выручку
1:03:25 Стоит отметить, что тут однобитный альфа используется, поэтому и появляется шум на листьях. Если бы разработчики использовали соответствущие мипы для альфы - таких проблем с шумом бы не было ни при каком сглаживании. То есть тут косяк разработчиков. Дальше вы сравниваете DLSS и DLAA на статичной картинке, но проблемы у них проявляются именно в динамике, когда происходит активное движение в кадре и сетка не может правильно рассчитать векторы движения. Обычно всякие сетки и решетки очень плохо работают вплоть до мерцания.
я специльльно взял кадры с растительностью, которая мало того что двигается, так ещё и состоит из альфа-текстур с очень тонкими линиями. Это очень жёсткая нагрузка на алгоритмы как сглаживания, так и повышения разрешения
@@SelectFrom Нагрузка - это когда прозрачные объекты. А тут прозрачных нет, все тестом глубины отсекается. Подойдите а этой сцене поближе к текстуре, листьев. Чтобы она на полэкрана была и посмотрите на ее края и края полигонов. Интересно как они выглядят при разном сглаживании. Что-то мне подсказывает, что только в нейронных и темпоральных методах будет сглаживаться текстура, в остальных только края.
8:06 Как говорится - не нужно быть поваром, чтобы оценить вкус яичницы. Если архитектор принял безграмотное с точки зрения пользователя решение - то пользователь может высказать все что об этом думает, так как именно он в последствие пользуется безграмотным решением.
может высказать мнение, о результате, но не выкладывать его в интернет со словами "всё неправильно, кирпичи и болгарки - это всё развод на доллары, а математика - это маркетинг", чтобы продать услуги инженеров
@@SelectFromвыкладывая ролик на общее обозрение расчитывать на адекватное мнение. Это уже у авторы проблемы. Беспокоят комментарии, тогда отключи их. Это интернет. Тут как и в реальной жизни могут на Х послать. Нужно просто адекватно к этому относится.
@@kotmurzilkin6380 ну если б мою яичницу оценивали, я бы сказал "не нравится не ешьте, готовьте сами". То есть пусть сами создают видеокарты, делают под них игры, оптимизируют. Это общество потребления, они только "оценивать" могут, сами палец о палец не ударят.
Хах, если б мою яичницу так оценили, я бы сказал "не нравится- готовьте сами". Посмотрел бы я как эти "ценители" создали бы видеокарты и игры для них. Чтобы что-то "оценивать" нужно быть компетентным в этом вопросе, а не простым потребителем.
@@sanchas8943 потому что ты не выкладываешь на всеобщее обозрение свою яичницу. Так бы узнал, что надо было использовать куриные, а не свои личные и еще много чего интересного и нового.
Некоторые люди забывают, что ещё со времён Сеги Мега Драйв и СНЕС в некоторых случаях использовался один "прадед" апскейлеров под названием чересстрочная развёртка, а с приходом полноценных 3д консолей стал использоваться ещё чаще. И никто не бухтел особо почему-то
Хм, хорошее дополнение. Чересстрочная развёртка, кстати, была ещё и средством для решения проблемы ограниченной пропускной способности тогдашних телевизионных каналов вещания
сейчас бы в 2025 ровняться на времена динозавров, типа деды терпели и мы терпеть будем? а в палеозое корешки с говном ели, так что жрите только хлеб, хлеб лучше корешков, нельзя требовать пирожных, так что ли
@@reionami5983 брат, идея в том, что сделать уловки чтоб не рендерить в честном нативе были всегда, что позволяло при ограничениях железа больше выделить ресурсов на производительность либо на остальную графику. Да, сейчас 2025 (с наступившим кстати) и каждому времени свои технологии. Чересстрочка была очень хороша под методы изображения ЭЛТ телевизоров, потому никто не терпел, все играли и кайфовали, да с приходом ЖК данный способ в играх потерял актуальность потому что интерлейсинг стал более заметным, и вот через такие этапы как ТАА, шахматный рендеринг и т.д. мы пришли к нейронному апскейлу, я понимаю что первые версии могли отпугнуть и родить скепсис из-за повсеместного гостинга и дизеринга, но отрицать прогресс в подавлении этих артефактов глупо, но некоторые скептики продолжают и продолжают это игнорировать
Оставил коммент почему я не согласен про "времена динозавров", но при обновлении страницы он почему-то перестал отображаться. Хз что ютуб с ним сделал, потому попробую пересказать. Каждой технологии своё время, с чересстрочкой все комфортно играли потому что технологии формирования изображения на ЭЛТ ТВ позволяли хорошо работать этому способу. Как только стали популярны ЖК, то артефакты интерлейсинга стали более заметными и от частого применения чересстрочного режима в играх быстро отказались. Сейчас же мы через такие технологии как ТАА и шахматный рендеринг пришли к апскейлу с помощью нейронок. Первые версии давали массу гостинга и дизеринга, потому я понимаю тогдашний скептицизм, но видно, что производители работают над подавлением этих артефактов, а скептики это продолжают игнорировать. Но суть в том, что поиск способов с меньшими визуальными потерями не рендерить картинку в "нативе" это старая тема, разработчики рады с помощью этого освободить часть ресурсов, чтоб потратить их на более заметные улучшения графики или улучшение производительности.
Я когда в 2010 на своей GTX 480 запускал тех.демку с трассировкой и у меня один кадр более-менее рендерился за час, я был уверен, что в ближайшие 25 лет трассировку в играх мы не увидим точно, но нвидиа приятно удивила.
А дело в том, что человек из Nvidia близко к тому периоду времени публично говорил о невозможности трассировки (в реальном времени) в обозримом будущем. И может, уже тогда, в то же самое время, Nvidia уже что-то тестировала и разрабатывала
так её и СЕЙЧАС нет ;) ПОЛНОЙ трассировки лучей НЕТ. Есть "сурогаты" с ограничениями и в пределах очень УЗКОЙ части отражений/переотражений. Полную трассировку сейчас так-же как и раньше считают на "процах"(куда-ядрах) и кадр уже высчитывается за 15-20 секунд. ОДИН кадр. только трассировки.
@@chveyk ну хотя бы такая неполная трассировка есть. Это явно лучше, чем её отсутствие. Особенно учитывая, что уже сейчас разница с обычным рендером отлично видна даже в тех же отражениях.
@@Qwertyuni "в тех-же отражения" разница была видна задолго до введения "лучей хуанга" ;) Причём раньше отражения были ЛУЧШЕ! Да и про "обычный рендер" не стоит забывать - "люмены" и "наниты" могут сделать то, что не могут лучи хуанга :D Просто нужно научится их использовать. А не тупо накидывать из "пресетов"(как в ждалкере2)!!!
Посмотрел - понял одно: мыло и какая-то там темпоральная стабильность - ЭТО ШЕЕЕЕДЕЕЕВВРРР!!! по мнению автора. У меня такой же шедевр в глазах спросонья каждое утро, когда фокус не сходится, или по пьяни, когда все плывет в глазах...
Да я бы не сказал. Смотря в каких играх и на каких движках. Например, такие проекты как Remember Me и Enslaved на UE3 были весьма богаты на статтеры. UE как был, так и остался самым дерганным движком. Тут, по сути, ничего не изменилось. Некоторые игры на UE3 даже больше заикались, чем более новые на UE4/5.
@@КаменьДагестана ты чё, задача HL2 - рассказывать, какие были крутые отражения без RT. А то, что там эти отражения могли запустить 3 с половиной колеки и отражались там пустые холмы с подзагрузками, это ничего не значит.
Главное это была плавность игры, без всяких ФПС-ов, просто по ощущениям. Так и говорили с друзьями - при таких-то настройках картинка дёргается и нет плавности. Сколько ФПС никто не знал тогда.
Бред. Всегда тем, кому нравились и кто разбирался в железе и играх, стремились к 60+ фпс. П.С. Ты о "ПК боярах" двухтысячных только по былинам наслышан?😂😅😂
Показывать качество картинки временного сглаживания на практически статичной картинке это сильно. Проблема любого апскейлера или та, наличие артефактов в движении объектов. Чего стоит гостинг в РДР2. Вообще, реализация любой технологии зависит от разработчиков и их компетенции. Отрицать преимущества апскейлеров и та глупо, но так же глупо отрицать, что порой картинка без них порой выглядит лучше. Получается, истина где-то посередине
Так картинка не статичная же. Напротив, там много растительности и она двигается, что означает неизбежное появление артефактов дизокклюзии. Кроме того, это ещё и очень сложные сцены из-за растительности, потому что это очень мелкие и движущиеся объекты. Я не просто так именно Crysis взял
@@SelectFrom все же камера практически не двигается и множество объектов практически статичны (кроме травы). В видео стоило добавить рдр 2 в сравнения сглаживания. Без ТАА или FSR, листва и деревья выглядят ужасно (как волосы и мех у Майлза). Но гостинг гривы лошадей и прочие мелкие объекты в кадре руинят картинку
Рдр2 это пик ужаса темпоралки(чего стоит натуральный блек смеринг, прям как на вашках) и к такому ужасу большинство темпоральных методов и не приблизились. Длсс последний вообще практически лишен(я гонял с ним на элтшнике, у которого гашение люминафора меньше 1 мс. Не увидел никаких проблем) траблов с гостингом
1:23:02 Просто посмотрите на куртку. С ТАА не видно структуру ткани, там просто черное месиво, а вот с SMAA (и скорее всего в нативе без АА тоже) куртка выглядит отлично. И это я еще на телефоне смотрел. Длсс не таким мыльным мне показался (сравните на 1:23:53), но надо смотреть на хорошем мониторе. Лучше уж волосы будут мерцать, чем ТАА. К спецам вопрос: нельзя ли ТАА применять только к волосам и эффектам (как бы локально или рендерить это дело отдельно), а всю картинку не портить? UPD. Глянул на большом мониторе, всё выглядит еще хуже, чем я думал. Почти все эти кадры статичны и в них всё норм, но когда чел двигается в кадре, сразу видно отвратное мыло от ТАА. Когда вы будете играть, у вас картинка будет ещё динамичней, чем на этих кадрах, и ТАА навалит мыла.
О применение TAA локально к волосам и ответ конечно же можна но ето требует больше усилий от разработчиков. Можна даже просто хорошо реализовать свой TAA глобальный, который буде очень неплохо смотреться, но просто весь вопрос в деньгах. Намного проще зделать универсальное решение которое и так сойдет. Unreal Engine тому пример, там много всего заточено на использование TAA без вариантов использовать что-то другое, просто потому-что ето хорошое решение для Fortnite, а небольших розрабов устраивает то что и так есть, не будут же они нанимать команду график програмистов ради небольших улучшений в качестве.
Здравствуйте! Досмотрел до 20й минуты) Вопрос: ранее видел 1 ролик про 8к гейминг (примеры были на телевизорах с HDR) и вопрос - могут ли апскелеровй DLSS 4 или AFMF3, XESS 2.0 на RTX 50.. вытащить хотя бы на средних настройках в 8к ? Почему спрашиваю. Ранее, вреди коротких новостей, наткнулся на мнение одного из разработчиков No Man Sky - что многих игрокам только предстоит увидеть красоты игры в 8К. Он был ответственнен за проработку игры -для новых будущих Playstatoin.
Относительно 8К - пока совершенно нереалистичный сценарий для игр, по крайней мере новых. Старые будут работать нормально. Если брать новые с трассировкой лучей и тем более пути, то там даже в 4К плохо уже, что говорить про 8К. Игры без трассировки запустить в принципе реально с DLSS на топовых картах
На тему DLSS, то есть фактора - 4к разрешение и огромные локации. Я лично считаю, что использование больших открытых миров - это расточительство в использовании ресурсов, но на это есть запрос со стороны игроков, потому что 100 часов игры не запихнуть в маленькую локацию...и на эти 100 часов есть запрос. Мало кто помнит, что Crysis можно было пробежать за 9-10 часов. А что это значит?! То что разрабов ждет колоссально большой объем работы, и следовательно нужно думать как это все упростить. И какой вопрос одних из самых сложных вопросов? Освещение! И вот недавно вышла игра про Индиану Джонса, где авторы просто всё освещение на основе RT, и игра имеет великолепную оптимизацию. Но людям многим не понравилось, что для игры нужна видеокарта моложе 6 лет. Знаете что вы бы запустили 6-тилетней видюхи в 2007-ом?! Явно не Crysis.) 4к к нам пришло с консолей...да на консолях шахматный рендер и т.д., и да далеко не у всех 4к мониторы, но через лет 5 это может поменяться, и уложить в одну игру 4к, RT и большой мир с 100 часами геймплея...тут железом не напасешься, тем более от версии к версии отличить игру с DLSS и без всё сложнее. На тему Crysis...я в 2008-ом собрал современный комп с Core 2 Duo E8550/4гб DDR2 800/GF 8800GTS, и на разрешении 1280x1024 игра шла далеко не высоких настройках и фпс явно было ниже 60, а еще счастье подливала Windows Vista, так как Windows XP не работала с DX10, поэтому стояло 2 винчестера - на одном стояла XP, а на втором Vista. А еще игра не умела в мультипоток, и крутые в тот момент Core 2 Quad просто простаивали. Игра на топовых машинах тогда шла в 20фпс. Создатели игры поняв, что дрочево на графон денег не принесет, и начали упрощать графику в будущих частях, чтобы хоть как-то выпустить на консолях, так как ПК-рынок тогда был значительно скромнее, и пиратство на ней очень процветало. Только студию это не спасло.
Хз, какой там топовый пк, я в 2007 году собрал пк на 775, с дуалкор 2400мгц, 2гб ддр2, в один канал, хдд на 120гб, и гт9600 на 512 мб гддр3, и моник 1280х1024, не каких тормозов, хз я тогда фпс не мерил, но тормозов и рваного кадра не было видно, и я на этой сборке играл до 2014 года, там я поменял материнку, озу, и видюху, тот же 775 но уже на джи 41 с ддр3 4гб в один канал, и гт730 с гддр3 2гб, и 378 куда, и я на этой сборке играл до 2016 года, там докупил ссд, сайта на 120 гб под Винду, еще одна планка ддр3 4гб итого 8, и зеон е5440( самое главное на тот момент), и гтх750 2гб, и так играл до 2018 года, там перешел на 2011 х79т, 32гб 4 по 8гб ецц итд, и гтх960 на 4 гб от манли... Ну сейчас ам4, 16гб, райзен 5, ссд м2 240 под Винду , 1тб м2 под игры, и 3058.... Индиану проходил на средних в 35фпс ( залоченных) в 900пи
ННу насчёт 100 часов в игру без больших открытых миров не запихнуть - это ты дал, посмотри в инди-игры, там в подавляющем нет игр с большими открытыми мирами, и игроки там наигровают и больше 100 часов.
@@Dan.Strelok Твой глаз привык к лагам росияснкий колхозник .Лучше бы ты учился ,а не пытался играть на хламе до 2014 года , до первых санкций так сказать
Я человек не богатый, у меня 4060. Я включаю DLSS а картинка становится объективно хуже. Это просто факт. Можно сколько угодно страниц исписать какая это замечательная технология от этого картинка лучше не становится. А вот что очень круто это приложение энвидиа app где можно тыкнуть Alt+Z а навернуть четкость, резкость и т.д.. Это великолепно. DLSS наворачивает мыла. Если без DLSS у меня комп не тянет игру я её просто откладываю на будущее, поиграю когда куплю новую видеокарту.
все зависит от пряморукости разрабов. есть игры (их немного), где длсс2 не портит картинку даже в 1080р. про FG я ничего сказать не могу, ибо в 3000 серии его зажали)
Ниже 60 ФПС играть некомфортно? После того, как я играл в сингле в шутер с одним кадром в две секунды и умудрялся убивать врагов (прям новый жанр - пошаговый шутер). После того, как я играл в онлайновом шутере на модеме 33.6 (килобит в секунду) и мог обогнать собственную ракету из-за пинга. После того, как я играл в ММОРПГ на китайском сервере хилом с пингом в 2000мс (нулями не ошибся) и успешно выполнял свою задачу отдавая команды заранее. После этого всего "плач" про "меньше 60 ФПС" вызывает у меня просто инфернальный хохот. Спасибо, "улыбнули"...
Меня больше прикалывает то, как автор подходит к сравнению производительности при разных разрешениях. Тесты Crysis в Full HD на железе 2007 года, производительность игр 2013-2014 годов измеряется на серьёзных щах в Quad-HD и 4К гейминг на видяхах 1000/2000 линейки, лол. - HD Ready и всё около него было стандартом где-то с 2006-2007 по 2010-2011 год (С GeForce 8000 по GTX 400). - Full HD стал стандартным разрешением с 400/500 поколения и оставался оным до 1000 линейкий. - Quad-HD начал становиться стандартом только в 2017 году, когда вышла 1080 Ti, а Nvidia вместо ежегодной смены поколений стала клепать промежуточные Ti/Super. И пробыл в качестве стандарта до 2022 года, пока не вышло семейство RTX 4000.
А где, позвольте спросить, производительность измеряется в QuadHD в 2013м году? Там тесты только в 1080p везде. Да и у меня то в целом нет претензии к производитльности лично. Это я показываю для свидетелей нативного разрешения и 60+ fps везде и всегда в играх, которые выходили до распротранения апскейлеров
Gt 9600 крайзис 1 на средних 720p 20 - 30 фпс. Тебе нравится? А гта 4 шла на gt 9600 в 1080p с 30 - 40 фпс на высоких. Это так для сравнения, что из себя представлял кукурузис. Благодаря этому он играбелен по сей день, а все остальные "оптимизированные" игры требуют ремастера
@SelectFrom Крайзис в своё время был банальной технодемкой с накрученным визуалом, вообще в этом как раз и состоят обвинения разрабов, что они банально накручивают триллион эффектов и 64к текстуры, мол смотрите как красиво, а потом любая видюха в этих эффектах и текстура захлёбывается. Самое смешное, что зачастую это ни разу не красиво к тому же. Ну либо просто забивают на оптимизацию, ведь у всех же 4090(а ой... уже 5090) стоит, и можно же включить ДЛСС на ультра производительность! (🤡). Пресловутый Сталкер 2 - где там красота? Обычная графика последних лет. А тормозит он жутко, при том что там даже лучей нет. И вот ты в видео приводишь в пример Middle-earth: Shadow of War, в которой нет ни лучей, ни ДЛСС. И в которой визуал может легко соперничать со всеми последними играми. У меня 2060 супер и он идёт в стабильных 60 на фул ультра. При этом многие игры последних 2х лет не имея лучшего визуала, а то и даже худший, тормозят даже на минималках. Например в Elden Ring я не могу добиться стабильных кадров, даже на фул минималках есть места где начинаются лаги, хотя в целом 60 кадров даже на высоких он держит. Визуал в елде никак не на порядки лучше чем в Shadow of War, +/- тоже самое. Вопрос, а в чём проблема? У меня в библиотеке куча игр которые просто откровенно тормозят на ровном месте имея визуал из 2010-2015 года. Это просто смешно.
Это эффект от упрощения технологий, сейчас что бы сделать картинку уровня 2017 года нужно нажать 3 кнопки и забить на всё остальное, раньше что бы добиться такого же результат пришлось бы попотёть, и раз ты потеешь над проектом то понятное дело будешь его улучшать с точки зрения оптимизации. Проблема в первую очередь в игровых движках которые точились так то под 4-8 ядер 2011 года в лучшем случае, ни одна игра 0 игр повторюсь не заточены под те же ССД, да если запустить сталкер 2 на HHD то будет долгая загрузка но игра будет работать нет ни одной технологии которая во первых доведена до ума а во вторых требует тех мощей и тех скоростей который лет 10 и не снились ни то что на консолях а даже на пк но при этом не оправдывает такие требования и на половину. 42 года игровая индустрия училась работать с полу статическими тенями и заранее созданным освещением а так же обманом игрока в плане эффектов, и тут резко модно стало делать всё в реалтайме без обмана, отсюда и проблема, движки и разработчики 40+ лет работали над тем что бы обмануть игрока а не то что бы показать реалтайм графон с RTX, сейчас 2 варианта развития событий, либо игровая индустрия захлёбывается как было с PT на Atari в 80тых, либо кто то из техногигантов придумывает Дешевый а главное быстро-действенный транзисторы которые позволят возложить на себя такие потребности у игр как это было с CUDA ядрами в 2007 году и Унифицированными шейдерами во времена когда пиксельные шейдеры и вертоксные загибались.
То, что происходит с графикой сейчас это просто фантастика. Больше всего удивляет то, что Нвидиа предложили RTX тогда, когда его использование было невероятно тяжелым для карт. Это даже казалось глупостью, а потом начали каждый год выкатывать революционные технологии, которые шаг за шагом приближали рейтрейсинг к реальности. Они ведь не могли прогнозировать развитие нейронок и то, что все так сложится? Сейчас это нейронные методы сжатия текстур и технологии формирования промежуточных кадров, так же на нейронках можно физику предсказывать. Короче говоря, скоро нейронный модуль будет необходим для многих задач. Даже сложно представить куда все это приведет. Как будут выглядеть игры лет через 5-10. Про оптимизацию можно было не снимать ролик. Действительно оптимизация может быть плохой у игр, которые делают только для PC, но мультиплатформа ограничена требованиями плейстешн и X-box. Они обязаны хорошо работать на них, а там достаточно слабое железо. Поэтому эти игры нормально оптимизированные всегда. Исключением был киберпанк, которые имел много глюков на релизе и плохо работал на x-box s. Ну и как результат.. Скандал и его убрали из магазинов консольных. Не помню было ли такое в истории, вроде нет.
Как пересел на 3060 перестал играть в нативе в любые игры где есть DLSS, в нативе 1080р RDR2 мыло, а с DLDSR в 1440р, рендер идет так же в значениях около 1080р т.е производительность остается той же +-, а картинка становится четкой и без мыла
@@KalimN а здест кто-то упоминал фреймген? Мне плевать какие там эти кадры полноценные больные плешивые фальшивые мне пое***ать если игра при этом идёт плавнее нет разрывов и инпутлага мне пофиг как ты называешь эти кадры. Те которые как бы настоящие ориджинал кадры они как бы то же вымысел, их нет, это иллюзия отображаемая на мониторе через видеокарту. К этим кадрам через технологию фреймген игра задействуя процессор докидывает ещё кадры. А представляешь было время когда видеокарт не было , а игры были и работали на процессоре, тогда то же кадры были фальшивые. Так и живём, слабоумная петрушка услышала бред в интырнетах и разносит его по сети.
Я не согласен, мыло есть мыло, а сглаживать можно комбинированными методами для спекулярного алийзинга(изобрели давно, но чтобы внедрить нужны ручки) и SMAA/MSAA с альфа ту ковередж , темпоральную нестабильность можно избегать на этапе разработки (просто избегать некоторые типы текстур). Картинка будет чистая, но куда легче просто впихнуть TAA. Dlss сейчас лютое мыло(CNN мылит, Nvidia сама это показала) жду DLSS4 потестить.
а я засиживался на форуме оверклокерс в попытках разогнать свою 8800GT, чтобы она выдала в крусисе хотя бы 25 фпс вместо 20. Во было время. И никто не ныл, как нынешние тиктокерские зумерки-снежинки
@@PhilosophicalSock так ты и сейчас можешь на оверклокерс сидеть в попытках разогнать свою 4090 чтобы она в нативных 4к не 20 фпс, а 25 выдавала. С каких пор это является нормой? Ныли и тогда, но в те годы прогресс хоть немного шал вперед. Сейчас модно накинуть 10% перформанса, а остальное программно нейронками дорисовать. В прошлом поколении нейронка рисовала 1 кадр, в новом 3 кадра. Но железку купить не забудьте, иначе нужно же новую куртку из крокодиловой кожи на что-то покупать)
@@MrFiacko объясни, что делать, когда физически наращивать количество транзисторов становится уже невозможно? как еще повышать производительность, если не Иными путями? очень интересно послушать, хотя бы фантазии.
с 2017 года сидел на ультразатычке GTX 1050 TI, поскольку был школьником/студентом и не мог себе позволить мощный пк. В прошлом месяце проапгрейдился, также купил новую видеокарту - RTX 4070 и решил попробовать все ААА игры, которые выходили с период с 2019 по 2024 год. Поэтому описываю свой личный опыт ощущения текущих технологий, которые сейчас используются в играх для владельцев таких видеокарт: 1) Ray Tracing - картинка в плане освещения заметно становится лучше по сравнению с отключенной опцией. Оптимизация лучей на картах RTX по состоянию на сейчас - хорошая, с включенным DLSS 3-й версии в режиме качества вы практически не почувствуете падение производительности. 2) DLSS - тут по сути сделка с дьяволом. Вы получаете заметный прирост производительность в обмен на более мыльную картинку, степень мыла зависит от того, что вы выберете и как сильно будете на этом зацикливаться. Я отлично играл с опцией на качество и DLAA, все что ниже - включать не рекомендую. Что же касается других апскейлеров - FSR / XeSS, то как и DLSS все дают примерно одиннаковый прирост кадров, но вот FSR выдает просто ужасную картинку в любом режиме, XeSS дает хорошую картинку, но присутствуют артефакты, есть еще TSR (его я пока видел в Сталкере 2), вот он по качеству картинки и производительности с DLSS или на одном уровне или даже лучше. 3) Генерация кадров - абсолютно не понимаю критики данной технологии, дает просто громадный прирост кадров, но при этом я не заметил каких-то очень сильных артефактов или проблем связанных с управлением в игре. Возможно раньше это так и было, но сейчас эта опция можно сказать обязательная к включению, особенно, если у вас монитор с герцовкой 144 и больше. Я смотрел в интернете как генерация влияет на картинку, примерно понимаю как оно работает, но повторюсь, мой глаз во время игры не заметил что-то такого, чтобы стало причиной это вырубить.
Почему 4080, я не 4090? Ведь 8800 ультра это именно топовая конфигурация, а у 8800 GTX цена была 599 долларов, что составляет 870 долларов в ценах 2022 относительно 2006 года. Кроме того если карта вышла в начале 2007 года или конце 2006 года, то учитывать 2006 год не следует, а следует считать с 2007 года, то есть коэффициент уже будет 1.4 , а не 1.45 , в общем спич про равную стоимость - просто подтасовка фактов. Ещё более странно считать относительно 8800 ultra, хотя сравнение с 1080 ti было бы куда интереснее, но не в пользу мнения автора )) Однако тут автор привязывается к крайзис, так что всё нормально, но всё равно выходит что при сравнении именно топов одинаковой цены не будет. Стартовая цена 1080 ti в ценах 2022 года составляет 825 долларов, у 4090 это 1600 долларов. То есть в контексте сравнения цен разных поколений Nvidia автор упоминает только худшие примеры.
Все посчитал до цента 😅, да топы стали дороже, куртка хочет денег тоже да ... и? И что ты сделаешь? Не купишь? да и Не покупай, голосуй рублем, ... не ной только.
@@Aleksey-vd9oc Так ноешь ты ведь вместе с автором видоса, мол как это юзеры смеют жаловаться на цены, а я указал на явные манипуляции в словах автора. Чё ты высрал - непонятно, кроме как поныть что тут кто-то с автором несогласен ))
Натасовал он с ценами знатно, взял именно 8800 Ultra как самую дорогущую на релизе, она была просто бомбовой на тот момент - первая карта DX10 и огромный отрыв от предшественников, 8800 GTX НИЧЕМ не отличалась от 8800 Ultra, кроме частот, разница в производительности между ними минимальная, 8800 Ultra брали только мажоры которые деньги не считали, для остальных даже не бедных геймеров топом была 8800гтх (точно так же как совсем недавно считались игровыми топами варианты Ti, GTX980Ti, GTX1080Ti, RTX2080Ti и никто не считал игровым топом в этих линейках версии Titan) так что уже само приплетание цены именно 8800 Ultra а не 8800GTX есть подтасовка фактов. Дальше - цены эти довольно быстро снизились после ажиотажа и Вау-эффекта от DX10 и тд, я например не стал брать 8xxx серию и её клоны в 9xxx а купил сразу GTX 280 за 13.5 рублей новую в магазине, тогда это было 400 долларов, самый мощный и не урезанный монокристалл, в полтора раза быстрее 8800 Ultra, единственная карта от NVidia в истории на 512bit шине с моночипом (даже выходящая скоро 5090 с 512 шиной имеет не монокристал а склейку из двух 256 битных чипов), GTX280 была самой мощной картой в мире, до GTX480 было ещё далеко, даже GTX285 (55нм) ещё не вышла, и всё это за 400 баксов из магазина, вы можете сейчас представить RTX 4090 за 60к-70к рублей в магазине ??? Ещё раз: 13.5к рублей новая карта в магазине с гарантией, актуальный ультимативный топ, и 300к рублей за 4090, и автор имеет наглость говорить что цены ОК. Даже если считать что доллар поднялся в рублях Х3 примерно (тогда был около 30:1) и плюс инфляция 1.4 то всё равно 13к и 300к несопоставимые суммы за игровой топ.
@@ivanivanov9734 Упоминания автором цены титана я вообще не понял. Титан вообще никогда не считался игровой картой, нигде особо не светился и существовал в своём измерении. Тут могут сказать мол 90 карты это как реинкарнация титана, хотя это очевидно не так, титаны ближе к линейке Quadro, тот же TITAN RTX на тьюринге имел цену больше 2к долларов, когда 2080 ti стоила 1к долларов. Но даже в этом случае при сравнении хх80 карт с 4080 получается, что последняя стала дороже минимум вдвое относительно прошлых линеек, даже с пересчётом по инфляции США.
*Очень нужное видео.* PS 38:42 - ну вот, кстати, 980ti в 3-м "Ведьмаке", со временем, в нативе стала вытягивать 60 fps в 1080р. *Т.е. оптимизацию таки довезли* - не надо и это со счетов сбрасывать (в ролике локация из нового ДЛЦ, оно тогда только вышло и было очень тяжёлым первое время).
Темпоральные и пост-процессинговые методы сглаживания невозможны без истекающих из их принципа работы артефактов итогового изображения. Смягчение картинки (читай, замыливание) даёт явную потерю общей детализации, в том числе и текстур. Это помимо шлейфов за движущимися объектами на контрастном фоне и прочее и прочее. На реддите даже есть целое коммюнити хейтеров TAA и всяческие лайфхаки по его отключению с кучей сравнений до/после не в пользу первого. Так что семплинг (+его производные) по сути единственный метод без артефактов в статике И динамике исключающий какое-либо ухудшение картинки. Цена высока, но хорошее не бывает дешёвым.
да автор задрал со своим "смягчением картинки" новояз какой то очередной, большинство людей называют это мылом, мыльцом, еще со времен ПС3 и угорают с этого, на пк всегда ценили честное разрешение 1к1, а сейчас и вовсе можно ренедер повышать в настройке игры или через ДЛСР в видеокарте. Почти во всех играх любимое автором "смягчение" картинки с помощью ТАА на самом деле просто в ноль убивает всю детализацию текстур, та же текстура одежды в РДР2 с ТАА просто исчезает, вся игра как пластелин, а вместо тканей с видными швами - гладкий вазелин. При этом трава и волосы сделаны этой сеткой прозрачности, так что тебе просто не оставляют выбора играть без сглаживания, ведь тогда все рябит дизерингом, без которого раньше как то справлялись, в той же гта5 делали волосы спрайтами+полигонами или траву и без сглаживаний ничего не рябило. И ТАА еще очень сильно мылит при движении. И так почти во всех играх с ТАА, потому выходит никто не может ТАА нормально сделать, в сообществе на реддите вся база изложена и там куча пруфов с ДО/ПОСЛЕ где таа это мыло. Играть с мылом как было так и есть удел консольщиков которые в трех метрах от экрана сидят или для портативок, ну или для альтернативно одарённых любителей "смягчения" картинки, которые променивают четкость текстур и полигонов на возможность чуть накрутить теней, блумов, волюметрик туманов, бликов, аббераций
@@reionami5983чел, ты бросаешься из крайности в крайность - или мыло, или четкая картинка. TAA способен дать и то, и другое причём с гораздо лучшей производительностью, чем остальные методы.
@@reionami5983 автор напирает, что дескать грамотно настроенный TAA "это другое", хотя оно принципиально как было слоем мыла, так и будет как ни настраивай. К сожалению, де-факто монополизация UnrealEngine рынка игровых движков будет и дальше способствовать повсеместному использованию TAAU. Нативный рендер отмирает, всё будет на апскейле по умолчанию
@@vladimirotes5470Любое сглаживание мылит картинку. Кроме DL DSR. Нормально настроенный ТАА реально имеет право на существование. За неимением ДЛСС. Артефакты возникают из-за плохо настроенных векторов движения и если разрабы используют слишком много кадров для реконструкции.
15:06 подумаешь 8800 gt вместо ультра и почти одно и тоже с твоих слов, только 8800gt стоила 350 долларов. А потом вышла 9800gtx по цене 299-350 долдаров. А перед этим 7950gx2 ДВУХчиповая стоила 600 долларов. Ой как удобно получилось с ультрой)))
у меня была 8800gt. Помню, как пускал слюни на 8800ultra, и стоила она около 1к зелени. Разница между картами ~25% Ни то, ни другое не тянуло крусис даже в 30 фпс. В чём смысл твоего комента?
Спасибо автору, все видео посмотрел. Первое видео, где все ясно , теперь на телефоне s23ultra запустил эмуль PS2 все отлично, настроил шитую PS Vita в VitaGraphix и GPD Win 4. Везде где можно отключил MSAA, как будто купил новые устройства, на маленьком экране оно в обще не нужно, зато прирост кадров везде ощутимый. Реально на телефоне нормально заработал эмулятор PS2, на gpd win 4 как раз таки crysis 3 Remaster
братва, не смотрите это, не множьте ему просмотры, обычный скам на наболевшей и потому хайповой теме. приведенные аналогии - это не то что теплое с мягким путать - ощутить разницу ты можешь тактильно, посредством одного своего сенсора, а теплое с синим! ты хотя бы одну инструкцию, хотя бы к обычному анальгину читал? ты в курсе что у каждого организма СВОЯ реакция на каждое конкретное лекарство? от банально противоположной - обезболивающее может вызвать боли, до аллергии - а это смерть от асфиксии в результате отека гортани. я уж не говорю о выражении "новейшее": ГОДА(!!!) испытаний на мышах лабораторных, потом еще года на людях и только потом получение торговой марки и выпуск в продажу. равно как и отпуск из аптек: безрецептурные лекарства - это те, у которых шанс навредить минимальный + куча противопоказаний в инструкции. и да: если оно действительно новейшее - поздравляю, его испытывают на тебе. пример со стройкой - такой же издец: люди, что жили в этих домах, по-твоему, сами просили - постройте нам дома из говна и палок, чтобы строительные компании и лоббировавший их чинуша побольше на нас заработали, а мы там потом все умрем, так? или ты говоришь о том чинуше, что на этих стройках заработал - он в этих домах жил?) так же с последующими тестами: в\карта мб и старшая на момент выхода, а что с остальным? приведенные примеры - чепуха низкочастотная, из которых только один проц был подразогнан до 2.93ггц и то там хрен разберешь - что за разрешение, какие настройки? и поверх всего - ну вот там смотрите, там вот фрапс в уголочке на дерганной картинке... жирнющий квад кх9650 вышел за день до выхода игры - где тесты на нем? в разгоне, с жирной комплектухой и прочими радостями "топовости"? кх 6850 - вышел летом 2007, тоже 3ггц в стоке(!) - он где в тестах? если неясно, напомню - в те года софт был однопоточным, и потому главным критерием топовости была частота. и что процы, что - тем паче! - видяхи разгоняли вплоть до "белого духа железа"). а в приведенных примерах я разглядел лишь 2.4, 2.66 и 2.93ггц с непонятным прочим... бл, да тогда уже, емнип, были высокоскоростные рапторы - винты на 10к оборотов шпинделя! СЛИ - тоже не показатель, ибо там могла быть та же проблема. иными словами: при тесте В/КАРТЫ - у тебя НЕ ДОЛЖНО БЫТЬ упора в прочее железо. равно как и в панели нвидии: если там чего накрутить - можно много какие карты унизить, был личный опыт). даже если ты прошаренный юзверь, ты знаешь что и как работает в компе, ты его нафаршировал максимально - едва ли у тебя все обновлялось равномерно. я о переферии. о мониторах в частности. может и хотелось побольше диагонали, но в среднем даже среднестатистические 17 дюймов - это все еще может быть 1024х768. это даже еще не ХД. тут вот еще подумалось: а точно все мы начали играть в крузис в ноябре 07-го? или же до нас, до России, игра докатилась через год? да даже полгода - это уже многое меняет, ибо уже ати хд 4870\ гтх9800+! даже при том же кваде на 3ггц) нет, конечно, если мы меряем сферического коня в эфире - то и у Кармака на момент разработки, емнип, 2-го дума была ЭЛТ-шка на 32 дюйма диагонали, хотя тогда даже матюков а-ля хд или фхд - даже не знали, ибо это ДО миллениума было) исходя из таких аналогий очевидно, что видик - манипуляция: теплое с синим, твердое с децибеллами. ах да, чуть не забыл, мы ж тут про оптимизацию... мне от одного названия видика вспомнилась одна история с игрой, яндере-симулятор называется. кто не в курсе - гляньте видик у Булджатя) а кто в курсе или уже посмотрел - достаточно одного примера: зубная щетка в несколько десятков тысяч полигонов. собственно мне даже всю эту пасту писать не стоило - достаточно вспомнить эту щетку). вот так сейчас выглядит оптимизация в играх. не-не-не, не надо мне говорить про то, как создавалось, кем и сколько людей в штате разработчиков. если только вся игра - это не симулятор разглядывания зубной щетки, конечно же) кстати: в игре той ее даже в руки взять было нельзя, только тс-с-с!))) так вот, игра - это продукт комплексный. не графонием единым. зачем мне, чтобы насладиться игрой, ЗНАТЬ какие вершины вершин были достигнуты в технологиях? или нах... то есть зачем мне эти технологии если именно они НЕ ДАЮТ мне насладиться игрой? как мне осознание величин просчетов каждого лучика от каждого источника света поможет поиграть в лагодром? ЗНАНИЕ ТЕХНОЛОГИЙ мне НЕ ДАЕТ КАЙФА в игре. остановиться и увидеть красоту - ну разок, ну другой, а тормозит и тупит игра из-за этих технологий - постоянно. так нахрена мне тогда эти лучи? нахрена мне тогда мылящий эти лучи длсс? и нахрена мне карта за цену уже не крыла, а целого боинга? развитие технологий - это когда за примерно ту же стоимость ты получаешь больше. в случае с 1000-ми картами от куртки - дешевле предыдущего, емнип. сейчас - наоборот. и никакое знание технологий меня в этом не переубедит.
ДЛСС не всегда лучше натива в 4К из-за гостинга, который нередко встречается в играх. Но я бы сказал, что ДЛСС в 4К лучше нативного 4К где-то в процентов 40% игр, не хуже натива еще где-то в 50% игр, и лишь в 10% игр ДЛСС хуже натива 4К значительно из-за гостинга, мерцаний или прочих артефактов. Это невероятное достижение. И самое интересное, что ДЛСС Производительность в 4К во многих играх выглядит намного лучше ДЛСС Качество в 2К, и при этом потеря ФПС порядка всего лишь 10% (я тестировал 7 современных игр). А это значит, что 4К стало доступным форматом, и теряя всего лишь где-то 10% производительности вы можете играть на 4К мониторе. Даже больше скажу, ультрапроизводительность 4К тоже в некоторых играх выглядит неплохо и вполне играбельно (это апскейл с 720p), а в некоторых играх на Анреал 5 можно настроить апскейл в процентах, что удобно. Единственное, что убивает в играх, это микрофризы и статтеры. Проблема началась не сегодня. Например, в Хеллблейд 1 есть статтеры, и это бесит, когда на 4080 Супер игра 8летней давности имеет фризы. И на форуме Стима жалуются на статтеры с 2017 по 2023 год на видеокартах от 1080 Ti до 4080. И это не исправили, просто забили на это. А в современных играх статтеры просто через одну игру. Это и Dead Space Remake, это и Returnal, это и Star Wars Survivor, это и Until Dawn, это и Wu Kong, это и Silent Hill 2, это и A Quiet Place: The Road Ahead , это и EA WRC 2023. Переигрывал в F1 2015 года, и там оказывается есть статтеры. Жесть. А в F1 2016-2017-2018-2019-2020-2021-2022-2023-2024 не статтеров. Удивительно
Главная проблема современных игр в том, что они на минимальных настройках требуют железо как игры 8 летней давности требовали для максималок. При этом современные игры на этих минималках выглядят ХУЖЕ старых игр, даже если запускаются на значительно более крутом железе. Это означает именно исчезновение оптимизации в современных играх. Новые игры на новых движках для достижения того уровня графики, который был на 8-летнем железе и в играх 8-летней давности требуют железо в 2 раза более мощное. А то и в 3. Именно на это жалуется большинство игроков.
когда я давно сидел на gt650m и попробовал запустить ведьмак 3 она жутко лагала, на минималках в 720р она жала дай бог если 25 фпс и выглядела хуже скайрима на максималках. Это получается, что оптимизация уже тогда хромала?
Большинство игроков ни черта не понимают в том, про что ноют. Разрабы из 2015 даже мечтать не могли о фотограмметрии, текстурках высочайшего разрешения, возможности наполнить мир огромным количеством мелких деталей, и тем более о трассировке. Но вот выходит в коменты типичный Уася из седьмого Б класса и давай выдавать базу про то, что разрабы все говно потому что игры из 2к24 не летают на его топовой 1050 Ti. А вот в 2015 году-то всё летало!111 И халфа вторая с отражениями летала!
Включил видео про то "Как DLSS победил оптимизацию в играх" а автор 10 минут ноет, что люди ебобо. Так ты сам сейчас себя спустил на их уровень. Они так же не посмотрят видео и напишут комменты и т.д
нет, я в эти 10 минут написал лишь про то, что в интернете огромное количество безграмотных людей, которые не хотят (да и не смогут) образовываться. Проблема в том, что вот такие вот индивидуумы распространяют дезинформацию, из-за чего людям, которые хотят разобраться в вопросе, сложнее искать информацию потом. Потому что сейчас найти полезную информацию - это всё равно, что искать бриллиант в луже в океане экскрементов
@@SelectFromпроблема не в ртх или длсс или оптимизации, проблема что лично ты, способствуешь покупкам дорогущих карт rtx !!! Карты с 17 года начали дорожать, но дорожали из-за майнинга, майнинг отказался от карт, все , на картах не майнят, но карты не стали дешевле, хуанг стал оправдывать высокую цену якобы высокой производительностью карт, что не является правдой, и да оптимизация игр на старте стала хуже, мало того некоторые издатели или разрабы вообще не оптимизируют игры, руководствуясь или отговариваясь купи 4090 или там 7900 итд... Я не когда не покупал дорогих видюх, всегда видюха стоила не более 25% от стоимости пк, а сейчас это 50% от стоимости всего пк! , и при этом жрет как танк, греется как утюг, и чуть что горит как порох! Ах да играя на 9600гт, в 2007-8 году, я не боялся ставить высокие настройки, то есть даже не задумывался , и играл, и даже в 16 году на гтх750 играл во все игры в 768пи всё и вся... А видюха за 30к, тянет современную игру в 900пи на средних, в 35 фпс... И да не дай бог если карта без гребаного ртх, не будет тебе игры... Цены на карты дороже чем были раньше в % соотношении к остальному железу, если раньше это было 25% не более, то сейчас это 40-50% не мения!
Всё очень доходчиво объяснил, посмотрел всё видео. Все споры идут на уровне убеждений, а не фактов. Надеюсь люди поймут на уровне убеждений, что они были неправы. Хотя в это верится с трудом. Жизнь таких сама накажет, плохой графикой, низким фпс и артефактами.
Все так, просто для споров на уровне фактов есть 2 проблемы: 1. 99% участников дискуссии даже близко не понимают как что устроено и работает, и не то что к графическим технологиям а вообще к разработке не имеют никакого отношения и ничего в них не понимают. Фактам просто негде взяться. 2. Если начать разбирать на фактах то и спора не получится. Плюс громче всех про "мыло DLSS" кричат люди у которых DLSS нет или владельцы FHD мониторов.
@@You2Ber42 Для начала нужно иметь как 4к монитор так и хотя бы 4080, а не проходить игры на ютуб и рассказывать всем что все не правы и не понимают что мыло это будущее. PS. Выгода это когда у тебя на 3-4 летней карте Мыло дает прирост кадров ну когда у тебя вчера вышедшая карта топовая вк для 4к не может крутить игру как это говорили тебе НВ, а бегают фанатики и кричат так есть же ДноСС, ок ну если есть дноСС тогда -30% стоимости вк за н... покупателя.
Насчет проблемы с АА в нативном разрешении полностью согласен. Смотрел у друзей как работает длсс(не впечатляет, но действительно стабильнее ТАА с жирным нюанс). Так как сам из лагеря красных (владею 6800хт). Ее производительности везде хватает, практически не использую FSR или XESS, которые мне доступны, потому что очень мало игр нормально работают в quality режимах с приемлимыми падениями четкости изображения. Ты довольно доступно объяснил, как хорошо работает ТАА и в чем его настоящее преимущество, но проприоретарные апскейлеры поверх него бесят просто невозможно сильно. Не могу привыкнуть к пониженной четкости картинки. Примеры с твоим хэндхэлдом работают только с маленьким экраном, что для меня совершенно критично на quad и даже fullhd. Поэтому ТАА всегда было благо, замечал как он отлично правит картинку со временем развития технологии.
Сглаживание смягчает картинку. Если картинка субъективно для вас слишком мыльная, можно использовать фильтры повышения резкости у nvidia через оверлей Alt+Z. Попробуйте, поможет
Да люди не шарят, у меня с 2004 были самые топовые видяхи (список огромен, от 6800гт, до 3090ти), когда халфа 2 вышла, ее со сглаживаем прозрачных текстур даже Х850ХТ РЕ не тянуло при 720р, а 6800ультра я вообще молчу там было около 40фпс. Когда обливион вышел х1900хтх шло в 45 фпс, сколько себя помню, всегда жаловались на производительность в играх. А топовые видяхи могли позволить себе реально далеко не все. Шерстите конференцию оверклокерс. Там легко найти инфу. Да о чем реально говорить, олды вспомнят как работал анреал турнамент на вудушках топовых 🤭
"Не трынди" не было тогда 720р оно года через 3-4 появилось. Тогда было 800х600 - бомж разрешение, что хоть как-то поиграть на бюджетных картах 1024х768 и 1280х1024 вот на этих большинство и играло 1600х1200 - шото на багатом. И Халва 2 вышла раньше чем Х800 вышли, а в магаз у нас так ещё можно появились, раньше новинки прям с существенной задержкой у нас появлялись. При 1024х768 и максимальных настройках на 6600 или х700 шла 60+ фпс
@ вот зачем докапываться до слов, понятно что под 720р имелось введу 1024 на 768, у меня тогда вообще был нек на 1600х1200. Была у меня 6600гт, она не тянула халфу и ты упустил, что я написал со сглаживаем прозрачных текстур. У меня даже часть видях сохранилось, 6800гт и 1900хтх лежит, и есть все чеки за видяхи которые были у меня, по этому уж на надо говорить, что кто-то там врет.
Это работало бы, если графика каждый годы улучшалась бы в разы, а факт в том что разницы между крайзисом и любой игрой сегодня ааа разницы нет, кроме как текстуры выше качеством, что решается модом на крайзис без потери производительности.
@@ximera8657 Ерунду не пиши. Сравни любой объект из старой игры и из новой. Банальная кружка на столе или колесо у какой-нибудь тележки в мире игры. В старых играх, (в крайзисе в том числе) они все шестиугольные, острый нехват полигонов. В новых я уже давно такого не видел, всё круглое, детализированное. Просто большинство не обращают на это внимание, но если приглядеться, то всё прекрасно видно, прогресс идёт.
Хахахаха, еслиб была такая же конкуренция как у процов , то можно было и без апскейлеров в два к минимум играть в 60+ с трассировкой лучей , но увы они в тупую жируют, каждый выход новой линейки + 10-15% как же классно и мы это хаваем , когда процы уже обогнали видеокарты процы избыточны , а видеокарты сосут ибо нас пинают покупать мусор за конские деньги и автор пытается доказать , ну смотрите так всегда было , даже если и было это не означает , что так должно быть , просто к примеру в большинстве было 750 р ооо смотрите она не может в 750р 60 кадров что говорить о 4к ты чел уехал кукушкой , когда фул HD было как сейчас 4к, просто клоун без красного носа
Процы другим занимаются в игре, им не добавишь особо работы. А вот для карточек - всегда можно увеличивать кол-во полигонов и визуальных эффектов вплоть до фотореализма
Щя умных слов наговорю... Есть интенсивное и экстенсивное развитие. Интенсивное - это про придумывание новых подходов, экстенсивное - это дофигачить пару гигабайт памяти и поднять частоту на сотню мегагерц. С другой стороны есть рынок - нужно же стимулировать покупать новый хлам - а как проще всего это сделать? Новое на старом хламе не запускается. Цель - заставить покупать новый хлам, а не "оптимизирвать". Общество потребления, епрст.
Так а я что сделал тут по вашему? Собрал материалы, подснял свои и показал как ситуация обстояла до сегодняшнего дня. Я просто показываю, что той "оптимизации", о которой все говорят, нет, не было и не будет
это не относится к содержанию и рассматриваемым вопросам в целом и не значит, что автор не прав, но очень забавно слышать аппеляцию к авторитету при том что автор девопсик, а не программист графики)))) челы неправы не потому, что они "не ахритекторы" или "не врачи" или "не программисты". от того что ты будешь указывать на то, что авторы этих комментов некомпетенты в вопросе, их меньше не станет, а скорее даже наоборот это просто подпалит некоторым жопки. если не хочешь спорить аргументированно (ибо порой это абсолютно бесполезная трата времени), то и не надо, лол, но "ты некомпетентен поэтому не пиши комменты" - вообще не аргумент.
я не программист графики, я об этом нигде и не говорил. Я просто интересуюсь этой темой уже давно и читаю про многие технологии. Плюс, у нас в сообществе есть люди, которые работают в разработки видеоигр и работают с рендерами, у них я часто беру информацию и консультируюсь по разным вопросам. Да и кроме того, про то, что настоящего 4К в нативе кроме как в головах аудитории нет нигде. Это очень тяжелые нагрузки
Кому лень смотреть - напишу вывод: - Цены особо не изменились на видеокарты. - Производительность карт выросла в десятки раз, но "оптимизация" все уровняла :). - Игры подорожали. - Частота кадров особо не выросла. - Графика в топовых играх не сильно и изменилась. Итого прогресс, за 20, КАРЛ, лет практически никакой. Стригут хомяков как и 20 лет назад.
Загрузка видеокарты доходит до 99%, загрузка cpu до 55%, отдельными ядрами на доли секунды. Как думаешь, во что это упор? В ОЗУ, получается?) Хахаха, ну и тесты у самого авторитетного ресурса о компьютерной графике, даже комментаторы обзора на обзор за минуту могут их на чистую воду вывести
Игра работает таким образом, тесты измеряют производительность железа в игре. Когда далее в видео crysis не загружает 4060 на 100% - это тоже в цп упор без загрузки цп на 100%? А как эти упоры обеспечивать вручную?
@koloved1 Это не тест видеокарты. Какая разница во что упор? Они взяли систему тех лет и показали как на ней работала игра. Им что надо было i9 14900k взять чтоб не было упора в проц? Вряд ли в 2007 году он у кого-то был.
Досмотрел видео, вспоминаю, как в 13-м году в Crysis 3 играл, да и вообще в игры. Сам на днях ностальгировать заходил на древние видосы с тестами видеокарт в Crysis 3. Помню, тогда очень сильно хотел себе хотя бы GTX 760, на руках была только 460. Так вот, я тогда смотрел эти тесты и офигивал, блин, на 760 у меня получится поиграть на высоких, и будет даже в 60 fps. При этом я даже не заикался про сглаживание. Какие MSAA 4x, хотя бы FXAA потянуло бы. А если скинуть настройки, то можно было рассчитывать на более стабильный фреймрейт. При этом я осознавал, что через год эта 760 уже всё. Средние настройки для комфортной игры, если не низкие. Сейчас люди делают бюджетные сборки на 3060 Ti для того, чтобы играть в современные игры в 1440p и 60 fps. Я так понял, это плохо? Нужно, чтоб у тебя видеокарта в тыкву превращалась, как раньше с выходом новых. Производительности сейчас - просто жопой жуй, а они тратят её на 4К...
Сижу в 2 к, лет 15 уже как. Лучи идут в задний проход. На всё хватает. Может заскок зайдёт, возьму 5070-5080. Но желание, всё меньше. Я сейчас больше по аудио стал. Это хобби, сместило игры подальше, но не забил. А в аудио, там цены настолько зверские, что эти 4090 со своей ценой, просто детский сад.
@@atomsk9000лучше бы тебе мозги кто нибудь придумал, а то там вообще пустота, и не дай бог ты еще когда нибудь узнаешь про DLDSR и DLAA и что это такое, так вообще мир перевернется!
@@Sega-q6p И сразу пускаемся в оскорбления и осуждение выбора человека, хотя он даже и в дискуссию ни с кем не вступал) Вот это донесение своей позиции, уважаю)
Некоторый контраргумент против главного посыла видео: что все вокруг глупые и раньше не было лучше с оптимизацией. Для каждого поколения железа были некоторые ожидания по графике/разрешению/герцовке, которые пойми ещё как сейчас объективно сравнивать. Например, сейчас 30 кадров и 720p кажется это ниже дна, но когда-то это был комфортные разрешение/герцовка для одиночных игр. Но если какая-то игра задирала планку качества, то естественно было от неё ожидать и повышенные аппетиты к железу. И в чём например уверен не только моя личная претензия к современной графике в играх: производительность железа кратно возросла за последние пару поколений видеокарт, где такое же кратное улучшение графики? Куча примеров игр, где прошлая часть в серии обладает лучшей графикой и при этом меньшими системными требованиями чем новая. И это всё естественно: имея больший запас по производительности (в том числе за счёт апскейла), разработчики будут меньше тратить ресурсов на оптимизацию, разработчики не альтруисты, это с каждым днём всё более регулируемая бизнесом сфера: потрать как можно меньше - заработай как можно больше. Без обид, но мнение автора такое же однобокое как и мнение любого эксперта из комментов, в том числе и меня (но я себя публично не возношу как эксперта или гика, поэтому с меня никакого спроса нет). Почему бы например также не рассмотреть минимальные системные требования? Насколько хорошо игры работали по актуальным на тот момент стандартам на самом плохом поддерживаемом железе? Это тоже очень понятный показатель того насколько разрабы вкладывались в оптимизацию. Можно пойти ещё дальше: и разобрать насколько эффективно игры прошлого рендерят окружение, насколько эффективно стараются отбрасывать ненужную геометрию/эффекты. Или если совсем упороться, то подумать над шкалой оценки/сравнения уровня оптимизации и понять по итогу что это вообще всё бессмысленно. Но это всё мозговая работа, которую внезапно не только всем кроме автора видео не хочется делать, но и самому автору
это довольно дискуссионный вопрос, конечно, потому что требования к картинке у всех разные, но отвечу так. Да, мощность железа выроста, но и графика развивается. У людей есть некоторый эффект когнитивного искажения, что конкретная игра выглядела лучше, чем она есть на самом деле, а когда они её запускают на современном железе, удивляются тому, как раньше они не замечали отсутствия затенения, текстур низкого разрешения и так далее. Теперь по поводу качества графики. На самом деле, развитие в графике есть и очень большое, только есть нюанс. Сейчас улучшают по сути детализацию отдельных эффектов, которые раньше было невозможно рендерить. Например, с трассировкой лучей можно сделать отражения, тени и глобальное освещение так, как раньше сделать их было нельзя. Проблема также в разных шарлатанах, которые, не разобравшись в вопросе, говорят, что "лучи - не лучи", "графика-не графика" и т.п. Я не спорю, что бывают исключения, когда графика выглядит плохо, но это далеко не каждая вторая и даже не каждая третья игра
"Куча примеров игр, где прошлая часть в серии обладает лучшей графикой и при этом меньшими системными требованиями чем новая" Два примера мне приведите, пожалуйста. Рассмотрим
10:03 Пациенты обычно кивают, а потом когда уходят, то рядом с родственниками наслушаются как дочка бабушкиной подружки по папиной линии, вылечилась прикладывая камешек перед сном на живот. Т.к. врач не должен нарушать права пациента, он не настаивает, хотя обязан полностью и доступно обговорить. А родственники давят: "вот мы же видели, такое бывает и у тебя получится", отсюда все слова врача вылетают из головы. Потом, когда приходит этот же пациент с последней стадией, когда уже не исправить состояние, а только облегчить, вот тогда начинается "Вот вы врачи, опять дипломы купили и сидите на жопе ровно. Даже пальцем не шевелнёте, только деньги сдирать горазды".
Просьба к автору на будущее: при приведении примеров сравнений "до/после", "хуже/лучше", "старое/новое" и пр. ставить картинку/видеоряд "до", "хуже", "старое" ВСЕГДА на ЛЕВУЮ сторону, чтобы не допускать ситуации, когда "более хорошая картинка" появляется то справа, то слева, потом снова справа.
проблема в том, что я переключаю эффекты по очереди и плашки неудобно и не очень логично перетаскивать туда-сюда. Монтаж получится менее целостным и более рваным, потому что придётся постоянно уводить в чёрный экран его. Если я буду переключать кадры с плашкой на одной и той же стороне, зрителя это может запутать
Жесть, автор 10 минут усирается по поводу комментариев - какой кринж. Слушай, это интернет, тут могут раскритиковать за что угодно, и это нормально. Не удивительно, что люди смотрят только 5 минут - начало настолько унылое, что добраться до действительно интересного контента тяжело.
физика пропала, потому что усложнилось освещение. Сейчас везде используются системы глобального освещения, которые очень тяжёлые. Свет приходится заранее запекать, а поскольку перемещение предметов влияет на сцену, весь вычисленный свет ломается. Чтобы в играх появилась физика нормальная, нужно сделать системы динамического глобального освещения. Такие уже есть: Lumen в Unreal Engine 5 и трассировка лучей. Трассировка лучей, а если точнее, трассировка пути, очень тяжёлая, поэтому пока её не сможет тянуть большинство видеокарт, в каждую игру её добавить не получится. Тем не менее, уже есть несколько проектов, куда добавляют трассировку, но это пока что проба пера и первые проекты. Нужно ждать производительности. Так то в некоторых играх нет-нет, да появляется физика: Red Faction, например, или Control
14:35 - автор, не забывай, что в то время мало, у кого были мониторы с высоким разрешением. Говоришь, оценивая через призму современности, а это не совсем объективно. Понятно, что у людей уже в 2000-м бывали иногда и 1536р мониторы, но извини, большинство играло в самом лучшем случае в 768р/ 720р, чаще в 600р или, если не фортануло, в 480р. И говорить "Это даже не FullHD" бессмысленно, это как в обзоре на gtx1080 сказать "Это даже не в 16к!". Карты не были предназначены для этого разрешения в силу его небольшого распространения Вдобавок напомню, что сейчас игроки зажрались и считают 60к/с - минимальным уровнем для игр. Раньше, в те годы, играбельным уровнем считался сам запуск игры и ее работа, даже в 10фпс, даже на минималках. А если такой уровень был на ультра настройках в 16х, которые режут производительность прям сильно, то вообще было волшебно Большинство игроков, когда говорят о плохой оптимизации, говорят о том, что старые игры по сравнению с новыми выглядят не хуже, а иногда даже лучше, предлагают больше фич, но при этом едут даже на старой железке, а не 100fps на 4090 в fullHD, как во втором сталкаче 25:00 - не сравнивай несравнимое. Без сглаживания было вполне неплохо играть А вообще уровень графики больше зависит от монитора, не только от игры. Например, Crysis 2 (не ремастер) на профессиональном ЭЛТ 2000-го года (в моем случае Belinea 108080) выглядит лучше, чем Cyberpunk с Path Tracing на ips 8bit 72% ntsc, вот только его тянула hd4850 512mb, там не требовалась 4090 для натива в 30 кадров. Про то, как отвратительно будет смотреться этот же киберпанк на TN вообще промолчу. Там DiRT 2 на элт будет повеселее и пографонистее ¯\_(ツ)_/¯ 28:00 - ларка 13 года спокойно шла на ультра пресете с hd7870 2gb. Играл полгода назад до приобретения rx7600. Кстати, если уж прям копаться в вопросе, то можно выявить, что среднестатистический человек хоть стал зарабатывать больше, но уже не в состоянии купить столь же вещей на старые деньги. Грубо говоря, прими в расчет инфляцию. Если раньше человек Н мог позволить себе с остатков зарплаты купить карту топовую, то теперь в состоянии только лишь средний сегмент взять. В лучшем случае. Плюсом учтем, что народ не любит повышения цен, отчасти потому и ругаются все
@@KalimN с этим не могу не согласиться, и более того, игры на ПК - не игры на xbox 360, там графику можно настроить под свою железку. Отчасти по этому народ, говорящий, что новые технологии не нужны, не совсем прав. Но доля правды в его словах есть. Часто разработчики в силу лени/ ужатых сроков/ атмосферки в коллективе/ прочего (нужное подчеркнуть) забивают болт, думая, "у игроков dlss/ xess/ fsr/ afmf есть, ничего страшного, всё потянет железка", и не ужимают что-то там, где ужимка была бы уместна (например кто обращает внимание на зубы людей в Cities Skylines II?). То есть как правило можно сделать графонистее и лучше в плане производительности, но этого не происходит в силу определенных обстоятельств. Плюсом не забываем, что новыми технологиями нужно уметь грамотно пользоваться, а не "ну мы тут цвета в жёлтый увели с трассировкой лучей, с нас хватит". Такой подход иногда тоже встречается, поэтому не упомянуть его я не мог. Как правило этим и вызваны недовольства оптимизацией игр - при схожем с третьим крайзисом уровне графики, если не хуже, получаем производительность отвратительную даже на свежем флагманском железе. А всё из-за того, что действительно по тем или иным причинам не провели оптимизацию кода или неграмотно реализовали определенные вещи, например, исчезновение текстур, когда на них никто не смотрит и их сжатие по мере удаления от них камеры ¯\_(ツ)_/¯
@@VistaGamer228 Это настолько комплексная тема, что я не знаю, с какой стороны подойти. Вроде бы так, что экономические стимулы делать графику красивой и нетребовательной - ещё в силе. А там, где неоптимизировано - там низкий бюджет. И там спасибо доступным инструментам за то, что "игре позволено появиться на свет" (небольшой коллектив может позволить себе выпустить игру, на которую раньше требовалось больше специалистов) Эти разработчики тоже решает в какой-то степени сделать красивее, чем доступнее в плане железа. Увы... Но "рынок порешал" в плане того, что потребители меняют свои карты на более мощные - так или иначе. И потому сперва ужасно неоптимизированное станет менее ужасным, и то и приемлемым Дело ведь ещё в том, что "оптимизация" - не даётся бесплатно не только в "трудочасах" (и в целом понятие неконкретное) Мой любимый пример с FEAR. Вот кто теперь похвалит эту игру за то, какую графику она умещает в 128 мб видеопамяти? Все поспешат поругать игру за долгие загрузки, которые это обеспечили 🙂 И в целом - долгие загрузки в FEAR - они с нами вот теперь навсегда
Глянула фулл, но как-то... лично для меня мало смысла в том, чтобы использовать скейлинг, который будет замыливать изображение. Я лучше просто буду вешать скейл через Nearest Neighbor со сглаживанием уменьшенного разрешения, чтобы получать аутентичную картинку, которая при этом будет выдавать сильно больше фпс, чем с тем же DLSS, FSR, XeSS в их привычном типе использования. a Retro little bit
Да плевать на мнение всяких "икспертов". Оптимизации нет и не было. А вливать в уши сказки про красоты от апскейла и дегенерации кадров... Рожу разрабам набить мало.
Согласен, что сегодня использование MSAA и прочих, не релевантно, как минимум, из-за производительности. Но, тем не менее, ТАА сглаживание во многих играх даёт дохрена артефактов, в частности, гостинг и МЫЛО. Буквально, 1080р разрешение - мертво для новых игр, хотя со старыми все ок. У меня пока еще 1080р моник, однако где получается ставлю масштаб рендера выше, либо через DLDSR выбираю QHD (карта 3080). А где и это не получается выставить - печаль. Крч, во времена старых игр (года до 2013-15 точно), и 720р, и 1080р были обычными разрешениями. Но если ты хотел действительно четкую картинку, то это только 1080р. Сегодня обычные разрешения - 1080p и 1440р. И если ты хочешь четкую картинку, то только 1440р. Соответственно, и требование к картам выше. Но DLAA отдельно выделю. Лучшее сглаживание на сегодня, которое даже в 1080р. позволяет играть с довольно четкой картинкой. Имба. Другой момент, почему карты живут дольше. Дело в том, что в растеризации особо некуда расти в плане графики. Дальше только рейтрейсинг. По-сути, наращивается поликаунт и качество анимации, но никаких новых эффектов, шейдеров, технологий практически не возникает. А раньше буквально каждые 5-7 лет графика в растеризации заметно улучшалась, однако чем ближе к нашему времени, тем меньше улучшений. Вспомни NFS MW 2005 года, а потом NFS Hot Pursuit 2010 года, GTA SA и GTA 4, ведьмак 2 и ведьмак 3. А сегодня, киберпанк 2077, которому в этом году 5 лет, даже если не учитывать трассировку лучей - не уступает новым играм (тоже в растеризации). Чего уж там, ведьмак 3, которому 10! лет, выглядит хорошо, а после РТ обновления с текстурами получше так вообще, современная игра. В растеризации полный застой, как по мне. Все вывозится за счет раздутых бюджетов, скилла разработчиков (научились фейковать) и высокого поликаунта и деталей. Единственное, где можно увидеть реальный прогресс в графике - GI, отражения, тени. При чем так было всегда. Помню как удивлялся динамическим теням, потом SSR отражениям, сейчас удивляюсь GI-ем. Приправляем все апскейлерами и получаем сегодня 720р и 960р гейминг, получается, даже деграднули. Поэтому не удивительно, что карты живут дольше, ведь трассировка - это не дефолт.
По большей части тезисов неистово плюсую. На ПК сегодня 2560x1440 - это самое оптимальное разрешение, ниже которого спускаться уже больно. На ноутах, ввиду ограниченной мощности и небольших экранов, 1080р пока ещё более или менее съедобно. В 4K с апскейлерами уже вполне себе можно жить, но надо топ железки покупать. По поводу развития графики - да, ограничения растеризации вылезли наружу после прихода PBR и трассировки лучей, поэтому дальше только в эту сторону. Проблема только в том, что надо мощности наращивать, потому что на портативных ПК, которые сейчас захватывают рынок, трассировку потянуть довольно сложно, поэтому пока что надо ещё трассировку делать по возможности отключаемой, либо давать гибкие настройки графики неё
Спасибо за видео, было интересно посмотреть на сравнение технологий сглаживания и как они влияют на производительность. Действительно DLSS и ей подобные технологии уже стали необходимым стандартом любой игры и действительно привнесли не мало в ту самую оптимизацию которой все так озабочены
Суть нытья про оптимизацию в, по сути, двух тезисах. 1. Что я получаю, купив видеокарта_нейм за Х денег. 2. Что я вижу, купив видеокарта_нейм за Х денег. В 2025 ответ на них примерно такой: Отдав 500 доляриков, я получаю 1440п гейминг с большим-большим натягом. То что я вижу не коррелирует со счетчиком ФПС. Чтобы получить приемлемый ФПС мне надо или выключить то за что я заплатил - четверть чипа с РТ ядрами уходит в простой. Или подрубать DLSS в такие режимы, что это заметно портит картинку. Попутно юзер видит, как 4090 с высокой ценой в 4К в половине новинок еле волочет ультра настройки. И он понимает, что в ближайшем приближении, купив мидл 5ххх поколения, он не сможет поиграть даже в текущие топ игры. А о будущих тут вообще вопрос не стоит. И таких игр много, это не выбросовый Кукурузис или там Дум3. В половине тестов из материала подключен ААx4 или экспериментальные фишки, вроде спец.теней nVidia или physx, которые лопали много ресурсов и на визуале так как RT не сказывались. Выключив их ты не получал разительно другой визуальный опыт и не платил за блоки в чипе, которые только эту технологию обеспечивали, оказываясь бесполезными на видеокартах среднего сегмента. Так же в то время 4К мониторы были редкостью и более дорогими. Сейчас это обыденность. Играя в 4К на 1080Ти даже тогда я в итоге что, вынужден или платить 1600+ за 4090, или покупать себе монитор в 1080п, или не использовать RT за который я заплатил? Притом флагман движков - УЕ5, используется из рук вон плохо и показывает плохую картинку. В том числе потому, что даже арт-дизайн там посредственный и для экономии разработки все напихивают скан-ассеты, подрубают Люмен и в продакшн. Чем тут нужно быть удовлетворенным - вопрос века. За много денег ты получаешь то, что тебя не удивляет, не удовлетворяет и еще и целевой ФПС не показывает. Это третье поколение карт с RT. Но технология в 4К юзабельна только на двух моделях карт на рынке, и то с натягом. Но ты за все это платишь высокие деньги, цены на 4ххх значительны. Сосиска в тесте по цене стейка. Вкус мяса только в твоих фантазиях.
"купив миддл, не сможет поиграть" типа, игра не запустится, или именно на максималках ? "что-то там не коррелирует со счётчиком ФПС" Снижай настройки графики - увидишь больше FPS "Отдав 500 доляриков, я получаю 1440п гейминг" И почём стоил 1440 во времена Doom 3 ? Меньше пятиста баксов? "За много денег ты получаешь то, что тебя не удивляет" Тогда трать мало денег на видеокарту дешевле. Сам себе вымеряй, короче, за что ты готов деньги отдать. Наоборот же, хорошо, что ничего не удивляет - можно и не тратится на видеокарту, получается. И нет проблем Странная тяга к обязательным максималкам при том, что графон-то не удивляет. Ну так если нет разницы - то и максималки не нужны.
@@KalimN во времена дума3 целевое разрешение было иным. И разработка игр шла с прицелом, что видяха_нейм запустит игру в каких 1080п в лучшем случае, а скорее всего это будет 720п. Вопрос тут про то, почему во времена дума3 я мог 99% игр пройти на своих целевых 720п на высоких и не пукнуть на видяхе на три поколения страше, а сейчас на 2070 я получу бесполезные РТ блоки и средне-низкие в 1080. Так еще и на видяхе за 500, а столько стоил когда-то предтоп или даже топ, я должен в базовом разрешении снижать настройки или подрубать апскейлеры, чтобы на третьем поколении видеокарт с РТ посмотреть на те же самые РТ тени и не утонуть в 30 фпс. Тяга к максималкам тут просто мерило затрат на результат. С таким успехом достаточно и консоли, получишь свои 30 кадров и какой-то графон с каким-то разрешением. Отдавая значительные ресурсы ты ждешь заметного результата. А получаешь средненькие и DLSS с 720п. А на экране хз что. Почему юзер, купивший предтоп в лице 3080 всего три года назад не может внятно запустить даже в 1440п игры со всеми фишками, которые ему с экрана обещали? Если я врублю Алана Вейка и там активирую трули РТ, то 3080 ляжет даже в 1080п скорее всего. И вот это сейчас защищается? Юзер переплатил за технологии будующего в кремнии, а получил пять игр и тыкву спустя три года. И ему говорят - ну так не юзай РТ и настройки скинь. Уважаемо.
@@executionersmough513 > Отдав 500 доляриков, я получаю 1440п гейминг с большим-большим натягом. А чего ты хотел? 4к 120 фпс за 100 бачей? > То что я вижу не коррелирует со счетчиком ФПС. Вопрос тот же: а чего ты хотел? Трассировку пути с 1000 фпс как в Думе 93 года? > Чтобы получить приемлемый ФПС мне надо или выключить то за что я заплатил - четверть чипа с РТ ядрами уходит в простой. Прикинь у РТ тоже есть настройки, и ты можешь спокойно играть с РТ отражениями на 3060 в большинство игр > Или подрубать DLSS в такие режимы, что это заметно портит картинку. Что это за пресет такой: ультрапроизводительность при 720п? В 1080 лучше форсировать DLAA, в 1440р ставь DLSS качество и ухудшении картинки не будет. Hardware Unboxed это подробно тестировали th-cam.com/video/T86IufvA4qg/w-d-xo.html > Попутно юзер видит, как 4090 с высокой ценой в 4К в половине новинок еле волочет ультра настройки. Если бы ты посмотрел видео, то убедился, что топовые карты никогда не тянули игры на фулл ультрах. Дебилам почему-то в голову не приходит такая мысль, что настройки графики могут делаться на будущее, чтобы игра через 5 лет после релиза выглядела как новинка. > И он понимает, что в ближайшем приближении, купив мидл 5ххх поколения, он не сможет поиграть даже в текущие топ игры. Чувак, ты можешь унизить любую видеокарту почти в любой игре. Вот 4090 в ГТА 5 в 4к + 2х MSAA дропается до 80 фпс из-за жрущей травы. th-cam.com/video/kg2NwRgBqFo/w-d-xo.html Я на своей 4070 в Сталкере ЧН в 1440р + 4х MSAA (c альфа тестом) на фулл ультрах получаю 75 фпс в начальном лагере. Пред топ 2023 года с трудом тащит игру 2008 года. > А о будущих тут вообще вопрос не стоит. И таких игр много, это не выбросовый Кукурузис или там Дум3. В половине тестов из материала подключен ААx4 или экспериментальные фишки, вроде спец.теней nVidia или physx, которые лопали много ресурсов и на визуале так как RT не сказывались. Выключив их ты не получал разительно другой визуальный опыт и не платил за блоки в чипе, которые только эту технологию обеспечивали, оказываясь бесполезными на видеокартах среднего сегмента. 4x сглаживание включалось, потому что других вариков не было - либо 20 фпс хоть с каким-то сглаживанием, либо откровенный вырвиглаз. За блоки в чипе ты платишь всегда - раньше за CUDAб теперь к ним добавились RT и тензор ядра. Да, такие бесполезные на среднем сегменте, что в куче игр с РТ можно в 60 ФПС поиграть. th-cam.com/video/ZN7jDygqscI/w-d-xo.htmlsi=42rvdLNc0Dyt5JLg > Так же в то время 4К мониторы были редкостью и более дорогими. Сейчас это обыденность. Ага. По статистике Стим за декабрь 2024 года 4к моники/телеки у 4% юзеров store.steampowered.com/hwsurvey/?l=russian > Играя в 4К на 1080Ти даже тогда я в итоге что, вынужден или платить 1600+ за 4090, или покупать себе монитор в 1080п, или не использовать RT за который я заплатил? Почему нужно уходить в крайности? На 4070 можно спокойно играть в 1440р + DLSS качество (который в 99,9% лучше, чем натив 1440р, Hardware Unboxed это тестили) с РТ. Сейчас есть несколько каналов, которые подбирают оптимальные настройки графики, чтобы картинка как на ультрах и при этом фпс был высоким. Просто ставь как у них и проблем не будет. На 4060 тоже 1440р + DLSS Q вполне доступно. > Притом флагман движков - УЕ5, используется из рук вон плохо и показывает плохую картинку. В том числе потому, что даже арт-дизайн там посредственный и для экономии разработки все напихивают скан-ассеты, подрубают Люмен и в продакшн. В Wukong, Silent Hill 2, Hellblade 2, Robocop плохой арт-дизайн? В каком месте? > Чем тут нужно быть удовлетворенным - вопрос века. За много денег ты получаешь то, что тебя не удивляет, не удовлетворяет и еще и целевой ФПС не показывает. А чего ты ждал? Вот у меня друг купил 4060 и кайфует от Киберпанка с трассировкой, говорит, что игра гораздо лучше выглядит. Неужели не хватает мозгов, чтобы не крутить все на ультра? > Это третье поколение карт с RT. Но технология в 4К юзабельна только на двух моделях карт на рынке, и то с натягом. В 1080р ~ 2,5 млн пикселей. В 1440р ~ 3,5 млн пикселей. В 4к ~ 8 млн пикселей. Действительно, почему же не тянет? > Вопрос тут про то, почему во времена дума3 я мог 99% игр пройти на своих целевых 720п на высоких и не пукнуть на видяхе на три поколения страше, Ага-ага, конечно, в 2000-ных, когда почти каждый год выходил новый DirectX или новая версия шейдеров и новинки вообще не запускались на картах 2-3 летней давности. Как 720п в 2004? > а сейчас на 2070 я получу бесполезные РТ блоки и средне-низкие в 1080. А ниче, что 2070 вышла в 2018 году, то есть ей уже уже 6 лет? GTX 470 в 2016 хорошо игры тянула ?(нет). GTX 670 хорошо тянула игры в 2018? (так себе, только на минималках в 720п). Плюс 2070 слабее, чем ПС5/Хбокс X. А на консолях сейчас тоже средние/минималки с апскейлом до 4к из 900п во многих играх. > Почему юзер, купивший предтоп в лице 3080 всего три года назад не может внятно запустить даже в 1440п игры со всеми фишками, которые ему с экрана обещали? Тем временем в новейшем Индиана Джонс (где по умолчанию используется РТ освещение) в 4к с DLSS Q (Что лучше, чем нативные 4к) на ультра высоких 80 фпс. В 1440п нативных в ДЛАА тоже 80 фпс th-cam.com/video/DkOtdjbxZpo/w-d-xo.html > Если я врублю Алана Вейка и там активирую трули РТ, то 3080 ляжет даже в 1080п скорее всего. 1440p c DLSS Q (что опять же лучше натива) на средних (что выше консолей, там низкий пресет) с лоу РТ выдает 40 фпс th-cam.com/video/yJZ4fg8g5rA/w-d-xo.html На 4070, которая по мощи чуть хуже 3080 на настройках ПС5 ПРО и с лучами с DLSS апсейле из 864п до 4к выдает 70 фпс th-cam.com/video/5FEcHH8avvo/w-d-xo.html > Юзер переплатил за технологии будующего в кремнии, а получил пять игр и тыкву спустя три года. Ага, пять игр. Тем временем за 6 лет вышло 150+ игр с поддержкой РТ. Вдобавок РТ добавляют в игры 2000-ных при помощи RTX Remix. www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/
@@executionersmough513 Во времена дума3 (т.е. 2004год) ты мог пройти 99% игр на высоких в 720p на видеокарте на три поколения старше... Ну если учитывать вообще все вышедшие игры до 2004 года, то да. Но тот же дум3 на флагманской карте 2001 года (три поколения назад) шёл с проседами ниже 30фпс даже на низких. Прям щас проверил (GeForce 3 Ti 500). И да, это действительно 500$. Что сейчас - правда было бы в полтора раза дороже. Почему юзер не может получить функции - это какой-то тупой вопрос. Типа может же. И получает. Но не всё вместе. Ты же не просишь свою мультиварку варить одновременно суп, рыбу на пару и жарить яйцо... Кто тебе сказал что все технологии включены одновременно - дадут тебе играбельный фпс? Почему юзер купивший предтоп 3080 не может запустить игру "хотя бы" в 1440р... Философский вопрос... Давай лучше изменим запрос на 8к. Вот действительно, почему ты остановился на 1440р? Скромность?
вот именно на траве, темпоралка и посыпалась, а у меня моник fullhd, и я ставил видос в 4к, чтобы видеть эти косяки, да и если говорить про косяки темпоралки и DLSS и DLAA, то они видны и на кронах пальм, что хорошо теряют в детализации, конечно это лучше чем когда они расыпаются, но и хуже чем SSAA x4, чем я пользуюсь чаще всего если оно имеется. FSR же напротив разваливает картинку по выше описаным причинам, кроме того, когда он нативное разрешние просто сглаживает, тогда эти проблемы почти исчезают. и в форзе так сделать нельзя, там можно его только как апскельер использовать, а XeSS довольно сильно подьедает производительность на красных картах, не знаю что там на зелёных и синих, ибо их не имею.
Помнится я зашёл в магазин компьютерной техники в 2007-ом. А там, как я потом узнал, на мониторах транслировался Crysis. Я подумал, что это за кинцо такое крутят) Мне и в голову тогда не могла прийти мысль, что это компьютерная игра. И карточка у меня была 8800 GT. Это урезанная версия и по производительности она сильно уступала 8800 Ultra. В те времена купить топовую карту было проблематично обычному обывателю, т.к. зп были 200-300 у.е. в среднем. И ещё добавлю касательно претензий большинства - мы очень часто видим ситуацию, что при выходе игра выдаёт 50 фпс, но потом через полгода и трёх-четырёх патчей игра уже выдаёт 70 фпс и меньше глюков. К сожалению, сейчас много игр выходят в "сыром" виде, а игроки выступают тестировщиками. И ещё за это платят деньги и портят себе нервы.
хах. у меня тоже была 8800 GT. Помню, как слюни пускали с пацанами на 8800ультра в магазе. Ходили посмотреть на неё на полке как на чудо за безумные 1к зелени
17:48 не вывозили, потому что там был упор в процессор. Процы того времени, да и нескольких поколений вперед просто не могли загрузить 3хSLI или даже quad-SLI работой, т.к. игра использовала всего 2 потока и была рассчитана на быстрый рост частот до 5 ГГц, но производители пошли другим путем. Я помню все эти видео в момент их выхода, но вот разгадка пришла позже.
аоаоао фанатики раскрытия видеокарты процессором подьехали, я думал вас сталкаш в 2017 году всех попустил, забудь вообще понятие того что проц должен что то там нагружать) хватит перестаньте существовать уже)
@БелыйКвадрат-й4т если кто-то не понимает, почему система из 3-way SLI 8800 Ultra имеет такую же производительность, что и одна такая же карточка, то это не моя проблема.
Здорова! Добрый тебе совет касательно вступления: не нужно стараться объяснить позицию и приводить аналогии, эффект будет противоположным)) Он уже есть в комментах) Будет эффект Стрейзанд) Просто доноси техническую часть так же круто как ты всегда это делаешь и забей на хейт и мнение экспёрдов) А по поводу нытиков - сколько людей, столько и идут они на хрен...
Тестировал сам DLSS на Unreal , в отличии от raytracing это однозначно большое добро для видеоигр, потерю четкости можно компенсировать в пост процессе
Сколько я себя помню, никогда не играл на ультрах, хотя карты всегда были топ или предтоп. Люди играли в игры, а не в AA с AF. Мне всегда на них было по винту.
Спасибо автор, посмеялся. Ну так человеку хотелось доказать что новые технологии нужны, что час размазывал сопли приводя в пример человеческие жертвы медицину и т.п. Вопрос собственно в чем? Почему вы так хотите доказать что эти технологии нужны? Если и без ваших доказательств индустрия плавно перетечет в плоскость новых технологий, так или иначе... Что вы бегаете с горящими жопами и пытаетесь всем доказать что это реально круто?! Что лучше пользоваться телефоном чем слать почту голубями, что у вас всех так зудит? - И так всем ясно что растр покидает сцену и крикуны через 10 лет будут использовать другие технологии просто потому что альтернатив уже не будет. Дайте индустрии плавно перетечь в новое состояние, нафига вы пытаетесь этот процесс так ускорить? растр выглядит отлично, стоит дёшево, понятно почему ему прощают все шероховатости и костыли. Хватит, прошу ссать всем в уши о лучах... Они неизбежно займут свое место, как програмируемые шейдеры и тесселяция в свое время. Объективно, сейчас королевой являеться растровый метод по многим причинам, - возьмите те же портативки, стим деки, свитчи и т.п. - полный переход на трассировку не только похоронит портативный гейминг но и потащит к дну старшие консоли, увеличив их цену в 2-3 раза, про пк вообще молу... Всему свое время, и нужно соблюдать баланс во всем, где и старым и новым технологиям есть место. И самое важное - выбор! Он должен быть, у тех кому растровый метод ближе как по картинке и быстродействию так и по фин. возможностям. - P.S. пишу как владелец 4070 который использует ее с rtx и dlss и радуется, но я так же понимаю почему растр важен и нужен, а вы автор кажется просто бегаете с горящей кастрюлей и пытаетесь доказать что суп вкусее окрошки. Не обожгитесь.
У автора банальная профдеформация, он как и другие разрабы увидел новую технологию, ему она интересна потому что новая, потому что в будущем она будет восстребована, ему на самом деле неважно как хорошо она работает СЕЙЧАС, сколько лет ее нужно допливать и сколько поколений карт сменится чтоб ее тянули без артефактов. проблема в том что эта технология оказалась не нужна игрокам, ведь геймплей она не поменяла и они не разделяют это удивление. Вот когда в играх ФИЗОН был новой технологией, игрокам это нравилось играть и разрабам нравилось это делать, ведь теперь каждую бочку можно было пнуть. А тут игроки не замечают эту технологию и у разрабов бомбит, они то видят что технология новая, но не могут понять почему игроки не воспринимают ее также весело, как появления в играх физики, вот и нужно 2часа объяснять. Объяснять почему физика у каждого ящика в игре лучше, чем отсутствие физики у каждого ящика для игрока не придется. Он и сам это увидит.
@@reionami5983 вам бы за "профдеформацию" пояснить врачам, которые офигевают в интернете читать про гомеопатические средства или народную медицину, а потом появнить инженерам мобильных сетей как 5G вышки нас убивают. Ещё, наверное, будет интересно пообщаться с космонавтами на тему религии или астрологии. Вы что, думаете, что в интернете несут чушь только по поводу графики? Я вас умоляю. Человеческая глупость она повсюду, знаете ли
@@SelectFrom Вопрос в том, почему вам так хочется доказать каждому встречному поперечному что они неправы ?) - И без ваших потугов все случиться само собой, пускай те кто ошибаются и заблуждаются, внезапно ошибаются и заблуждаются. Оставьте бедолаг в покое, пусть играют как им нравится.
1:02:30 В Crysis MSAA вообще не помогает. Будто без сглаживания играешь. В Warhead пришлось через ReShade всякие TFAA и SMAA подрубать, да и то это не правит полностью проблему
@@ximera8657 Эм, нет. Я Warhead прохожу после ремастера оригинала. В ориге тупо нет глобального освещения. Только самое простое затенение в углах (поэтому через ReShade врубал Complete RT). Только ночью разница невелика потому что темень и старая графика не так свои изъяны показывает
@@Sklayson основная проблема старых игр, текстуры низкого качества, геометрия, освещение. плюсы старых игр, рендер в реальном времени, значит можно использовать полноценное сглаживание такое как мсаа и ссаа, гораздо более отзывчивое управление и отсутствие артефактов и дребезг картинки.
Я понял, всё это в защиту и неоправданную критику последних топовых карт. Кого благодарить? - Технологии, науку, удешевление производства. Я бы не стал сравнивать первую видеокарту и последнюю... Слишком много переменных, которые повлияли в перспективе на рынок видеокарт и игровую индустрию. Я никогда не гнался за топами, всегда был на пару лет позади) И да, DLSS - это спасение для гейминга, согласен) Более того, это экономия ваших денег) Иначе, за электричество платили бы больше))
ну DLSS апскейл с 720р и был придуман только из за лучей. которые карты не тянут в 60фпс. А лучи ввели, только из за того, что бы людям как то впаривать новые карты. Иначе было бы склады не разгрузить. У людей не было бы причин менять свои 1080 даже сегодня. даже спустя 8 лет. Отсюда и оптимизация. Если спустя 10 лет графика никак не поменялась по сути. Запусти сегодня Бетмен Аркхем Найт 2015 на ультрах. Или Ассасин Юнити 2014. Графон круче чем в 99.9% игр , которые вышли даже в 2024, а только в Стиме за один 2024 вышло более 18 000 игр. Причем тогда хватало карты gtx660 за 150$, а сегодня требуют 1500$ за карты. Но стала ли графика при этом в 10 раз круче? или быть может игры стали в 10 раз интереснее??? Теперь даже стали искуственно и это обрубать. новую Индиану Джонс не запустить игру на карте без РТХ. Но прикол в том, что что бы поиграть в неё на ультрах в 60фпс РТХ надо выключать. ЛОЛ. оптимизация у игры такая, что даже на карте за 2000$ на 4090 игра лагает и не выдаёт 60 фпс. про карты от Нвидиа на 8Гиг как 3070Ти, я вообще молчу) тоже урезание ) что бы люди разгружали склады с новыми картами. искуссвенное устаревание. так что автор видео явно не в теме. лишь очередное ля ля как обычно.
Отличное видео, хоть про многое показаное знал. Честно говоря меня устраивает и 1080 при условии что матрица дисплея качественная с высокой герцовкой. Понятное дело, что 2к должно уже быть стандартом, но производительность под мой бюджет низкая (хотя кому-то и за глаза). Рад за тех кто может позволить себе играть в новинки с высоким фпс и графикой хотябы на высоких-средних. Но опять же я для себя взесив все за и против останусь на 1080p, до выхода нового поколения консолей и соответственно более свежих карт. Всем добра)
У меня также ртх 4060, пользуюсь всеми новыми технологиями, меня всё устраивает. Нооооооо, люди которые говорят раньше оптимизааааация была лучше, вот сглаживание было лучше, они имеют ввиду игры, вышедшие до поколения PS4, так как раньше не то чтобы было что сглаживать, ну гору квадратную и три полигона на кусте. Игры стали сложнее и детализированней, но они всё равно говорят, "как же круто было играть в Resident evil 5, где нет травы, а песок и грязь, а тот уровень с фонарём в пещере просто моя мечта, графика на высшем уровне, да да, и мне всё равно что там ни зги не видно и 2 полигона на стенах" Спасибо за видео, разобрался в теме, всех благ тебе!
Забавно, но если бы NFS 2015 года или тот же Arkham Knight вышли допустим вчера с тем же уровнем графики который они имеют, то они бы лагали на 4090 без DLSS в фуллХД.
Давай я сокращу твой пост без потери смысла Представьте, что если бы вышла какая-то современная игра - она была бы неоптимизированная и не красивее игры 2015го. Представили? Ну кайф же
@@Goliafik2905 спокойно работал он только на PS4 в 1080р и со стабильными 30 ФПС, Xbox One предлагал вроде 900р с просадками. А то что игра вышла сломанной из-за кривых рук, ну да, ничего не поменялось к нынешнему времени, игры всё также допиливают после релиза. Об этом в ролике и речь
Посмотрел 5 минут, автор неправ во всём потому что ангажирован и куплен Хуангом.
Посмотрел название ролика и понял сразу, что Хуанг закинул пару чемоданов, перед презентацией.
Подписка, отписка, снова подписка.
Автор не прав , потому что это мнение какого то иксперда из интернета, и слушать 2 часа его ненадо ! 🤣
Если досмотреть до 1:43:20 - можно заметить как на фоне человек в кожаной куртке проносит чемоданчик.
Ты был помечен красной меткой
Он - зелёной.
Ставьте лайки, чтобы поднять в топ. Им не замолчать правду!
Если в полуторачасовом видосе полчаса сидеть жаловаться что полуторачасовое видосы никто не смотрит, то никто его смотреть не будет
порвало сектанта
Пропусти 10-минутное вступление в видео на 1,5 часа, если биржи горят. Таймкоды - тоже зло, как и длсс с прочими маркетинговыми технологиями злых корпораций?
ФАКТ!
Перемотка, она просто существует. Она просто хочет вашего внимания...
Он этого и не говорил, а пояснял за глупышей, которые не смотрят видео и испражняют свое важное мнение, не посмотрев, прям как ты в своем комментарии. А так же ты в любом случае нажатием одного своего пальца можешь перемотать
"Популярном на тот момент разрешении" при обсуждении 1440p (2K) в 2014 году?
При таких темпах популярности, к сегодняшнему дню 8К было бы золотым стандартом...
🐾
@@SkyNel 🐺
1440 это 2,5к
750ти в 2014 не тянула игры в 1080p с стабильными 50 фпс. Какое 1440p в 2014?
Только с 30 фпс у топов
@@costea. 1440 - это 2.6к, потому что, если следовать вашей логике, 1080, при 1920 пикселях в ширину, должно называться 2к, хотя недобирает 80 пикселей
Посмотрел фул видос. В былые года, когда "топы не тянули игры", хотя на самом деле тянули, и это видно даже из этого видоса, никто не обещал 4к гейминг с лучами и всем прилагающимся. В комплексе картинка Far Cry 5 выглядит прекрасно и условная rx 580 тянет игру шикарно в нативном 1080, в отличии от современных или шумных или мыльных вариациях настроек игр. Хотелось бы на примере общего восприятия игры в рамках требований к производительности услышать - что такого настолько крутого насыпали в современных проектах, что "Far Cry 5 даже и рядом не стоял". Уточню, что конечного пользовательно мало интересует какими алгоритмами считается трава на земле или листочек на дереве. Важно лишь комплексное восприятие графики, а при х4 требованих к железу оно не воспринимается в 4 раза приятнее/реалистичнее.
Беда как раз в том, что апскейлеры теперь предлагаются не как опция для улучшения производительности на старом железе, а являют собой необходимость в дополнение к новому железу. Тем не менне, я согласен, что DLAA и TAA отличне варианты сглаживания, на порядок лучше остальных. Однако в современном геймдеве это играет злую шутку; и как мы все можем пронаблюдать на опыте ААА проектов послених пары лет - все они подразумевают использование апскейлеров априори. DLSS/FSR/XeSS позволяют разработчикам откровенно класть большой болт на оптимизацию игр как впринципе (в меньшей степени), так и (в большей степени) для разных конфигураций систем на которых они запускаются. Условный ведьмак 3 в 900р на низких настройках выглядит более чем приемлемо относительно 1080р. Запустите любую современную ААА игру в 900р на низких сейчас...))
Откровенно поржал над двумя последними сегментами видео с названиями "а имеет ли смысл играть в нативе?" и "720upscale против реального 720p", когда автор рассматривает эти разрешения на 7ми дюймовом экранчике портативной консоли, где как раз присутствует оптимизация под конкретное железо. Тут даже сказать больше нечего)
Так же хочу заметить, что раньше мы просто запускали игры и играли, особо не вдаваясь в подробности того как работает тот или иной метод сглаживания. Теперь же мы как сообщество бесконечно обсасываем вопросы апскейлеров и сглаживания (интересно с чего бы это). То есть по сути современный геймдев утрированно предлагает нам 2 стула - шумы+ступеньки или мыло+гостинг. Каких-нибудь 6-7 лет назад, кто бы мог подумать, эти вопросы не то что не возникали - даже не выносились на обсуждение. Интересно почему?)
PS: Даже не смотря на то, что трава в кадре дергается, это не рассмотрение работы любого из вида сглаживания в динамике, где восхваляемые, хотя все еще более предпочтительные TAA и DLAA явят зрителю дополнительный ряд компромисов, о которых в видео не упоминается)
относительно отличий с FarCry 5 - это системы динамического глобального освещения. Они очень тяжёлые, но и дают хорошее качество картинки. Это так не объяснить в комментарии, нужно делать либо видео, либо на стриме отвечать на вопрос.
Что касается апскейла и игры в натиме, я на 01:34:43 даю конкретный список пунктов, который, при его соблюдении, даст возможность найти баланс между сглаживанием, производительностью и чёткостью на любом экране, не только 7 люймов в портативке. Под портативку, кстати, никаких оптимизаций не делают. Максимум в некоторых играх есть пресеты настроек, но их можно и самому подобрать.
По поводу проблем сглаживания я говорил на стриме и рассказал в послендем видео в секции про DLSS. Я бы и рад уместить всё в один ролик, но тут столько аспектов, что в одно видео не получится уложить все знания, которые есть по этой теме. Я бы мог сделать видео более полным, я уже позже понял где именно, но ролик и так получился на час сорок, поэтому....
Я вот одного не понимаю, а автору что поста на DTF, что автору этого видео, вообще знакомо понятие - прогресс?
Типа тыкать в старые игры и говорить что мол как же так, топ карта, и 30 фпс, и это HD. если не ниже, вы чего про 4к ноете, это разве адекватно?
Прогресс где? А то я ведь так же легко могу ткнуть в телефоны на заре выхода с стоимостью больше косаря баксов за штуку, в которых камеры нет, а сейчас за косарь баксов у тебя что? Медиакомбайн, 4к экран, ПК, телефон, фотоаппарат, игровая консоль, да вообще ВСЕ, за за куда меньший с учетом инфляции прайс, сколько новых технологий, возможностей, мощностей - не перечесть просто.
Ничего в голову не стукает? Тогда было нормально играть в 25-30 кадров и HD, а были времена когда и меньшее разрешение было стандартом, потом стало FHD, теперь настала эра 2/4к.
И ровно так же с фпс, какие вообще 60? Стандарт должен быть выше, 60 это то что с оговорками было доступны ОЧЕНЬ ранее, есть смысл говорить про 120, и МИНИМУМ 60.
Где была эта простая мысль когда автор этот ролик делал? Почему мы должны смотреть на стандарты 10, 15 летней давности, и потом говорить да, чет мы зажрались? Да нет, не зажрались, требовать от 4060 4к@60 фпс в нативе конечно глупо даже сейчас - но карты выше уровнем, учитывая прогресс, доступность и качество даже хай герцовых 4к мониторов, обязаны это обеспечивать, что они чаще всего не делают, от чего люди собственно про это и ноют.
Причем процессоры, что забавно, которые идут +- в ногу, из за конкуренции такой проблемы решены - какой нибудь i5 7400 с учетом инфляции стоил ДОРОЖЕ 12400, который является его полным аналогом в линейке, почему я про него вспомнил? Ну потому что это примерно временные рамки те же что между 10 серией зеленых карт и 30/40.
При этом что у нас происходит? 12400 в хвост и гриву без каких либо шансов обходит топ того времени 7700K, лучше ВО ВСЕМ, во всем ли лучше 4060 чем 1080ti? Ну да, лучше очень во многом, но память где например? Где приросты как между 12400 и 7700K прямой производительности?
Нет конкуренции - зато есть ценники и совсем не впечатляющие приросты, можно разве что топ выделить, в лице 4090.
По поводу DLSS бтв база, DLSS - это в любом случае лучший вариант оптимизации, относительно снижения разрешения или порезки настроек, а под по TAA автор как то так себе прошелся, косяков у него вагон и тележка, и дело даже не в самой технологии, а как раз в теме ролика, типа разрабы забили болт на оптимизацию, вот как раз очень многие на его норм настройку действительно забили, он гостит, он мылит, и это просто отвратительно, при том что игры с его хорошей реализацией, даже прекрасной вполне себе существуют.
Ну и бтв графика тоже отдельный вопрос, тоже ведь все просто, раньше проще относились к 30 фпс в крайзис 1, он выглядел прорывным, и для этого обычному игроку вовсе не нужно было знать про технологии которые там использовались, было ПОНЯТНО почему у тебя лагает.
А сейчас? Сейчас мы еще во времена ps4 подошли к такому уровню картинки, что при грамотной работе художника это УЖЕ реалистично и красиво, хоть в глубине это сплошной обман и костыли.
И получается что время идет, игры стали выглядеть лучше, и намного, это правда, но чем дальше - тем это менее заметно обычному игроку, это логично, чем ближе к фотореализму, тем меньше заметно каждое небольшое улучшение.
При этом расчётов и тяжелых технологий для того самого НАСТОЯЩЕГО реализма надо много, но обычный игрок не будет говорить вау с того, что у него появились лучи которые ему фпс х2 сажают, потому что он видел как грамотные разрабы путем ручной работы, изобретательности и смешивания кучи более тупых алгоритмов получали картинку конечно хуже - но выглядящую не в 2 раза хуже, как у него сейчас фпс падает.
Игроку пофиг что там лучики теперь реально обсчитываются, свет настоящий РЕАЛЬНО, а не фейки, его волнует итоговый результат, его НЕ ДОЛЖНО волновать что +1% к реализму обходится тяжело и дорого, его должен волновать и волнует лишь итоговый результат, как там оно все внутри работает - вообще не важно, это не его проблемы.
И то что каждый шажок на самой вершине все сложнее и сложнее - не оправдание для потребителя, ему то что с того, что графика апнулась с 78 до 83% до фотореализма, это 5%, на уже высокой базе, это слабо заметно, и совершенно все равно что эти 5% требуют ресурсов как все 70 до него суммарно.
1. Про "прогресс"
"Типа тыкать в старые игры и говорить, что мол как же так, топ карта, и 30 фпс..."
Ты говоришь о прогрессе, но забываешь, что прогресс - это не просто увеличивающиеся цифры. Вспомни, как выглядели игры 10-15 лет назад. Да, мы играли в 30 FPS, но это было на картинке, которая даже близко не стояла к тому, что мы видим сейчас. Прогресс в графике идёт семимильными шагами, и это требует ресурсов. Если ты хочешь 4К при 120 FPS, будь добр понять, что современный уровень графики этого требует. Или играй в пиксель-арт на 60 FPS и не ной.
2. "Где стандарты? Где 60 FPS?"
"60 это то, что с оговорками было доступно ранее, есть смысл говорить про 120, и МИНИМУМ 60."
Во-первых, стандарт в игровой индустрии формируется не абстрактными "хотелками" игроков, а возможностями технологий. Если бы все делали упор на 120 FPS, то:
Ты бы не увидел современной графики.
Игры были бы абсолютно одинаковыми, без художественных экспериментов.
И давай не забывать про баланс между платформами: консоли, ПК, облачные сервисы. Производители игр оптимизируют под массовый рынок, а не под тех, кто хочет RTX 4090 за свои 2000$.
3. Сравнение с процессорами
"12400 в хвост и гриву обходит 7700K..."
Сравнение процессоров с видеокартами некорректно. У процессоров и видеокарт разный цикл развития:
Процессоры решают задачи параллелизма и оптимизации базовых вычислений, это более "понятная" и "массовая" технология.
Видеокарты работают с графикой, где каждый шаг приближает нас к фотореализму, что требует всё больше ресурсов.
Сравнивать прогресс между этими двумя вещами - это как сравнивать прогресс в производстве велосипедов с ракетостроением. Да, один продукт дешевеет и становится доступнее, а другой остаётся дорогим и сложным.
4. "Игроку не важно, как работает RTX"
"Игроку пофиг, что там лучики обсчитываются..."
Конечно, большинству игроков всё равно, как это работает. Но такие технологии, как RTX, - это огромный шаг вперёд. До трассировки лучей мы пользовались "фейками" в освещении и отражениях, которые выглядели хуже и были менее реалистичными. RTX - это не про "сейчас", это про будущее. Сегодня это дорого и сложно, но через 5-10 лет такие технологии станут стандартом.
Тебе не кажется странным, что ты сейчас требуешь прогресса в FPS, но отрицаешь прогресс в графике?
5. "Требовать от 4060..."
"Требовать от 4060 4К@60 FPS в нативе глупо даже сейчас..."
Ну так в чём проблема? Ты сам признаёшь, что технологии не успевают за ожиданиями, но при этом продолжаешь жаловаться. Хотите видеть 4К@120 FPS - платите за топовое железо. RTX 4060 - это средний сегмент. Почему ты ожидаешь от неё производительности уровня 4090?
6. "Графика стала лучше, но это не заметно"
"Игры стали выглядеть лучше, но это менее заметно обычному игроку."
Ты сам же отвечаешь на свой вопрос. Чем ближе мы к фотореализму, тем меньше скачки в графике заметны. Но это не значит, что прогресса нет. Это просто означает, что для достижения мелких улучшений требуется гораздо больше усилий. Тебе бы понравилось, если бы разработчики остановились на уровне PS4? Если да, то почему ты вообще рассуждаешь о прогрессе?
7. "Игрокам не должно быть важно, как работает графика"
"Игрока должен волновать итоговый результат."
Это справедливо, но ты противоречишь себе. Если игрока волнует только результат, почему ты требуешь 4К@120 FPS? Это тоже "внутренние проблемы", которые должны волновать разработчиков, верно? Тогда радуйся тому, что дают, или неси деньги за новое железо.
8. "Нет конкуренции"
"Нет конкуренции - зато есть ценники."
Согласен, конкуренция в графическом сегменте действительно слабее, чем у процессоров. Но это связано с технологическими ограничениями. GPU - это более сложная и узкоспециализированная отрасль. AMD старается составить конкуренцию NVIDIA, но из-за меньшего бюджета это получается не так эффективно.
Итоговый ответ:
"Чувак, ты вроде говоришь о прогрессе, но сам противоречишь себе. Ты хочешь 4К@120 FPS, но отрицаешь технологии, которые ведут нас к этому будущему. Если тебе не хватает FPS, настрой графику или купи железо мощнее. А если хочешь стабильности и оптимизации - играй на консолях. Прогресс всегда идёт медленно, особенно на вершине, где каждые +1% требуют огромных ресурсов. Так что хватит ныть, плати за технологии или смирись с тем, что у тебя есть." 😎
@zoofi12007 до этого освещение тоже использовало ртх, просто он запекался в карты освещения. Ртх сейчас улучшает только отражения (ценой огромного количества фпс). Я считаю, что для отражений можно создать менее требовательную технологию, либо реализывывать их по старинке костылями.
Проблема развития современных технологий заключается в том, что они направлены не на улучшение картинки, а на сокращение расходов для компаний. Тот же ртх и нанит, тебе больше не нужно расставлять освещение, создавать лоды, подумаешь что теперь проект не тянет у людей, главное расходы сократили, разработка ускорилась, доходы в карман
Обеими руками поддерживаю.
Чувак какого лешего ты решил сравнить 12400 и 7700к? 7700к это процессор, который за 6 лет прогресса нарастил 25% производительности по сравнению с i7 2600k, и его разгон до 4.7ггц спокойно уравнивает их производительность. То, что 12400 на несколько голов лучше 7700 это не столько показатель прогресса нынешних процессоров сколько показатель стагнации процессоров тех лет! И второе, видеокарты не умеют в универсальные вычисления, и добавление каждого блока вычислений стоит отдельных денег, что же ты тогда возможности в работе с нейросетями и трассировкой у 4060 и 1080ти не сравнишь?)
@zoofi12007 "RTX - это не про "сейчас", это про будущее. Сегодня это дорого и сложно, но через 5-10 лет такие технологии станут стандартом." - карты 20 серии RTX вышли в сентябре 2018г. абы как уже 6,5лет прошло. те-же байки, насчёт того что "лучи будут скоро нормой" рассказывали уже тогда. Лучи не будут нормой. Хватить мечты выдавать за действительность
Претензия к ТАА
1) при низком или нестабильном количестве кадров любое темпоральное решение не успевает улучшать изображение, оставляя артефакты "призрачных следов", замыливания и кубичности. Это усиливается в движении.
2) в каждой игре по разному работает темпоральные сглаживания и масштабирования, ввиду чего в одной игре он выглядит хорошо даже в движении, а в другой - нет.
3) многие игры используют по умолчанию временное масштабирование в качестве временного сглаживания, в результате сглаживая не только края алиазинга, но и вполне четкие текстуры, которые становятся размытыми, особенно в движении.
4) картинка при любом временном решении успевает рассыпаться в движении и нестабильна. Особенно это портит файтинги.
5) некоторые элементы в играх разрабатывают с использованием методов дизеринга и иных приколов, которые дают лучшее качество исключительно в темпоральных решениях. Например рендеринг бороды и волос в рдр2 без таа или масштабирования ужасен.
6) люди хотят видеть сырые пиксели. Они хотят резаться о края и получать картинку в том виде, в каком она выводится на экран без бикудических залуп и временных решений. Это не значит что таа плохо. Это значит что человека лишают выбора.
Сравнивать сглаживание в статике глупо, кстати. Нужно сравнивать в движении, в катсценах и прочих вещах.
Банальное движение камеры без сглаживания в игре не позволяет увидеть весь ужас алиазинга, ибо в движении он незаметен
Вообще проблему лесенок бесполезно пытаться решать костылями типа 100500 сортов сглаживания. Любое сглаживание неизбежно приводит к мылу. Корень проблемы лесенок - в плотности пикселей абсолютного большинства мониторов. Я не знаю почему все делают вид что не замечают этого, но главная же проблема в том что 99,9% мониторов имеют пиксели размером с собаку и физически не способны изобразить диагональную линию не превращая её в лестницу.
Наверное, современные технологии уже должны позволять засунуть 2к матрицу в диагональ 20-23 дюйма, чтобы плотность пикселей была ну хотя бы больше 120. При такой плотности пикселей без всякого сглаживания любая картинка будет выглядеть в сто раз лучше чем с любым сглаживанием но с плотностью в 80-90 пикселей на дюйм.
А если совсем размечтаться и пофантазировать про монитор с плотностью пикселей больше 250-300 на дюйм... Так чтобы индивидуальные пиксели вообще не были видны невооружённым глазом... Тогда ведь можно отказаться от всякого сглаживания вообще, оно просто не нужно. И даже с использованием апскейлинга можно будет получать супер чёткую картинку без любых лесенок, при этом полностью отказавшись от сглаживания. И одновременно это высвобождает какую-то часть вычислительной мощности непосредственно на создание картинки вместо попыток размазать её так чтобы замаскировать лесенки.
На телефонах уже больше 15 лет 300 ппи является просто стандартом, в современных топ мобилках стоят панели на 400 или вообще 500 ппи. Почему мониторы застряли на 90-100 ппи? В самых топовых 4к панелях максимум 150-160 ппи. Ну это просто морально устаревшие технологии.
@@Chastity_Belt потому что телефоны иначе не продать, надо что то подвысpaть в виде преимущества почему нужно купить новый телефон) А на моники все забивают болт, люди до сих пор на full hd не все перешли, чего уж там про 2к или 4к говорить на маленьких диагоналях. Есть шакалы которые на 27 дюймах в full hd сидят, ну это смешно. У меня 21,5 дюйма на full hd и то глаза режет, а им на 27 збс.
@@jackstone4815 нет, потому что на телефоне плотность пикселей ниже 300 выглядит просто отвратительно
Монитор хотя бы находится на каком-то расстоянии от глаз, индивидуальные пиксели не так различимы, телефон же ты держишь очень близко потому что он маленький, ты иначе ничего не увидишь на маленьком экране если смотреть на него на вытянутой руке, поэтому на телефонах высокая плотность пикселей - это необходимость
И в принципе если бы не игры, то на мониторах низкая плотность пикселей не была бы такой уж существенной проблемой, в винде сглаживание интерфейса и шрифтов уже триста лет назад было сделано, ещё на висте или может даже на хр
@@Chastity_Belt да так и есть, но чтобы нативно большое разрешение рендерить это такая нагрузка сумашедшая и что то надо было придумать вот и апскейлеры пришли на выручку
1:03:25 Стоит отметить, что тут однобитный альфа используется, поэтому и появляется шум на листьях. Если бы разработчики использовали соответствущие мипы для альфы - таких проблем с шумом бы не было ни при каком сглаживании. То есть тут косяк разработчиков.
Дальше вы сравниваете DLSS и DLAA на статичной картинке, но проблемы у них проявляются именно в динамике, когда происходит активное движение в кадре и сетка не может правильно рассчитать векторы движения. Обычно всякие сетки и решетки очень плохо работают вплоть до мерцания.
я специльльно взял кадры с растительностью, которая мало того что двигается, так ещё и состоит из альфа-текстур с очень тонкими линиями. Это очень жёсткая нагрузка на алгоритмы как сглаживания, так и повышения разрешения
@@SelectFrom Нагрузка - это когда прозрачные объекты. А тут прозрачных нет, все тестом глубины отсекается.
Подойдите а этой сцене поближе к текстуре, листьев. Чтобы она на полэкрана была и посмотрите на ее края и края полигонов. Интересно как они выглядят при разном сглаживании. Что-то мне подсказывает, что только в нейронных и темпоральных методах будет сглаживаться текстура, в остальных только края.
8:06 Как говорится - не нужно быть поваром, чтобы оценить вкус яичницы. Если архитектор принял безграмотное с точки зрения пользователя решение - то пользователь может высказать все что об этом думает, так как именно он в последствие пользуется безграмотным решением.
может высказать мнение, о результате, но не выкладывать его в интернет со словами "всё неправильно, кирпичи и болгарки - это всё развод на доллары, а математика - это маркетинг", чтобы продать услуги инженеров
@@SelectFromвыкладывая ролик на общее обозрение расчитывать на адекватное мнение. Это уже у авторы проблемы. Беспокоят комментарии, тогда отключи их. Это интернет. Тут как и в реальной жизни могут на Х послать. Нужно просто адекватно к этому относится.
@@kotmurzilkin6380 ну если б мою яичницу оценивали, я бы сказал "не нравится не ешьте, готовьте сами". То есть пусть сами создают видеокарты, делают под них игры, оптимизируют. Это общество потребления, они только "оценивать" могут, сами палец о палец не ударят.
Хах, если б мою яичницу так оценили, я бы сказал "не нравится- готовьте сами". Посмотрел бы я как эти "ценители" создали бы видеокарты и игры для них. Чтобы что-то "оценивать" нужно быть компетентным в этом вопросе, а не простым потребителем.
@@sanchas8943 потому что ты не выкладываешь на всеобщее обозрение свою яичницу. Так бы узнал, что надо было использовать куриные, а не свои личные и еще много чего интересного и нового.
Некоторые люди забывают, что ещё со времён Сеги Мега Драйв и СНЕС в некоторых случаях использовался один "прадед" апскейлеров под названием чересстрочная развёртка, а с приходом полноценных 3д консолей стал использоваться ещё чаще. И никто не бухтел особо почему-то
Хм, хорошее дополнение. Чересстрочная развёртка, кстати, была ещё и средством для решения проблемы ограниченной пропускной способности тогдашних телевизионных каналов вещания
сейчас бы в 2025 ровняться на времена динозавров, типа деды терпели и мы терпеть будем? а в палеозое корешки с говном ели, так что жрите только хлеб, хлеб лучше корешков, нельзя требовать пирожных, так что ли
@@reionami5983 если качество не теряется, то почему нет, DLSS всегда лучше натива, хотя бы потому что убирает мерцания.
@@reionami5983 брат, идея в том, что сделать уловки чтоб не рендерить в честном нативе были всегда, что позволяло при ограничениях железа больше выделить ресурсов на производительность либо на остальную графику. Да, сейчас 2025 (с наступившим кстати) и каждому времени свои технологии. Чересстрочка была очень хороша под методы изображения ЭЛТ телевизоров, потому никто не терпел, все играли и кайфовали, да с приходом ЖК данный способ в играх потерял актуальность потому что интерлейсинг стал более заметным, и вот через такие этапы как ТАА, шахматный рендеринг и т.д. мы пришли к нейронному апскейлу, я понимаю что первые версии могли отпугнуть и родить скепсис из-за повсеместного гостинга и дизеринга, но отрицать прогресс в подавлении этих артефактов глупо, но некоторые скептики продолжают и продолжают это игнорировать
Оставил коммент почему я не согласен про "времена динозавров", но при обновлении страницы он почему-то перестал отображаться. Хз что ютуб с ним сделал, потому попробую пересказать.
Каждой технологии своё время, с чересстрочкой все комфортно играли потому что технологии формирования изображения на ЭЛТ ТВ позволяли хорошо работать этому способу. Как только стали популярны ЖК, то артефакты интерлейсинга стали более заметными и от частого применения чересстрочного режима в играх быстро отказались. Сейчас же мы через такие технологии как ТАА и шахматный рендеринг пришли к апскейлу с помощью нейронок. Первые версии давали массу гостинга и дизеринга, потому я понимаю тогдашний скептицизм, но видно, что производители работают над подавлением этих артефактов, а скептики это продолжают игнорировать. Но суть в том, что поиск способов с меньшими визуальными потерями не рендерить картинку в "нативе" это старая тема, разработчики рады с помощью этого освободить часть ресурсов, чтоб потратить их на более заметные улучшения графики или улучшение производительности.
Я когда в 2010 на своей GTX 480 запускал тех.демку с трассировкой и у меня один кадр более-менее рендерился за час, я был уверен, что в ближайшие 25 лет трассировку в играх мы не увидим точно, но нвидиа приятно удивила.
А дело в том, что человек из Nvidia близко к тому периоду времени публично говорил о невозможности трассировки (в реальном времени) в обозримом будущем. И может, уже тогда, в то же самое время, Nvidia уже что-то тестировала и разрабатывала
аффар, кто ты , чтобы с таким апломбом вещать нам на ютубах? Папе своему рассказывай все это на кухне под бутылочку Столичной
так её и СЕЙЧАС нет ;) ПОЛНОЙ трассировки лучей НЕТ. Есть "сурогаты" с ограничениями и в пределах очень УЗКОЙ части отражений/переотражений. Полную трассировку сейчас так-же как и раньше считают на "процах"(куда-ядрах) и кадр уже высчитывается за 15-20 секунд. ОДИН кадр. только трассировки.
@@chveyk ну хотя бы такая неполная трассировка есть. Это явно лучше, чем её отсутствие. Особенно учитывая, что уже сейчас разница с обычным рендером отлично видна даже в тех же отражениях.
@@Qwertyuni "в тех-же отражения" разница была видна задолго до введения "лучей хуанга" ;) Причём раньше отражения были ЛУЧШЕ!
Да и про "обычный рендер" не стоит забывать - "люмены" и "наниты" могут сделать то, что не могут лучи хуанга :D Просто нужно научится их использовать. А не тупо накидывать из "пресетов"(как в ждалкере2)!!!
Посмотрел - понял одно: мыло и какая-то там темпоральная стабильность - ЭТО ШЕЕЕЕДЕЕЕВВРРР!!! по мнению автора. У меня такой же шедевр в глазах спросонья каждое утро, когда фокус не сходится, или по пьяни, когда все плывет в глазах...
Главный бич современных игр, это не овер нагрузка на ГПУ, это разного рода фризы и статтеры. В старых играх этой проблемы было в разы меньше
Тут соглашусь, кстати. Часто бывает
Да, компиляция шейдеров, статтеры из-за стриминга и подобрные проблемы во многих играх присутствуют.
Да я бы не сказал. Смотря в каких играх и на каких движках. Например, такие проекты как Remember Me и Enslaved на UE3 были весьма богаты на статтеры.
UE как был, так и остался самым дерганным движком. Тут, по сути, ничего не изменилось. Некоторые игры на UE3 даже больше заикались, чем более новые на UE4/5.
Вспомни HL 2 с погрузкой каждые 5 минут))
@@КаменьДагестана ты чё, задача HL2 - рассказывать, какие были крутые отражения без RT. А то, что там эти отражения могли запустить 3 с половиной колеки и отражались там пустые холмы с подзагрузками, это ничего не значит.
Важный нюанс. В 2007 никто не гнался за 60 fps, 30 кадров считались достаточными абсолютным большинством
Главное это была плавность игры, без всяких ФПС-ов, просто по ощущениям. Так и говорили с друзьями - при таких-то настройках картинка дёргается и нет плавности. Сколько ФПС никто не знал тогда.
Скорее 45-60 для ПК. А на консолях жрали что дают
Бред. Всегда тем, кому нравились и кто разбирался в железе и играх, стремились к 60+ фпс.
П.С. Ты о "ПК боярах" двухтысячных только по былинам наслышан?😂😅😂
Люди в 2005м году в quake 3 уже 200-300 фпс имели и на меньшее не соглашались. так что гнались и еще как всегда!
Показывать качество картинки временного сглаживания на практически статичной картинке это сильно.
Проблема любого апскейлера или та, наличие артефактов в движении объектов. Чего стоит гостинг в РДР2.
Вообще, реализация любой технологии зависит от разработчиков и их компетенции. Отрицать преимущества апскейлеров и та глупо, но так же глупо отрицать, что порой картинка без них порой выглядит лучше.
Получается, истина где-то посередине
Так картинка не статичная же. Напротив, там много растительности и она двигается, что означает неизбежное появление артефактов дизокклюзии. Кроме того, это ещё и очень сложные сцены из-за растительности, потому что это очень мелкие и движущиеся объекты. Я не просто так именно Crysis взял
@@SelectFrom все же камера практически не двигается и множество объектов практически статичны (кроме травы).
В видео стоило добавить рдр 2 в сравнения сглаживания. Без ТАА или FSR, листва и деревья выглядят ужасно (как волосы и мех у Майлза). Но гостинг гривы лошадей и прочие мелкие объекты в кадре руинят картинку
Рдр2 это пик ужаса темпоралки(чего стоит натуральный блек смеринг, прям как на вашках) и к такому ужасу большинство темпоральных методов и не приблизились. Длсс последний вообще практически лишен(я гонял с ним на элтшнике, у которого гашение люминафора меньше 1 мс. Не увидел никаких проблем) траблов с гостингом
@@CrackSsкартинка не статичная, лол. Автор ж не стоп-кадры сравнивает, докопался на пустом месте
@@erikroth1569 ну если вы не первый день знакомы темой, то знаете, что артефакты более видны на контрастной картинке с меняющимся фоном объектов
1:23:02
Просто посмотрите на куртку. С ТАА не видно структуру ткани, там просто черное месиво, а вот с SMAA (и скорее всего в нативе без АА тоже) куртка выглядит отлично. И это я еще на телефоне смотрел. Длсс не таким мыльным мне показался (сравните на 1:23:53), но надо смотреть на хорошем мониторе. Лучше уж волосы будут мерцать, чем ТАА.
К спецам вопрос: нельзя ли ТАА применять только к волосам и эффектам (как бы локально или рендерить это дело отдельно), а всю картинку не портить?
UPD. Глянул на большом мониторе, всё выглядит еще хуже, чем я думал. Почти все эти кадры статичны и в них всё норм, но когда чел двигается в кадре, сразу видно отвратное мыло от ТАА. Когда вы будете играть, у вас картинка будет ещё динамичней, чем на этих кадрах, и ТАА навалит мыла.
Ты блин серьезно?По твоему дико заметное мерцание лучше чем taa?Да если ты под лупой не будешь сравнивать кадр к кадру ты бы ничего и не сказал.
О применение TAA локально к волосам и ответ конечно же можна но ето требует больше усилий от разработчиков. Можна даже просто хорошо реализовать свой TAA глобальный, который буде очень неплохо смотреться, но просто весь вопрос в деньгах. Намного проще зделать универсальное решение которое и так сойдет. Unreal Engine тому пример, там много всего заточено на использование TAA без вариантов использовать что-то другое, просто потому-что ето хорошое решение для Fortnite, а небольших розрабов устраивает то что и так есть, не будут же они нанимать команду график програмистов ради небольших улучшений в качестве.
Здравствуйте! Досмотрел до 20й минуты) Вопрос: ранее видел 1 ролик про 8к гейминг (примеры были на телевизорах с HDR) и вопрос - могут ли апскелеровй DLSS 4 или AFMF3, XESS 2.0 на RTX 50.. вытащить хотя бы на средних настройках в 8к ?
Почему спрашиваю. Ранее, вреди коротких новостей, наткнулся на мнение одного из разработчиков No Man Sky - что многих игрокам только предстоит увидеть красоты игры в 8К. Он был ответственнен за проработку игры -для новых будущих Playstatoin.
Относительно 8К - пока совершенно нереалистичный сценарий для игр, по крайней мере новых. Старые будут работать нормально. Если брать новые с трассировкой лучей и тем более пути, то там даже в 4К плохо уже, что говорить про 8К. Игры без трассировки запустить в принципе реально с DLSS на топовых картах
Есть отличный канал zWormz. Чел тестировал и 8К и даже 12К. С апскейлом вполне реально, если памяти хватает
На тему DLSS, то есть фактора - 4к разрешение и огромные локации. Я лично считаю, что использование больших открытых миров - это расточительство в использовании ресурсов, но на это есть запрос со стороны игроков, потому что 100 часов игры не запихнуть в маленькую локацию...и на эти 100 часов есть запрос. Мало кто помнит, что Crysis можно было пробежать за 9-10 часов. А что это значит?! То что разрабов ждет колоссально большой объем работы, и следовательно нужно думать как это все упростить. И какой вопрос одних из самых сложных вопросов? Освещение! И вот недавно вышла игра про Индиану Джонса, где авторы просто всё освещение на основе RT, и игра имеет великолепную оптимизацию. Но людям многим не понравилось, что для игры нужна видеокарта моложе 6 лет. Знаете что вы бы запустили 6-тилетней видюхи в 2007-ом?! Явно не Crysis.) 4к к нам пришло с консолей...да на консолях шахматный рендер и т.д., и да далеко не у всех 4к мониторы, но через лет 5 это может поменяться, и уложить в одну игру 4к, RT и большой мир с 100 часами геймплея...тут железом не напасешься, тем более от версии к версии отличить игру с DLSS и без всё сложнее.
На тему Crysis...я в 2008-ом собрал современный комп с Core 2 Duo E8550/4гб DDR2 800/GF 8800GTS, и на разрешении 1280x1024 игра шла далеко не высоких настройках и фпс явно было ниже 60, а еще счастье подливала Windows Vista, так как Windows XP не работала с DX10, поэтому стояло 2 винчестера - на одном стояла XP, а на втором Vista. А еще игра не умела в мультипоток, и крутые в тот момент Core 2 Quad просто простаивали. Игра на топовых машинах тогда шла в 20фпс. Создатели игры поняв, что дрочево на графон денег не принесет, и начали упрощать графику в будущих частях, чтобы хоть как-то выпустить на консолях, так как ПК-рынок тогда был значительно скромнее, и пиратство на ней очень процветало. Только студию это не спасло.
Хз, какой там топовый пк, я в 2007 году собрал пк на 775, с дуалкор 2400мгц, 2гб ддр2, в один канал, хдд на 120гб, и гт9600 на 512 мб гддр3, и моник 1280х1024, не каких тормозов, хз я тогда фпс не мерил, но тормозов и рваного кадра не было видно, и я на этой сборке играл до 2014 года, там я поменял материнку, озу, и видюху, тот же 775 но уже на джи 41 с ддр3 4гб в один канал, и гт730 с гддр3 2гб, и 378 куда, и я на этой сборке играл до 2016 года, там докупил ссд, сайта на 120 гб под Винду, еще одна планка ддр3 4гб итого 8, и зеон е5440( самое главное на тот момент), и гтх750 2гб, и так играл до 2018 года, там перешел на 2011 х79т, 32гб 4 по 8гб ецц итд, и гтх960 на 4 гб от манли... Ну сейчас ам4, 16гб, райзен 5, ссд м2 240 под Винду , 1тб м2 под игры, и 3058.... Индиану проходил на средних в 35фпс ( залоченных) в 900пи
@@Dan.Strelok я как понимаю Целерон Дуал-Кор?! Потому что GF 9600GT еще не вышла тогда.
ННу насчёт 100 часов в игру без больших открытых миров не запихнуть - это ты дал, посмотри в инди-игры, там в подавляющем нет игр с большими открытыми мирами, и игроки там наигровают и больше 100 часов.
@@Dan.Strelok Твой глаз привык к лагам росияснкий колхозник .Лучше бы ты учился ,а не пытался играть на хламе до 2014 года , до первых санкций так сказать
@@servalmc Какие же тут тупые все не зря Жириновский говорил так о Уральцах.Такую чушь 9600gt тянет crysis зхахаха конечно лол
+15 долларов от Хуанга. Автор молодец, так держать!
За такое куртку конечно не подарит, ну 5060 мб даст чисто на обзор
И кошкожена!!!
@@BlackYAO и то жирно для канала на 3к )
И + 5 долларов от Лизы Су автору комента😂
Я человек не богатый, у меня 4060. Я включаю DLSS а картинка становится объективно хуже. Это просто факт. Можно сколько угодно страниц исписать какая это замечательная технология от этого картинка лучше не становится. А вот что очень круто это приложение энвидиа app где можно тыкнуть Alt+Z а навернуть четкость, резкость и т.д.. Это великолепно. DLSS наворачивает мыла. Если без DLSS у меня комп не тянет игру я её просто откладываю на будущее, поиграю когда куплю новую видеокарту.
Увеличение резкости и чёткости можно применять к картинке и после ТАА/DLSS/DLAA. Попробуйте
Купи 4к монитор и выкини 8 гигов видеопамяти
все зависит от пряморукости разрабов. есть игры (их немного), где длсс2 не портит картинку даже в 1080р. про FG я ничего сказать не могу, ибо в 3000 серии его зажали)
@@НикитаН-о1ь для ПК 1440р более чем достаточно для большинства пользователей. 4к слишком тяжёлое разрешение да и толку на маленькой диагонали немного
@@SelectFrom Да у меня был 1440p на 25 дюймах немного мыльноват, вот 27 на 4к хорошо.Для 4к думаю максимум как для монитора 32 дюйма
большинство технических специалистов в комментариях в 2007-м еще учились ходить и разговаривать, а некоторые даже пошли в школу
Ты молодец очень понятно всё объяснил ,не обращай внимания на комментарии безумцы были всегда , те кто по умнее прислушается
Спасибо. На это и расчёт
Ниже 60 ФПС играть некомфортно?
После того, как я играл в сингле в шутер с одним кадром в две секунды и умудрялся убивать врагов (прям новый жанр - пошаговый шутер).
После того, как я играл в онлайновом шутере на модеме 33.6 (килобит в секунду) и мог обогнать собственную ракету из-за пинга.
После того, как я играл в ММОРПГ на китайском сервере хилом с пингом в 2000мс (нулями не ошибся) и успешно выполнял свою задачу отдавая команды заранее.
После этого всего "плач" про "меньше 60 ФПС" вызывает у меня просто инфернальный хохот.
Спасибо, "улыбнули"...
Меня больше прикалывает то, как автор подходит к сравнению производительности при разных разрешениях.
Тесты Crysis в Full HD на железе 2007 года, производительность игр 2013-2014 годов измеряется на серьёзных щах в Quad-HD и 4К гейминг на видяхах 1000/2000 линейки, лол.
- HD Ready и всё около него было стандартом где-то с 2006-2007 по 2010-2011 год (С GeForce 8000 по GTX 400).
- Full HD стал стандартным разрешением с 400/500 поколения и оставался оным до 1000 линейкий.
- Quad-HD начал становиться стандартом только в 2017 году, когда вышла 1080 Ti, а Nvidia вместо ежегодной смены поколений стала клепать промежуточные Ti/Super. И пробыл в качестве стандарта до 2022 года, пока не вышло семейство RTX 4000.
А где, позвольте спросить, производительность измеряется в QuadHD в 2013м году? Там тесты только в 1080p везде. Да и у меня то в целом нет претензии к производитльности лично. Это я показываю для свидетелей нативного разрешения и 60+ fps везде и всегда в играх, которые выходили до распротранения апскейлеров
Gt 9600 крайзис 1 на средних 720p
20 - 30 фпс. Тебе нравится?
А гта 4 шла на gt 9600 в 1080p с 30 - 40 фпс на высоких.
Это так для сравнения, что из себя представлял кукурузис.
Благодаря этому он играбелен по сей день, а все остальные "оптимизированные" игры требуют ремастера
Большое спасибо, посмотрел до конца, очень круто!
@SelectFrom Крайзис в своё время был банальной технодемкой с накрученным визуалом, вообще в этом как раз и состоят обвинения разрабов, что они банально накручивают триллион эффектов и 64к текстуры, мол смотрите как красиво, а потом любая видюха в этих эффектах и текстура захлёбывается. Самое смешное, что зачастую это ни разу не красиво к тому же. Ну либо просто забивают на оптимизацию, ведь у всех же 4090(а ой... уже 5090) стоит, и можно же включить ДЛСС на ультра производительность! (🤡). Пресловутый Сталкер 2 - где там красота? Обычная графика последних лет. А тормозит он жутко, при том что там даже лучей нет.
И вот ты в видео приводишь в пример Middle-earth: Shadow of War, в которой нет ни лучей, ни ДЛСС. И в которой визуал может легко соперничать со всеми последними играми. У меня 2060 супер и он идёт в стабильных 60 на фул ультра. При этом многие игры последних 2х лет не имея лучшего визуала, а то и даже худший, тормозят даже на минималках.
Например в Elden Ring я не могу добиться стабильных кадров, даже на фул минималках есть места где начинаются лаги, хотя в целом 60 кадров даже на высоких он держит. Визуал в елде никак не на порядки лучше чем в Shadow of War, +/- тоже самое. Вопрос, а в чём проблема?
У меня в библиотеке куча игр которые просто откровенно тормозят на ровном месте имея визуал из 2010-2015 года. Это просто смешно.
Это эффект от упрощения технологий, сейчас что бы сделать картинку уровня 2017 года нужно нажать 3 кнопки и забить на всё остальное, раньше что бы добиться такого же результат пришлось бы попотёть, и раз ты потеешь над проектом то понятное дело будешь его улучшать с точки зрения оптимизации.
Проблема в первую очередь в игровых движках которые точились так то под 4-8 ядер 2011 года в лучшем случае, ни одна игра 0 игр повторюсь не заточены под те же ССД, да если запустить сталкер 2 на HHD то будет долгая загрузка но игра будет работать нет ни одной технологии которая во первых доведена до ума а во вторых требует тех мощей и тех скоростей который лет 10 и не снились ни то что на консолях а даже на пк но при этом не оправдывает такие требования и на половину.
42 года игровая индустрия училась работать с полу статическими тенями и заранее созданным освещением а так же обманом игрока в плане эффектов, и тут резко модно стало делать всё в реалтайме без обмана, отсюда и проблема, движки и разработчики 40+ лет работали над тем что бы обмануть игрока а не то что бы показать реалтайм графон с RTX, сейчас 2 варианта развития событий, либо игровая индустрия захлёбывается как было с PT на Atari в 80тых, либо кто то из техногигантов придумывает Дешевый а главное быстро-действенный транзисторы которые позволят возложить на себя такие потребности у игр как это было с CUDA ядрами в 2007 году и Унифицированными шейдерами во времена когда пиксельные шейдеры и вертоксные загибались.
То, что происходит с графикой сейчас это просто фантастика. Больше всего удивляет то, что Нвидиа предложили RTX тогда, когда его использование было невероятно тяжелым для карт. Это даже казалось глупостью, а потом начали каждый год выкатывать революционные технологии, которые шаг за шагом приближали рейтрейсинг к реальности. Они ведь не могли прогнозировать развитие нейронок и то, что все так сложится? Сейчас это нейронные методы сжатия текстур и технологии формирования промежуточных кадров, так же на нейронках можно физику предсказывать. Короче говоря, скоро нейронный модуль будет необходим для многих задач. Даже сложно представить куда все это приведет. Как будут выглядеть игры лет через 5-10.
Про оптимизацию можно было не снимать ролик. Действительно оптимизация может быть плохой у игр, которые делают только для PC, но мультиплатформа ограничена требованиями плейстешн и X-box. Они обязаны хорошо работать на них, а там достаточно слабое железо. Поэтому эти игры нормально оптимизированные всегда. Исключением был киберпанк, которые имел много глюков на релизе и плохо работал на x-box s. Ну и как результат.. Скандал и его убрали из магазинов консольных. Не помню было ли такое в истории, вроде нет.
Как пересел на 3060 перестал играть в нативе в любые игры где есть DLSS, в нативе 1080р RDR2 мыло, а с DLDSR в 1440р, рендер идет так же в значениях около 1080р т.е производительность остается той же +-, а картинка становится четкой и без мыла
да
И ты в курсе, что у тебя кадры неполноценные? А? Каково это, так жить? Что дальше, пиво без алкоголя?
@@KalimN а здест кто-то упоминал фреймген? Мне плевать какие там эти кадры полноценные больные плешивые фальшивые мне пое***ать если игра при этом идёт плавнее нет разрывов и инпутлага мне пофиг как ты называешь эти кадры. Те которые как бы настоящие ориджинал кадры они как бы то же вымысел, их нет, это иллюзия отображаемая на мониторе через видеокарту. К этим кадрам через технологию фреймген игра задействуя процессор докидывает ещё кадры. А представляешь было время когда видеокарт не было , а игры были и работали на процессоре, тогда то же кадры были фальшивые. Так и живём, слабоумная петрушка услышала бред в интырнетах и разносит его по сети.
Мне таких жалко.
@@defaultnormiz Ладно, мы оба погорячились. Я насчёт неполноценности кадров. А ты - насчёт того, что они вымысел 🙂 (это юмор)
Я не согласен, мыло есть мыло, а сглаживать можно комбинированными методами для спекулярного алийзинга(изобрели давно, но чтобы внедрить нужны ручки) и SMAA/MSAA с альфа ту ковередж , темпоральную нестабильность можно избегать на этапе разработки (просто избегать некоторые типы текстур). Картинка будет чистая, но куда легче просто впихнуть TAA.
Dlss сейчас лютое мыло(CNN мылит, Nvidia сама это показала) жду DLSS4 потестить.
В Crysis, помню, обсуждали, как там каждую травинку можно разглядеть.
И порезатся об её края без MSAA сглаживания, которое ооочень сильно нагружало видеокарты! =))
а я засиживался на форуме оверклокерс в попытках разогнать свою 8800GT, чтобы она выдала в крусисе хотя бы 25 фпс вместо 20.
Во было время. И никто не ныл, как нынешние тиктокерские зумерки-снежинки
@@PhilosophicalSock так ты и сейчас можешь на оверклокерс сидеть в попытках разогнать свою 4090 чтобы она в нативных 4к не 20 фпс, а 25 выдавала. С каких пор это является нормой? Ныли и тогда, но в те годы прогресс хоть немного шал вперед. Сейчас модно накинуть 10% перформанса, а остальное программно нейронками дорисовать. В прошлом поколении нейронка рисовала 1 кадр, в новом 3 кадра. Но железку купить не забудьте, иначе нужно же новую куртку из крокодиловой кожи на что-то покупать)
@@MrFiacko объясни, что делать, когда физически наращивать количество транзисторов становится уже невозможно? как еще повышать производительность, если не Иными путями? очень интересно послушать, хотя бы фантазии.
@@ДанилаМастерЛомастер Убрать тензорные ядра и в освободившийся транзисторный бюджет нарастить куда ядра для начала
с 2017 года сидел на ультразатычке GTX 1050 TI, поскольку был школьником/студентом и не мог себе позволить мощный пк.
В прошлом месяце проапгрейдился, также купил новую видеокарту - RTX 4070 и решил попробовать все ААА игры, которые выходили с период с 2019 по 2024 год. Поэтому описываю свой личный опыт ощущения текущих технологий, которые сейчас используются в играх для владельцев таких видеокарт:
1) Ray Tracing - картинка в плане освещения заметно становится лучше по сравнению с отключенной опцией. Оптимизация лучей на картах RTX по состоянию на сейчас - хорошая, с включенным DLSS 3-й версии в режиме качества вы практически не почувствуете падение производительности.
2) DLSS - тут по сути сделка с дьяволом. Вы получаете заметный прирост производительность в обмен на более мыльную картинку, степень мыла зависит от того, что вы выберете и как сильно будете на этом зацикливаться. Я отлично играл с опцией на качество и DLAA, все что ниже - включать не рекомендую. Что же касается других апскейлеров - FSR / XeSS, то как и DLSS все дают примерно одиннаковый прирост кадров, но вот FSR выдает просто ужасную картинку в любом режиме, XeSS дает хорошую картинку, но присутствуют артефакты, есть еще TSR (его я пока видел в Сталкере 2), вот он по качеству картинки и производительности с DLSS или на одном уровне или даже лучше.
3) Генерация кадров - абсолютно не понимаю критики данной технологии, дает просто громадный прирост кадров, но при этом я не заметил каких-то очень сильных артефактов или проблем связанных с управлением в игре. Возможно раньше это так и было, но сейчас эта опция можно сказать обязательная к включению, особенно, если у вас монитор с герцовкой 144 и больше. Я смотрел в интернете как генерация влияет на картинку, примерно понимаю как оно работает, но повторюсь, мой глаз во время игры не заметил что-то такого, чтобы стало причиной это вырубить.
Почему 4080, я не 4090? Ведь 8800 ультра это именно топовая конфигурация, а у 8800 GTX цена была 599 долларов, что составляет 870 долларов в ценах 2022 относительно 2006 года. Кроме того если карта вышла в начале 2007 года или конце 2006 года, то учитывать 2006 год не следует, а следует считать с 2007 года, то есть коэффициент уже будет 1.4 , а не 1.45 , в общем спич про равную стоимость - просто подтасовка фактов. Ещё более странно считать относительно 8800 ultra, хотя сравнение с 1080 ti было бы куда интереснее, но не в пользу мнения автора )) Однако тут автор привязывается к крайзис, так что всё нормально, но всё равно выходит что при сравнении именно топов одинаковой цены не будет. Стартовая цена 1080 ti в ценах 2022 года составляет 825 долларов, у 4090 это 1600 долларов. То есть в контексте сравнения цен разных поколений Nvidia автор упоминает только худшие примеры.
Так удобнее выходит, да и куртка не жмёт
Все посчитал до цента 😅, да топы стали дороже, куртка хочет денег тоже да ... и? И что ты сделаешь? Не купишь? да и Не покупай, голосуй рублем, ... не ной только.
@@Aleksey-vd9oc Так ноешь ты ведь вместе с автором видоса, мол как это юзеры смеют жаловаться на цены, а я указал на явные манипуляции в словах автора. Чё ты высрал - непонятно, кроме как поныть что тут кто-то с автором несогласен ))
Натасовал он с ценами знатно, взял именно 8800 Ultra как самую дорогущую на релизе, она была просто бомбовой на тот момент - первая карта DX10 и огромный отрыв от предшественников, 8800 GTX НИЧЕМ не отличалась от 8800 Ultra, кроме частот, разница в производительности между ними минимальная, 8800 Ultra брали только мажоры которые деньги не считали, для остальных даже не бедных геймеров топом была 8800гтх (точно так же как совсем недавно считались игровыми топами варианты Ti, GTX980Ti, GTX1080Ti, RTX2080Ti и никто не считал игровым топом в этих линейках версии Titan) так что уже само приплетание цены именно 8800 Ultra а не 8800GTX есть подтасовка фактов. Дальше - цены эти довольно быстро снизились после ажиотажа и Вау-эффекта от DX10 и тд, я например не стал брать 8xxx серию и её клоны в 9xxx а купил сразу GTX 280 за 13.5 рублей новую в магазине, тогда это было 400 долларов, самый мощный и не урезанный монокристалл, в полтора раза быстрее 8800 Ultra, единственная карта от NVidia в истории на 512bit шине с моночипом (даже выходящая скоро 5090 с 512 шиной имеет не монокристал а склейку из двух 256 битных чипов), GTX280 была самой мощной картой в мире, до GTX480 было ещё далеко, даже GTX285 (55нм) ещё не вышла, и всё это за 400 баксов из магазина, вы можете сейчас представить RTX 4090 за 60к-70к рублей в магазине ??? Ещё раз: 13.5к рублей новая карта в магазине с гарантией, актуальный ультимативный топ, и 300к рублей за 4090, и автор имеет наглость говорить что цены ОК. Даже если считать что доллар поднялся в рублях Х3 примерно (тогда был около 30:1) и плюс инфляция 1.4 то всё равно 13к и 300к несопоставимые суммы за игровой топ.
@@ivanivanov9734 Упоминания автором цены титана я вообще не понял. Титан вообще никогда не считался игровой картой, нигде особо не светился и существовал в своём измерении. Тут могут сказать мол 90 карты это как реинкарнация титана, хотя это очевидно не так, титаны ближе к линейке Quadro, тот же TITAN RTX на тьюринге имел цену больше 2к долларов, когда 2080 ti стоила 1к долларов. Но даже в этом случае при сравнении хх80 карт с 4080 получается, что последняя стала дороже минимум вдвое относительно прошлых линеек, даже с пересчётом по инфляции США.
Спасибо ГодРею, что в последнем стриме упомянул этот канал. Отличный материал, и автор его подаёт грамотно и доходчиво. Подписался.
*Очень нужное видео.*
PS 38:42 - ну вот, кстати, 980ti в 3-м "Ведьмаке", со временем, в нативе стала вытягивать 60 fps в 1080р. *Т.е. оптимизацию таки довезли* - не надо и это со счетов сбрасывать (в ролике локация из нового ДЛЦ, оно тогда только вышло и было очень тяжёлым первое время).
Темпоральные и пост-процессинговые методы сглаживания невозможны без истекающих из их принципа работы артефактов итогового изображения. Смягчение картинки (читай, замыливание) даёт явную потерю общей детализации, в том числе и текстур. Это помимо шлейфов за движущимися объектами на контрастном фоне и прочее и прочее. На реддите даже есть целое коммюнити хейтеров TAA и всяческие лайфхаки по его отключению с кучей сравнений до/после не в пользу первого. Так что семплинг (+его производные) по сути единственный метод без артефактов в статике И динамике исключающий какое-либо ухудшение картинки. Цена высока, но хорошее не бывает дешёвым.
да автор задрал со своим "смягчением картинки" новояз какой то очередной, большинство людей называют это мылом, мыльцом, еще со времен ПС3 и угорают с этого, на пк всегда ценили честное разрешение 1к1, а сейчас и вовсе можно ренедер повышать в настройке игры или через ДЛСР в видеокарте. Почти во всех играх любимое автором "смягчение" картинки с помощью ТАА на самом деле просто в ноль убивает всю детализацию текстур, та же текстура одежды в РДР2 с ТАА просто исчезает, вся игра как пластелин, а вместо тканей с видными швами - гладкий вазелин. При этом трава и волосы сделаны этой сеткой прозрачности, так что тебе просто не оставляют выбора играть без сглаживания, ведь тогда все рябит дизерингом, без которого раньше как то справлялись, в той же гта5 делали волосы спрайтами+полигонами или траву и без сглаживаний ничего не рябило.
И ТАА еще очень сильно мылит при движении. И так почти во всех играх с ТАА, потому выходит никто не может ТАА нормально сделать, в сообществе на реддите вся база изложена и там куча пруфов с ДО/ПОСЛЕ где таа это мыло.
Играть с мылом как было так и есть удел консольщиков которые в трех метрах от экрана сидят или для портативок, ну или для альтернативно одарённых любителей "смягчения" картинки, которые променивают четкость текстур и полигонов на возможность чуть накрутить теней, блумов, волюметрик туманов, бликов, аббераций
@@reionami5983чел, ты бросаешься из крайности в крайность - или мыло, или четкая картинка. TAA способен дать и то, и другое причём с гораздо лучшей производительностью, чем остальные методы.
@@reionami5983 автор напирает, что дескать грамотно настроенный TAA "это другое", хотя оно принципиально как было слоем мыла, так и будет как ни настраивай. К сожалению, де-факто монополизация UnrealEngine рынка игровых движков будет и дальше способствовать повсеместному использованию TAAU. Нативный рендер отмирает, всё будет на апскейле по умолчанию
Зачем нужны методы без артефактов в статике если речь про игры где статики не бывает?
@@vladimirotes5470Любое сглаживание мылит картинку. Кроме DL DSR. Нормально настроенный ТАА реально имеет право на существование. За неимением ДЛСС. Артефакты возникают из-за плохо настроенных векторов движения и если разрабы используют слишком много кадров для реконструкции.
15:06 подумаешь 8800 gt вместо ультра и почти одно и тоже с твоих слов, только 8800gt стоила 350 долларов. А потом вышла 9800gtx по цене 299-350 долдаров. А перед этим 7950gx2 ДВУХчиповая стоила 600 долларов. Ой как удобно получилось с ультрой)))
у меня была 8800gt. Помню, как пускал слюни на 8800ultra, и стоила она около 1к зелени. Разница между картами ~25%
Ни то, ни другое не тянуло крусис даже в 30 фпс. В чём смысл твоего комента?
Клоун
Спасибо автору, все видео посмотрел. Первое видео, где все ясно , теперь на телефоне s23ultra запустил эмуль PS2 все отлично, настроил шитую PS Vita в VitaGraphix и GPD Win 4. Везде где можно отключил MSAA, как будто купил новые устройства, на маленьком экране оно в обще не нужно, зато прирост кадров везде ощутимый. Реально на телефоне нормально заработал эмулятор PS2, на gpd win 4 как раз таки crysis 3 Remaster
братва, не смотрите это, не множьте ему просмотры, обычный скам на наболевшей и потому хайповой теме.
приведенные аналогии - это не то что теплое с мягким путать - ощутить разницу ты можешь тактильно, посредством одного своего сенсора, а теплое с синим! ты хотя бы одну инструкцию, хотя бы к обычному анальгину читал? ты в курсе что у каждого организма СВОЯ реакция на каждое конкретное лекарство? от банально противоположной - обезболивающее может вызвать боли, до аллергии - а это смерть от асфиксии в результате отека гортани. я уж не говорю о выражении "новейшее": ГОДА(!!!) испытаний на мышах лабораторных, потом еще года на людях и только потом получение торговой марки и выпуск в продажу. равно как и отпуск из аптек: безрецептурные лекарства - это те, у которых шанс навредить минимальный + куча противопоказаний в инструкции. и да: если оно действительно новейшее - поздравляю, его испытывают на тебе.
пример со стройкой - такой же издец: люди, что жили в этих домах, по-твоему, сами просили - постройте нам дома из говна и палок, чтобы строительные компании и лоббировавший их чинуша побольше на нас заработали, а мы там потом все умрем, так? или ты говоришь о том чинуше, что на этих стройках заработал - он в этих домах жил?)
так же с последующими тестами: в\карта мб и старшая на момент выхода, а что с остальным? приведенные примеры - чепуха низкочастотная, из которых только один проц был подразогнан до 2.93ггц и то там хрен разберешь - что за разрешение, какие настройки? и поверх всего - ну вот там смотрите, там вот фрапс в уголочке на дерганной картинке... жирнющий квад кх9650 вышел за день до выхода игры - где тесты на нем? в разгоне, с жирной комплектухой и прочими радостями "топовости"? кх 6850 - вышел летом 2007, тоже 3ггц в стоке(!) - он где в тестах? если неясно, напомню - в те года софт был однопоточным, и потому главным критерием топовости была частота. и что процы, что - тем паче! - видяхи разгоняли вплоть до "белого духа железа"). а в приведенных примерах я разглядел лишь 2.4, 2.66 и 2.93ггц с непонятным прочим... бл, да тогда уже, емнип, были высокоскоростные рапторы - винты на 10к оборотов шпинделя! СЛИ - тоже не показатель, ибо там могла быть та же проблема. иными словами: при тесте В/КАРТЫ - у тебя НЕ ДОЛЖНО БЫТЬ упора в прочее железо. равно как и в панели нвидии: если там чего накрутить - можно много какие карты унизить, был личный опыт).
даже если ты прошаренный юзверь, ты знаешь что и как работает в компе, ты его нафаршировал максимально - едва ли у тебя все обновлялось равномерно. я о переферии. о мониторах в частности. может и хотелось побольше диагонали, но в среднем даже среднестатистические 17 дюймов - это все еще может быть 1024х768. это даже еще не ХД.
тут вот еще подумалось: а точно все мы начали играть в крузис в ноябре 07-го? или же до нас, до России, игра докатилась через год? да даже полгода - это уже многое меняет, ибо уже ати хд 4870\ гтх9800+! даже при том же кваде на 3ггц) нет, конечно, если мы меряем сферического коня в эфире - то и у Кармака на момент разработки, емнип, 2-го дума была ЭЛТ-шка на 32 дюйма диагонали, хотя тогда даже матюков а-ля хд или фхд - даже не знали, ибо это ДО миллениума было)
исходя из таких аналогий очевидно, что видик - манипуляция: теплое с синим, твердое с децибеллами.
ах да, чуть не забыл, мы ж тут про оптимизацию... мне от одного названия видика вспомнилась одна история с игрой, яндере-симулятор называется. кто не в курсе - гляньте видик у Булджатя) а кто в курсе или уже посмотрел - достаточно одного примера: зубная щетка в несколько десятков тысяч полигонов. собственно мне даже всю эту пасту писать не стоило - достаточно вспомнить эту щетку). вот так сейчас выглядит оптимизация в играх. не-не-не, не надо мне говорить про то, как создавалось, кем и сколько людей в штате разработчиков. если только вся игра - это не симулятор разглядывания зубной щетки, конечно же) кстати: в игре той ее даже в руки взять было нельзя, только тс-с-с!)))
так вот, игра - это продукт комплексный. не графонием единым. зачем мне, чтобы насладиться игрой, ЗНАТЬ какие вершины вершин были достигнуты в технологиях? или нах... то есть зачем мне эти технологии если именно они НЕ ДАЮТ мне насладиться игрой? как мне осознание величин просчетов каждого лучика от каждого источника света поможет поиграть в лагодром? ЗНАНИЕ ТЕХНОЛОГИЙ мне НЕ ДАЕТ КАЙФА в игре. остановиться и увидеть красоту - ну разок, ну другой, а тормозит и тупит игра из-за этих технологий - постоянно. так нахрена мне тогда эти лучи? нахрена мне тогда мылящий эти лучи длсс? и нахрена мне карта за цену уже не крыла, а целого боинга?
развитие технологий - это когда за примерно ту же стоимость ты получаешь больше. в случае с 1000-ми картами от куртки - дешевле предыдущего, емнип. сейчас - наоборот. и никакое знание технологий меня в этом не переубедит.
Ага, хз нахрена мне ютюб настырно пихает то это, то высер в стиле "нет, вы послушайте, вы не понимаете, ВАМ НУЖНЫ ЛУЧИ!" от упомнятого GoodRay
Крайне годно!
ДЛСС не всегда лучше натива в 4К из-за гостинга, который нередко встречается в играх. Но я бы сказал, что ДЛСС в 4К лучше нативного 4К где-то в процентов 40% игр, не хуже натива еще где-то в 50% игр, и лишь в 10% игр ДЛСС хуже натива 4К значительно из-за гостинга, мерцаний или прочих артефактов. Это невероятное достижение.
И самое интересное, что ДЛСС Производительность в 4К во многих играх выглядит намного лучше ДЛСС Качество в 2К, и при этом потеря ФПС порядка всего лишь 10% (я тестировал 7 современных игр). А это значит, что 4К стало доступным форматом, и теряя всего лишь где-то 10% производительности вы можете играть на 4К мониторе. Даже больше скажу, ультрапроизводительность 4К тоже в некоторых играх выглядит неплохо и вполне играбельно (это апскейл с 720p), а в некоторых играх на Анреал 5 можно настроить апскейл в процентах, что удобно.
Единственное, что убивает в играх, это микрофризы и статтеры. Проблема началась не сегодня. Например, в Хеллблейд 1 есть статтеры, и это бесит, когда на 4080 Супер игра 8летней давности имеет фризы. И на форуме Стима жалуются на статтеры с 2017 по 2023 год на видеокартах от 1080 Ti до 4080. И это не исправили, просто забили на это. А в современных играх статтеры просто через одну игру. Это и Dead Space Remake, это и Returnal, это и Star Wars Survivor, это и Until Dawn, это и Wu Kong, это и Silent Hill 2, это и A Quiet Place: The Road Ahead , это и EA WRC 2023. Переигрывал в F1 2015 года, и там оказывается есть статтеры. Жесть. А в F1 2016-2017-2018-2019-2020-2021-2022-2023-2024 не статтеров. Удивительно
гостинг и мерцания - как раз то, что нам пофиксит новая версия длсс с релизом 5000 серии.
Уууу, проклятый хуанг!111 чистое зло
Потрясающе подробно, спасибо!
Главная проблема современных игр в том, что они на минимальных настройках требуют железо как игры 8 летней давности требовали для максималок. При этом современные игры на этих минималках выглядят ХУЖЕ старых игр, даже если запускаются на значительно более крутом железе. Это означает именно исчезновение оптимизации в современных играх.
Новые игры на новых движках для достижения того уровня графики, который был на 8-летнем железе и в играх 8-летней давности требуют железо в 2 раза более мощное. А то и в 3. Именно на это жалуется большинство игроков.
когда я давно сидел на gt650m и попробовал запустить ведьмак 3 она жутко лагала, на минималках в 720р она жала дай бог если 25 фпс и выглядела хуже скайрима на максималках. Это получается, что оптимизация уже тогда хромала?
Большинство игроков ни черта не понимают в том, про что ноют.
Разрабы из 2015 даже мечтать не могли о фотограмметрии, текстурках высочайшего разрешения, возможности наполнить мир огромным количеством мелких деталей, и тем более о трассировке.
Но вот выходит в коменты типичный Уася из седьмого Б класса и давай выдавать базу про то, что разрабы все говно потому что игры из 2к24 не летают на его топовой 1050 Ti. А вот в 2015 году-то всё летало!111 И халфа вторая с отражениями летала!
@@PhilosophicalSock 1050ti вышла в октябре 2016, учи матчасть
@ ужасающая ошибка, нет мне прощения. ушёл учить матчасть
Спасибо за выпуск 🤟👌
Всех благ и тёплых эмоций ближнему кругу ❤️
От того что долго говоришь, картинка чётче не становится от длсс, а оптимизация в реальном времени не увеличивается.
Ваш канал - открытия для меня. Очень познавательно!
Включил видео про то "Как DLSS победил оптимизацию в играх" а автор 10 минут ноет, что люди ебобо. Так ты сам сейчас себя спустил на их уровень. Они так же не посмотрят видео и напишут комменты и т.д
нет, я в эти 10 минут написал лишь про то, что в интернете огромное количество безграмотных людей, которые не хотят (да и не смогут) образовываться. Проблема в том, что вот такие вот индивидуумы распространяют дезинформацию, из-за чего людям, которые хотят разобраться в вопросе, сложнее искать информацию потом. Потому что сейчас найти полезную информацию - это всё равно, что искать бриллиант в луже в океане экскрементов
@@SelectFrom Как-то сложнее вовлечься в диалог, который начинается с "недоумок, слушай сюда..."🤭
@@KalimN сложнее только тем, кто такими и являются, мне уши не порезало, тк я так же считаю что количество дегенератов зашкаливает.
@@KalimNесли люди смотрящие видео воспринимают это как что-то личное, то они и впрямь недоумки👌🗿
@@SelectFromпроблема не в ртх или длсс или оптимизации, проблема что лично ты, способствуешь покупкам дорогущих карт rtx !!! Карты с 17 года начали дорожать, но дорожали из-за майнинга, майнинг отказался от карт, все , на картах не майнят, но карты не стали дешевле, хуанг стал оправдывать высокую цену якобы высокой производительностью карт, что не является правдой, и да оптимизация игр на старте стала хуже, мало того некоторые издатели или разрабы вообще не оптимизируют игры, руководствуясь или отговариваясь купи 4090 или там 7900 итд... Я не когда не покупал дорогих видюх, всегда видюха стоила не более 25% от стоимости пк, а сейчас это 50% от стоимости всего пк! , и при этом жрет как танк, греется как утюг, и чуть что горит как порох! Ах да играя на 9600гт, в 2007-8 году, я не боялся ставить высокие настройки, то есть даже не задумывался , и играл, и даже в 16 году на гтх750 играл во все игры в 768пи всё и вся... А видюха за 30к, тянет современную игру в 900пи на средних, в 35 фпс... И да не дай бог если карта без гребаного ртх, не будет тебе игры... Цены на карты дороже чем были раньше в % соотношении к остальному железу, если раньше это было 25% не более, то сейчас это 40-50% не мения!
1:22:35 - почему в 1440p картинка более мыльная, чем в 1080p? В 1080p видны отпечатки пальцев на наушниках, а в 1440p какое-то мыло.
Всё очень доходчиво объяснил, посмотрел всё видео. Все споры идут на уровне убеждений, а не фактов. Надеюсь люди поймут на уровне убеждений, что они были неправы. Хотя в это верится с трудом. Жизнь таких сама накажет, плохой графикой, низким фпс и артефактами.
Все так, просто для споров на уровне фактов есть 2 проблемы:
1. 99% участников дискуссии даже близко не понимают как что устроено и работает, и не то что к графическим технологиям а вообще к разработке не имеют никакого отношения и ничего в них не понимают. Фактам просто негде взяться.
2. Если начать разбирать на фактах то и спора не получится.
Плюс громче всех про "мыло DLSS" кричат люди у которых DLSS нет или владельцы FHD мониторов.
@@You2Ber42 Для начала нужно иметь как 4к монитор так и хотя бы 4080, а не проходить игры на ютуб и рассказывать всем что все не правы и не понимают что мыло это будущее.
PS. Выгода это когда у тебя на 3-4 летней карте Мыло дает прирост кадров ну когда у тебя вчера вышедшая карта топовая вк для 4к не может крутить игру как это говорили тебе НВ, а бегают фанатики и кричат так есть же ДноСС, ок ну если есть дноСС тогда -30% стоимости вк за н... покупателя.
@@SeleerWOLF видео ты не смотрел да?
@You2Ber42 Смотрел ну упор всего видео о боже какая технология раньше даже топы не тянули...
То, что ты делаешь - неизмеримо по шкале полезности ! Ни в коем случае не прекращай, несмотря ни на что ! ;)
Ролик про трассировку просто обязан быть записанным в кожаной куртке, не иначе!
Насчет проблемы с АА в нативном разрешении полностью согласен. Смотрел у друзей как работает длсс(не впечатляет, но действительно стабильнее ТАА с жирным нюанс). Так как сам из лагеря красных (владею 6800хт). Ее производительности везде хватает, практически не использую FSR или XESS, которые мне доступны, потому что очень мало игр нормально работают в quality режимах с приемлимыми падениями четкости изображения. Ты довольно доступно объяснил, как хорошо работает ТАА и в чем его настоящее преимущество, но проприоретарные апскейлеры поверх него бесят просто невозможно сильно. Не могу привыкнуть к пониженной четкости картинки. Примеры с твоим хэндхэлдом работают только с маленьким экраном, что для меня совершенно критично на quad и даже fullhd. Поэтому ТАА всегда было благо, замечал как он отлично правит картинку со временем развития технологии.
Сглаживание смягчает картинку. Если картинка субъективно для вас слишком мыльная, можно использовать фильтры повышения резкости у nvidia через оверлей Alt+Z. Попробуйте, поможет
@SelectFrom в quake champions использую radeon image sharpening с ТАА. Там просто идеально работает
@@Killername969 а, у вас AMD. Да, у них тоже есть хорошие технологии повышения резкости, пользуйтесь. Их именно для этого и добавляют
Да люди не шарят, у меня с 2004 были самые топовые видяхи (список огромен, от 6800гт, до 3090ти), когда халфа 2 вышла, ее со сглаживаем прозрачных текстур даже Х850ХТ РЕ не тянуло при 720р, а 6800ультра я вообще молчу там было около 40фпс. Когда обливион вышел х1900хтх шло в 45 фпс, сколько себя помню, всегда жаловались на производительность в играх. А топовые видяхи могли позволить себе реально далеко не все.
Шерстите конференцию оверклокерс. Там легко найти инфу.
Да о чем реально говорить, олды вспомнят как работал анреал турнамент на вудушках топовых 🤭
"Не трынди" не было тогда 720р оно года через 3-4 появилось.
Тогда было 800х600 - бомж разрешение, что хоть как-то поиграть на бюджетных картах
1024х768 и 1280х1024 вот на этих большинство и играло
1600х1200 - шото на багатом.
И Халва 2 вышла раньше чем Х800 вышли, а в магаз у нас так ещё можно появились, раньше новинки прям с существенной задержкой у нас появлялись.
При 1024х768 и максимальных настройках на 6600 или х700 шла 60+ фпс
@ вот зачем докапываться до слов, понятно что под 720р имелось введу 1024 на 768, у меня тогда вообще был нек на 1600х1200.
Была у меня 6600гт, она не тянула халфу и ты упустил, что я написал со сглаживаем прозрачных текстур.
У меня даже часть видях сохранилось, 6800гт и 1900хтх лежит, и есть все чеки за видяхи которые были у меня, по этому уж на надо говорить, что кто-то там врет.
@@JDM239 было лол) моники от делл и сони особенно за это топили )
Это работало бы, если графика каждый годы улучшалась бы в разы, а факт в том что разницы между крайзисом и любой игрой сегодня ааа разницы нет, кроме как текстуры выше качеством, что решается модом на крайзис без потери производительности.
@@ximera8657 Ерунду не пиши. Сравни любой объект из старой игры и из новой. Банальная кружка на столе или колесо у какой-нибудь тележки в мире игры. В старых играх, (в крайзисе в том числе) они все шестиугольные, острый нехват полигонов. В новых я уже давно такого не видел, всё круглое, детализированное. Просто большинство не обращают на это внимание, но если приглядеться, то всё прекрасно видно, прогресс идёт.
Хахахаха, еслиб была такая же конкуренция как у процов , то можно было и без апскейлеров в два к минимум играть в 60+ с трассировкой лучей , но увы они в тупую жируют, каждый выход новой линейки + 10-15% как же классно и мы это хаваем , когда процы уже обогнали видеокарты процы избыточны , а видеокарты сосут ибо нас пинают покупать мусор за конские деньги и автор пытается доказать , ну смотрите так всегда было , даже если и было это не означает , что так должно быть , просто к примеру в большинстве было 750 р ооо смотрите она не может в 750р 60 кадров что говорить о 4к ты чел уехал кукушкой , когда фул HD было как сейчас 4к, просто клоун без красного носа
Процы другим занимаются в игре, им не добавишь особо работы. А вот для карточек - всегда можно увеличивать кол-во полигонов и визуальных эффектов вплоть до фотореализма
Щя умных слов наговорю... Есть интенсивное и экстенсивное развитие. Интенсивное - это про придумывание новых подходов, экстенсивное - это дофигачить пару гигабайт памяти и поднять частоту на сотню мегагерц. С другой стороны есть рынок - нужно же стимулировать покупать новый хлам - а как проще всего это сделать? Новое на старом хламе не запускается. Цель - заставить покупать новый хлам, а не "оптимизирвать". Общество потребления, епрст.
На перевью надпись : куда пропала оптимизация. Эта фраза настраивает на журналистское раследование, какими методами пользовались, какие програмные трюки пременяли, что появилось новое в подходе к разработке и технических средствах и как они заставили отказаться от предидущих эффективных методов в угоду скорости разработки. А в итоге полутора часовое словоблудие. 'Откровенно говоря потраченого времини жаль.©'
Так а я что сделал тут по вашему? Собрал материалы, подснял свои и показал как ситуация обстояла до сегодняшнего дня. Я просто показываю, что той "оптимизации", о которой все говорят, нет, не было и не будет
@SelectFrom по моему тут ничего не сделано из того что я написал. Больше было сравнение графики с сглаживанием и без неё.
Благодарю. Сам не играю в свежие игры, потому что нет времени и возможности. Но Я всё понял.
Если бы 8800 была выпущена в 1801 году, то она стоила бы 1$.
За один бакс в те времена можно было снять десять проституток на час
Разработчики движка unreal переодически видео выпускают где говорят «вы не правильно это используете» или «вы этим не пользуетесь»
гребаный анрил убил игровую индустрию
это не относится к содержанию и рассматриваемым вопросам в целом и не значит, что автор не прав, но очень забавно слышать аппеляцию к авторитету при том что автор девопсик, а не программист графики)))) челы неправы не потому, что они "не ахритекторы" или "не врачи" или "не программисты". от того что ты будешь указывать на то, что авторы этих комментов некомпетенты в вопросе, их меньше не станет, а скорее даже наоборот это просто подпалит некоторым жопки. если не хочешь спорить аргументированно (ибо порой это абсолютно бесполезная трата времени), то и не надо, лол, но "ты некомпетентен поэтому не пиши комменты" - вообще не аргумент.
я не программист графики, я об этом нигде и не говорил. Я просто интересуюсь этой темой уже давно и читаю про многие технологии. Плюс, у нас в сообществе есть люди, которые работают в разработки видеоигр и работают с рендерами, у них я часто беру информацию и консультируюсь по разным вопросам. Да и кроме того, про то, что настоящего 4К в нативе кроме как в головах аудитории нет нигде. Это очень тяжелые нагрузки
Товарищ, благодарю за видео!
Кому лень смотреть - напишу вывод:
- Цены особо не изменились на видеокарты.
- Производительность карт выросла в десятки раз, но "оптимизация" все уровняла :).
- Игры подорожали.
- Частота кадров особо не выросла.
- Графика в топовых играх не сильно и изменилась.
Итого прогресс, за 20, КАРЛ, лет практически никакой.
Стригут хомяков как и 20 лет назад.
Откуда вы такие изречения то берете?
Сравни Ведьмака и Ведьмака 3 по графике, шизоид. А там и 10 лет между ними не прошло.
Ну ты конечно душевнобольной). Графика не сильно изменилась, ага. Частота тоже, проверяй.
Мне стоило посмотреть сперва комментарии, вместо того чтобы тратить полтора часа жизни в пустую.
на 15 минуте 8800 гт загружается не на фул, там упор в процессор , что они там натестировали ? ахахахах
Загрузка видеокарты доходит до 99%, загрузка cpu до 55%, отдельными ядрами на доли секунды. Как думаешь, во что это упор? В ОЗУ, получается?) Хахаха, ну и тесты у самого авторитетного ресурса о компьютерной графике, даже комментаторы обзора на обзор за минуту могут их на чистую воду вывести
Игра работает таким образом, тесты измеряют производительность железа в игре. Когда далее в видео crysis не загружает 4060 на 100% - это тоже в цп упор без загрузки цп на 100%? А как эти упоры обеспечивать вручную?
@koloved1 Это не тест видеокарты. Какая разница во что упор? Они взяли систему тех лет и показали как на ней работала игра. Им что надо было i9 14900k взять чтоб не было упора в проц? Вряд ли в 2007 году он у кого-то был.
Автор прав во всем!
Досмотрел видео, вспоминаю, как в 13-м году в Crysis 3 играл, да и вообще в игры. Сам на днях ностальгировать заходил на древние видосы с тестами видеокарт в Crysis 3. Помню, тогда очень сильно хотел себе хотя бы GTX 760, на руках была только 460. Так вот, я тогда смотрел эти тесты и офигивал, блин, на 760 у меня получится поиграть на высоких, и будет даже в 60 fps. При этом я даже не заикался про сглаживание. Какие MSAA 4x, хотя бы FXAA потянуло бы. А если скинуть настройки, то можно было рассчитывать на более стабильный фреймрейт. При этом я осознавал, что через год эта 760 уже всё. Средние настройки для комфортной игры, если не низкие. Сейчас люди делают бюджетные сборки на 3060 Ti для того, чтобы играть в современные игры в 1440p и 60 fps. Я так понял, это плохо? Нужно, чтоб у тебя видеокарта в тыкву превращалась, как раньше с выходом новых. Производительности сейчас - просто жопой жуй, а они тратят её на 4К...
Сижу в 2 к, лет 15 уже как. Лучи идут в задний проход. На всё хватает. Может заскок зайдёт, возьму 5070-5080. Но желание, всё меньше. Я сейчас больше по аудио стал. Это хобби, сместило игры подальше, но не забил.
А в аудио, там цены настолько зверские, что эти 4090 со своей ценой, просто детский сад.
@@Alexandr84881 на чем сидишь то ?
я вообще на Full HD играю, на 4070. По мне так лучше иметь рендер точка в точку, чем апскейл и придумывание кадров.
@@atomsk9000лучше бы тебе мозги кто нибудь придумал, а то там вообще пустота, и не дай бог ты еще когда нибудь узнаешь про DLDSR и DLAA и что это такое, так вообще мир перевернется!
@@Sega-q6p И сразу пускаемся в оскорбления и осуждение выбора человека, хотя он даже и в дискуссию ни с кем не вступал) Вот это донесение своей позиции, уважаю)
шикарное видео, спасибо за огромную работу
Некоторый контраргумент против главного посыла видео: что все вокруг глупые и раньше не было лучше с оптимизацией. Для каждого поколения железа были некоторые ожидания по графике/разрешению/герцовке, которые пойми ещё как сейчас объективно сравнивать. Например, сейчас 30 кадров и 720p кажется это ниже дна, но когда-то это был комфортные разрешение/герцовка для одиночных игр. Но если какая-то игра задирала планку качества, то естественно было от неё ожидать и повышенные аппетиты к железу. И в чём например уверен не только моя личная претензия к современной графике в играх: производительность железа кратно возросла за последние пару поколений видеокарт, где такое же кратное улучшение графики? Куча примеров игр, где прошлая часть в серии обладает лучшей графикой и при этом меньшими системными требованиями чем новая. И это всё естественно: имея больший запас по производительности (в том числе за счёт апскейла), разработчики будут меньше тратить ресурсов на оптимизацию, разработчики не альтруисты, это с каждым днём всё более регулируемая бизнесом сфера: потрать как можно меньше - заработай как можно больше. Без обид, но мнение автора такое же однобокое как и мнение любого эксперта из комментов, в том числе и меня (но я себя публично не возношу как эксперта или гика, поэтому с меня никакого спроса нет). Почему бы например также не рассмотреть минимальные системные требования? Насколько хорошо игры работали по актуальным на тот момент стандартам на самом плохом поддерживаемом железе? Это тоже очень понятный показатель того насколько разрабы вкладывались в оптимизацию. Можно пойти ещё дальше: и разобрать насколько эффективно игры прошлого рендерят окружение, насколько эффективно стараются отбрасывать ненужную геометрию/эффекты. Или если совсем упороться, то подумать над шкалой оценки/сравнения уровня оптимизации и понять по итогу что это вообще всё бессмысленно. Но это всё мозговая работа, которую внезапно не только всем кроме автора видео не хочется делать, но и самому автору
это довольно дискуссионный вопрос, конечно, потому что требования к картинке у всех разные, но отвечу так. Да, мощность железа выроста, но и графика развивается. У людей есть некоторый эффект когнитивного искажения, что конкретная игра выглядела лучше, чем она есть на самом деле, а когда они её запускают на современном железе, удивляются тому, как раньше они не замечали отсутствия затенения, текстур низкого разрешения и так далее.
Теперь по поводу качества графики. На самом деле, развитие в графике есть и очень большое, только есть нюанс. Сейчас улучшают по сути детализацию отдельных эффектов, которые раньше было невозможно рендерить. Например, с трассировкой лучей можно сделать отражения, тени и глобальное освещение так, как раньше сделать их было нельзя. Проблема также в разных шарлатанах, которые, не разобравшись в вопросе, говорят, что "лучи - не лучи", "графика-не графика" и т.п.
Я не спорю, что бывают исключения, когда графика выглядит плохо, но это далеко не каждая вторая и даже не каждая третья игра
"Куча примеров игр, где прошлая часть в серии обладает лучшей графикой и при этом меньшими системными требованиями чем новая"
Два примера мне приведите, пожалуйста. Рассмотрим
@@KalimN очень контрастный пример: Battlefield V vs Battlefield 2042
@@CommonerPerson Ещё, пожалуйста (я же сразу два попросил). Желательно одиночные игры, чтобы и я мог скачать и проверить
А причём тут однобокое "мнение", если в видео приведены конкретные факты в виде сравнений, тестов и т.п.?
10:03 Пациенты обычно кивают, а потом когда уходят, то рядом с родственниками наслушаются как дочка бабушкиной подружки по папиной линии, вылечилась прикладывая камешек перед сном на живот. Т.к. врач не должен нарушать права пациента, он не настаивает, хотя обязан полностью и доступно обговорить. А родственники давят: "вот мы же видели, такое бывает и у тебя получится", отсюда все слова врача вылетают из головы. Потом, когда приходит этот же пациент с последней стадией, когда уже не исправить состояние, а только облегчить, вот тогда начинается "Вот вы врачи, опять дипломы купили и сидите на жопе ровно. Даже пальцем не шевелнёте, только деньги сдирать горазды".
Да, вот такое отношение к многих людей абсолютно ко всему, это правда
39:11 Arkham knight на моей gtx 970 и i7 2600k выдавал более 60ти с редкими просадками в жестких сценах до 50... Full hd, максималки
Просьба к автору на будущее: при приведении примеров сравнений "до/после", "хуже/лучше", "старое/новое" и пр. ставить картинку/видеоряд "до", "хуже", "старое" ВСЕГДА на ЛЕВУЮ сторону, чтобы не допускать ситуации, когда "более хорошая картинка" появляется то справа, то слева, потом снова справа.
проблема в том, что я переключаю эффекты по очереди и плашки неудобно и не очень логично перетаскивать туда-сюда. Монтаж получится менее целостным и более рваным, потому что придётся постоянно уводить в чёрный экран его. Если я буду переключать кадры с плашкой на одной и той же стороне, зрителя это может запутать
спасибо за ваш вклад в распространение полезной информации в массы
Ай да красава. Вот это работа. Прекрасно! Я к себе направил ролик. Полезно некоторым
Жесть, автор 10 минут усирается по поводу комментариев - какой кринж. Слушай, это интернет, тут могут раскритиковать за что угодно, и это нормально. Не удивительно, что люди смотрят только 5 минут - начало настолько унылое, что добраться до действительно интересного контента тяжело.
Это нужно было сказать. Это был первый раз, когда я высказался в ролике на эту тему. Всегда можно перемотать, так как есть таймкоды
Всё нормально, это просто их кнопка перемотки и таймлайн - в чёрный список закинули, вот они и не могут ими воспользоваться @@SelectFrom
А куда пропала физика из игр? Сравните пожалуйста всё те же крайзисы с современными играми
физика пропала, потому что усложнилось освещение. Сейчас везде используются системы глобального освещения, которые очень тяжёлые. Свет приходится заранее запекать, а поскольку перемещение предметов влияет на сцену, весь вычисленный свет ломается. Чтобы в играх появилась физика нормальная, нужно сделать системы динамического глобального освещения. Такие уже есть: Lumen в Unreal Engine 5 и трассировка лучей. Трассировка лучей, а если точнее, трассировка пути, очень тяжёлая, поэтому пока её не сможет тянуть большинство видеокарт, в каждую игру её добавить не получится. Тем не менее, уже есть несколько проектов, куда добавляют трассировку, но это пока что проба пера и первые проекты. Нужно ждать производительности. Так то в некоторых играх нет-нет, да появляется физика: Red Faction, например, или Control
@SelectFrom о, спасибо за развернутый и понятный ответ, теперь понял!
14:35 - автор, не забывай, что в то время мало, у кого были мониторы с высоким разрешением. Говоришь, оценивая через призму современности, а это не совсем объективно. Понятно, что у людей уже в 2000-м бывали иногда и 1536р мониторы, но извини, большинство играло в самом лучшем случае в 768р/ 720р, чаще в 600р или, если не фортануло, в 480р. И говорить "Это даже не FullHD" бессмысленно, это как в обзоре на gtx1080 сказать "Это даже не в 16к!". Карты не были предназначены для этого разрешения в силу его небольшого распространения
Вдобавок напомню, что сейчас игроки зажрались и считают 60к/с - минимальным уровнем для игр. Раньше, в те годы, играбельным уровнем считался сам запуск игры и ее работа, даже в 10фпс, даже на минималках. А если такой уровень был на ультра настройках в 16х, которые режут производительность прям сильно, то вообще было волшебно
Большинство игроков, когда говорят о плохой оптимизации, говорят о том, что старые игры по сравнению с новыми выглядят не хуже, а иногда даже лучше, предлагают больше фич, но при этом едут даже на старой железке, а не 100fps на 4090 в fullHD, как во втором сталкаче
25:00 - не сравнивай несравнимое. Без сглаживания было вполне неплохо играть
А вообще уровень графики больше зависит от монитора, не только от игры. Например, Crysis 2 (не ремастер) на профессиональном ЭЛТ 2000-го года (в моем случае Belinea 108080) выглядит лучше, чем Cyberpunk с Path Tracing на ips 8bit 72% ntsc, вот только его тянула hd4850 512mb, там не требовалась 4090 для натива в 30 кадров. Про то, как отвратительно будет смотреться этот же киберпанк на TN вообще промолчу. Там DiRT 2 на элт будет повеселее и пографонистее ¯\_(ツ)_/¯
28:00 - ларка 13 года спокойно шла на ультра пресете с hd7870 2gb. Играл полгода назад до приобретения rx7600.
Кстати, если уж прям копаться в вопросе, то можно выявить, что среднестатистический человек хоть стал зарабатывать больше, но уже не в состоянии купить столь же вещей на старые деньги. Грубо говоря, прими в расчет инфляцию. Если раньше человек Н мог позволить себе с остатков зарплаты купить карту топовую, то теперь в состоянии только лишь средний сегмент взять. В лучшем случае. Плюсом учтем, что народ не любит повышения цен, отчасти потому и ругаются все
В то время ещё и рубль был дороже. Но производители видеокарт и не думают что-то с этим делать 😡
Если уж прям копаться в вопросе - то графика-то стала лучше и доступнее
@@KalimN с этим не могу не согласиться, и более того, игры на ПК - не игры на xbox 360, там графику можно настроить под свою железку. Отчасти по этому народ, говорящий, что новые технологии не нужны, не совсем прав.
Но доля правды в его словах есть. Часто разработчики в силу лени/ ужатых сроков/ атмосферки в коллективе/ прочего (нужное подчеркнуть) забивают болт, думая, "у игроков dlss/ xess/ fsr/ afmf есть, ничего страшного, всё потянет железка", и не ужимают что-то там, где ужимка была бы уместна (например кто обращает внимание на зубы людей в Cities Skylines II?). То есть как правило можно сделать графонистее и лучше в плане производительности, но этого не происходит в силу определенных обстоятельств. Плюсом не забываем, что новыми технологиями нужно уметь грамотно пользоваться, а не "ну мы тут цвета в жёлтый увели с трассировкой лучей, с нас хватит". Такой подход иногда тоже встречается, поэтому не упомянуть его я не мог. Как правило этим и вызваны недовольства оптимизацией игр - при схожем с третьим крайзисом уровне графики, если не хуже, получаем производительность отвратительную даже на свежем флагманском железе. А всё из-за того, что действительно по тем или иным причинам не провели оптимизацию кода или неграмотно реализовали определенные вещи, например, исчезновение текстур, когда на них никто не смотрит и их сжатие по мере удаления от них камеры ¯\_(ツ)_/¯
@@VistaGamer228 Это настолько комплексная тема, что я не знаю, с какой стороны подойти. Вроде бы так, что экономические стимулы делать графику красивой и нетребовательной - ещё в силе. А там, где неоптимизировано - там низкий бюджет. И там спасибо доступным инструментам за то, что "игре позволено появиться на свет" (небольшой коллектив может позволить себе выпустить игру, на которую раньше требовалось больше специалистов) Эти разработчики тоже решает в какой-то степени сделать красивее, чем доступнее в плане железа. Увы... Но "рынок порешал" в плане того, что потребители меняют свои карты на более мощные - так или иначе. И потому сперва ужасно неоптимизированное станет менее ужасным, и то и приемлемым
Дело ведь ещё в том, что "оптимизация" - не даётся бесплатно не только в "трудочасах" (и в целом понятие неконкретное)
Мой любимый пример с FEAR. Вот кто теперь похвалит эту игру за то, какую графику она умещает в 128 мб видеопамяти? Все поспешат поругать игру за долгие загрузки, которые это обеспечили 🙂 И в целом - долгие загрузки в FEAR - они с нами вот теперь навсегда
И никаких разговоров про процессоры учитывая что Крайзис в 1 ядрышко только могет нормально.
Глянула фулл, но как-то... лично для меня мало смысла в том, чтобы использовать скейлинг, который будет замыливать изображение. Я лучше просто буду вешать скейл через Nearest Neighbor со сглаживанием уменьшенного разрешения, чтобы получать аутентичную картинку, которая при этом будет выдавать сильно больше фпс, чем с тем же DLSS, FSR, XeSS в их привычном типе использования. a Retro little bit
Тебе оперативку надо разогнать. Чёт стыдно сидеть на 4800 гц на DDR5. Хотя бы 6000 поставь
Да плевать на мнение всяких "икспертов". Оптимизации нет и не было. А вливать в уши сказки про красоты от апскейла и дегенерации кадров... Рожу разрабам набить мало.
Иди похмелись, к тебе опять белка вернулась.
Ассасинс крид 3 я на момент выхода играл на офисном пк . Geforce 210 1gb и Celeron E3400 на разрешении 800 на 600 . И так всю игру проходил )
Согласен, что сегодня использование MSAA и прочих, не релевантно, как минимум, из-за производительности.
Но, тем не менее, ТАА сглаживание во многих играх даёт дохрена артефактов, в частности, гостинг и МЫЛО.
Буквально, 1080р разрешение - мертво для новых игр, хотя со старыми все ок.
У меня пока еще 1080р моник, однако где получается ставлю масштаб рендера выше, либо через DLDSR выбираю QHD (карта 3080). А где и это не получается выставить - печаль.
Крч, во времена старых игр (года до 2013-15 точно), и 720р, и 1080р были обычными разрешениями. Но если ты хотел действительно четкую картинку, то это только 1080р.
Сегодня обычные разрешения - 1080p и 1440р. И если ты хочешь четкую картинку, то только 1440р. Соответственно, и требование к картам выше.
Но DLAA отдельно выделю. Лучшее сглаживание на сегодня, которое даже в 1080р. позволяет играть с довольно четкой картинкой. Имба.
Другой момент, почему карты живут дольше. Дело в том, что в растеризации особо некуда расти в плане графики. Дальше только рейтрейсинг. По-сути, наращивается поликаунт и качество анимации, но никаких новых эффектов, шейдеров, технологий практически не возникает. А раньше буквально каждые 5-7 лет графика в растеризации заметно улучшалась, однако чем ближе к нашему времени, тем меньше улучшений. Вспомни NFS MW 2005 года, а потом NFS Hot Pursuit 2010 года, GTA SA и GTA 4, ведьмак 2 и ведьмак 3.
А сегодня, киберпанк 2077, которому в этом году 5 лет, даже если не учитывать трассировку лучей - не уступает новым играм (тоже в растеризации).
Чего уж там, ведьмак 3, которому 10! лет, выглядит хорошо, а после РТ обновления с текстурами получше так вообще, современная игра.
В растеризации полный застой, как по мне. Все вывозится за счет раздутых бюджетов, скилла разработчиков (научились фейковать) и высокого поликаунта и деталей. Единственное, где можно увидеть реальный прогресс в графике - GI, отражения, тени.
При чем так было всегда. Помню как удивлялся динамическим теням, потом SSR отражениям, сейчас удивляюсь GI-ем.
Приправляем все апскейлерами и получаем сегодня 720р и 960р гейминг, получается, даже деграднули. Поэтому не удивительно, что карты живут дольше, ведь трассировка - это не дефолт.
По большей части тезисов неистово плюсую. На ПК сегодня 2560x1440 - это самое оптимальное разрешение, ниже которого спускаться уже больно. На ноутах, ввиду ограниченной мощности и небольших экранов, 1080р пока ещё более или менее съедобно. В 4K с апскейлерами уже вполне себе можно жить, но надо топ железки покупать.
По поводу развития графики - да, ограничения растеризации вылезли наружу после прихода PBR и трассировки лучей, поэтому дальше только в эту сторону. Проблема только в том, что надо мощности наращивать, потому что на портативных ПК, которые сейчас захватывают рынок, трассировку потянуть довольно сложно, поэтому пока что надо ещё трассировку делать по возможности отключаемой, либо давать гибкие настройки графики неё
Спасибо за видео, было интересно посмотреть на сравнение технологий сглаживания и как они влияют на производительность. Действительно DLSS и ей подобные технологии уже стали необходимым стандартом любой игры и действительно привнесли не мало в ту самую оптимизацию которой все так озабочены
Видео на середине, но уже большое спасибо за работу, оооочень отрезвляющая концентрированная информация
Суть нытья про оптимизацию в, по сути, двух тезисах.
1. Что я получаю, купив видеокарта_нейм за Х денег.
2. Что я вижу, купив видеокарта_нейм за Х денег.
В 2025 ответ на них примерно такой:
Отдав 500 доляриков, я получаю 1440п гейминг с большим-большим натягом.
То что я вижу не коррелирует со счетчиком ФПС.
Чтобы получить приемлемый ФПС мне надо или выключить то за что я заплатил - четверть чипа с РТ ядрами уходит в простой. Или подрубать DLSS в такие режимы, что это заметно портит картинку.
Попутно юзер видит, как 4090 с высокой ценой в 4К в половине новинок еле волочет ультра настройки. И он понимает, что в ближайшем приближении, купив мидл 5ххх поколения, он не сможет поиграть даже в текущие топ игры. А о будущих тут вообще вопрос не стоит. И таких игр много, это не выбросовый Кукурузис или там Дум3. В половине тестов из материала подключен ААx4 или экспериментальные фишки, вроде спец.теней nVidia или physx, которые лопали много ресурсов и на визуале так как RT не сказывались. Выключив их ты не получал разительно другой визуальный опыт и не платил за блоки в чипе, которые только эту технологию обеспечивали, оказываясь бесполезными на видеокартах среднего сегмента.
Так же в то время 4К мониторы были редкостью и более дорогими. Сейчас это обыденность. Играя в 4К на 1080Ти даже тогда я в итоге что, вынужден или платить 1600+ за 4090, или покупать себе монитор в 1080п, или не использовать RT за который я заплатил?
Притом флагман движков - УЕ5, используется из рук вон плохо и показывает плохую картинку. В том числе потому, что даже арт-дизайн там посредственный и для экономии разработки все напихивают скан-ассеты, подрубают Люмен и в продакшн.
Чем тут нужно быть удовлетворенным - вопрос века. За много денег ты получаешь то, что тебя не удивляет, не удовлетворяет и еще и целевой ФПС не показывает. Это третье поколение карт с RT. Но технология в 4К юзабельна только на двух моделях карт на рынке, и то с натягом. Но ты за все это платишь высокие деньги, цены на 4ххх значительны.
Сосиска в тесте по цене стейка. Вкус мяса только в твоих фантазиях.
"купив миддл, не сможет поиграть"
типа, игра не запустится, или именно на максималках ?
"что-то там не коррелирует со счётчиком ФПС"
Снижай настройки графики - увидишь больше FPS
"Отдав 500 доляриков, я получаю 1440п гейминг"
И почём стоил 1440 во времена Doom 3 ? Меньше пятиста баксов?
"За много денег ты получаешь то, что тебя не удивляет"
Тогда трать мало денег на видеокарту дешевле. Сам себе вымеряй, короче, за что ты готов деньги отдать.
Наоборот же, хорошо, что ничего не удивляет - можно и не тратится на видеокарту, получается. И нет проблем
Странная тяга к обязательным максималкам при том, что графон-то не удивляет. Ну так если нет разницы - то и максималки не нужны.
@@KalimN Он сказал что бы все работало нужно ВК для 4к, а играть на мониторе 1080р с 2011 года либо 4к без лучей и мыла на минималках.
@@KalimN во времена дума3 целевое разрешение было иным. И разработка игр шла с прицелом, что видяха_нейм запустит игру в каких 1080п в лучшем случае, а скорее всего это будет 720п.
Вопрос тут про то, почему во времена дума3 я мог 99% игр пройти на своих целевых 720п на высоких и не пукнуть на видяхе на три поколения страше, а сейчас на 2070 я получу бесполезные РТ блоки и средне-низкие в 1080. Так еще и на видяхе за 500, а столько стоил когда-то предтоп или даже топ, я должен в базовом разрешении снижать настройки или подрубать апскейлеры, чтобы на третьем поколении видеокарт с РТ посмотреть на те же самые РТ тени и не утонуть в 30 фпс.
Тяга к максималкам тут просто мерило затрат на результат. С таким успехом достаточно и консоли, получишь свои 30 кадров и какой-то графон с каким-то разрешением. Отдавая значительные ресурсы ты ждешь заметного результата. А получаешь средненькие и DLSS с 720п. А на экране хз что.
Почему юзер, купивший предтоп в лице 3080 всего три года назад не может внятно запустить даже в 1440п игры со всеми фишками, которые ему с экрана обещали? Если я врублю Алана Вейка и там активирую трули РТ, то 3080 ляжет даже в 1080п скорее всего. И вот это сейчас защищается? Юзер переплатил за технологии будующего в кремнии, а получил пять игр и тыкву спустя три года. И ему говорят - ну так не юзай РТ и настройки скинь. Уважаемо.
@@executionersmough513 > Отдав 500 доляриков, я получаю 1440п гейминг с большим-большим натягом.
А чего ты хотел? 4к 120 фпс за 100 бачей?
> То что я вижу не коррелирует со счетчиком ФПС.
Вопрос тот же: а чего ты хотел? Трассировку пути с 1000 фпс как в Думе 93 года?
> Чтобы получить приемлемый ФПС мне надо или выключить то за что я заплатил - четверть чипа с РТ ядрами уходит в простой.
Прикинь у РТ тоже есть настройки, и ты можешь спокойно играть с РТ отражениями на 3060 в большинство игр
> Или подрубать DLSS в такие режимы, что это заметно портит картинку.
Что это за пресет такой: ультрапроизводительность при 720п? В 1080 лучше форсировать DLAA, в 1440р ставь DLSS качество и ухудшении картинки не будет. Hardware Unboxed это подробно тестировали
th-cam.com/video/T86IufvA4qg/w-d-xo.html
> Попутно юзер видит, как 4090 с высокой ценой в 4К в половине новинок еле волочет ультра настройки.
Если бы ты посмотрел видео, то убедился, что топовые карты никогда не тянули игры на фулл ультрах. Дебилам почему-то в голову не приходит такая мысль, что настройки графики могут делаться на будущее, чтобы игра через 5 лет после релиза выглядела как новинка.
> И он понимает, что в ближайшем приближении, купив мидл 5ххх поколения, он не сможет поиграть даже в текущие топ игры.
Чувак, ты можешь унизить любую видеокарту почти в любой игре.
Вот 4090 в ГТА 5 в 4к + 2х MSAA дропается до 80 фпс из-за жрущей травы.
th-cam.com/video/kg2NwRgBqFo/w-d-xo.html
Я на своей 4070 в Сталкере ЧН в 1440р + 4х MSAA (c альфа тестом) на фулл ультрах получаю 75 фпс в начальном лагере. Пред топ 2023 года с трудом тащит игру 2008 года.
> А о будущих тут вообще вопрос не стоит. И таких игр много, это не выбросовый Кукурузис или там Дум3. В половине тестов из материала подключен ААx4 или экспериментальные фишки, вроде спец.теней nVidia или physx, которые лопали много ресурсов и на визуале так как RT не сказывались. Выключив их ты не получал разительно другой визуальный опыт и не платил за блоки в чипе, которые только эту технологию обеспечивали, оказываясь бесполезными на видеокартах среднего сегмента.
4x сглаживание включалось, потому что других вариков не было - либо 20 фпс хоть с каким-то сглаживанием, либо откровенный вырвиглаз. За блоки в чипе ты платишь всегда - раньше за CUDAб теперь к ним добавились RT и тензор ядра. Да, такие бесполезные на среднем сегменте, что в куче игр с РТ можно в 60 ФПС поиграть.
th-cam.com/video/ZN7jDygqscI/w-d-xo.htmlsi=42rvdLNc0Dyt5JLg
> Так же в то время 4К мониторы были редкостью и более дорогими. Сейчас это обыденность.
Ага. По статистике Стим за декабрь 2024 года 4к моники/телеки у 4% юзеров
store.steampowered.com/hwsurvey/?l=russian
> Играя в 4К на 1080Ти даже тогда я в итоге что, вынужден или платить 1600+ за 4090, или покупать себе монитор в 1080п, или не использовать RT за который я заплатил?
Почему нужно уходить в крайности? На 4070 можно спокойно играть в 1440р + DLSS качество (который в 99,9% лучше, чем натив 1440р, Hardware Unboxed это тестили) с РТ. Сейчас есть несколько каналов, которые подбирают оптимальные настройки графики, чтобы картинка как на ультрах и при этом фпс был высоким. Просто ставь как у них и проблем не будет.
На 4060 тоже 1440р + DLSS Q вполне доступно.
> Притом флагман движков - УЕ5, используется из рук вон плохо и показывает плохую картинку. В том числе потому, что даже арт-дизайн там посредственный и для экономии разработки все напихивают скан-ассеты, подрубают Люмен и в продакшн.
В Wukong, Silent Hill 2, Hellblade 2, Robocop плохой арт-дизайн? В каком месте?
> Чем тут нужно быть удовлетворенным - вопрос века. За много денег ты получаешь то, что тебя не удивляет, не удовлетворяет и еще и целевой ФПС не показывает.
А чего ты ждал? Вот у меня друг купил 4060 и кайфует от Киберпанка с трассировкой, говорит, что игра гораздо лучше выглядит. Неужели не хватает мозгов, чтобы не крутить все на ультра?
> Это третье поколение карт с RT. Но технология в 4К юзабельна только на двух моделях карт на рынке, и то с натягом.
В 1080р ~ 2,5 млн пикселей. В 1440р ~ 3,5 млн пикселей. В 4к ~ 8 млн пикселей. Действительно, почему же не тянет?
> Вопрос тут про то, почему во времена дума3 я мог 99% игр пройти на своих целевых 720п на высоких и не пукнуть на видяхе на три поколения страше,
Ага-ага, конечно, в 2000-ных, когда почти каждый год выходил новый DirectX или новая версия шейдеров и новинки вообще не запускались на картах 2-3 летней давности. Как 720п в 2004?
> а сейчас на 2070 я получу бесполезные РТ блоки и средне-низкие в 1080.
А ниче, что 2070 вышла в 2018 году, то есть ей уже уже 6 лет? GTX 470 в 2016 хорошо игры тянула ?(нет). GTX 670 хорошо тянула игры в 2018? (так себе, только на минималках в 720п).
Плюс 2070 слабее, чем ПС5/Хбокс X. А на консолях сейчас тоже средние/минималки с апскейлом до 4к из 900п во многих играх.
> Почему юзер, купивший предтоп в лице 3080 всего три года назад не может внятно запустить даже в 1440п игры со всеми фишками, которые ему с экрана обещали?
Тем временем в новейшем Индиана Джонс (где по умолчанию используется РТ освещение) в 4к с DLSS Q (Что лучше, чем нативные 4к) на ультра высоких 80 фпс. В 1440п нативных в ДЛАА тоже 80 фпс
th-cam.com/video/DkOtdjbxZpo/w-d-xo.html
> Если я врублю Алана Вейка и там активирую трули РТ, то 3080 ляжет даже в 1080п скорее всего.
1440p c DLSS Q (что опять же лучше натива) на средних (что выше консолей, там низкий пресет) с лоу РТ выдает 40 фпс
th-cam.com/video/yJZ4fg8g5rA/w-d-xo.html
На 4070, которая по мощи чуть хуже 3080 на настройках ПС5 ПРО и с лучами с DLSS апсейле из 864п до 4к выдает 70 фпс
th-cam.com/video/5FEcHH8avvo/w-d-xo.html
> Юзер переплатил за технологии будующего в кремнии, а получил пять игр и тыкву спустя три года.
Ага, пять игр. Тем временем за 6 лет вышло 150+ игр с поддержкой РТ. Вдобавок РТ добавляют в игры 2000-ных при помощи RTX Remix.
www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/
@@executionersmough513 Во времена дума3 (т.е. 2004год) ты мог пройти 99% игр на высоких в 720p на видеокарте на три поколения старше... Ну если учитывать вообще все вышедшие игры до 2004 года, то да. Но тот же дум3 на флагманской карте 2001 года (три поколения назад) шёл с проседами ниже 30фпс даже на низких. Прям щас проверил (GeForce 3 Ti 500). И да, это действительно 500$. Что сейчас - правда было бы в полтора раза дороже.
Почему юзер не может получить функции - это какой-то тупой вопрос. Типа может же. И получает. Но не всё вместе. Ты же не просишь свою мультиварку варить одновременно суп, рыбу на пару и жарить яйцо... Кто тебе сказал что все технологии включены одновременно - дадут тебе играбельный фпс?
Почему юзер купивший предтоп 3080 не может запустить игру "хотя бы" в 1440р... Философский вопрос... Давай лучше изменим запрос на 8к. Вот действительно, почему ты остановился на 1440р? Скромность?
вот именно на траве, темпоралка и посыпалась, а у меня моник fullhd, и я ставил видос в 4к, чтобы видеть эти косяки, да и если говорить про косяки темпоралки и DLSS и DLAA, то они видны и на кронах пальм, что хорошо теряют в детализации, конечно это лучше чем когда они расыпаются, но и хуже чем SSAA x4, чем я пользуюсь чаще всего если оно имеется. FSR же напротив разваливает картинку по выше описаным причинам, кроме того, когда он нативное разрешние просто сглаживает, тогда эти проблемы почти исчезают. и в форзе так сделать нельзя, там можно его только как апскельер использовать, а XeSS довольно сильно подьедает производительность на красных картах, не знаю что там на зелёных и синих, ибо их не имею.
Помнится я зашёл в магазин компьютерной техники в 2007-ом. А там, как я потом узнал, на мониторах транслировался Crysis. Я подумал, что это за кинцо такое крутят) Мне и в голову тогда не могла прийти мысль, что это компьютерная игра. И карточка у меня была 8800 GT. Это урезанная версия и по производительности она сильно уступала 8800 Ultra. В те времена купить топовую карту было проблематично обычному обывателю, т.к. зп были 200-300 у.е. в среднем. И ещё добавлю касательно претензий большинства - мы очень часто видим ситуацию, что при выходе игра выдаёт 50 фпс, но потом через полгода и трёх-четырёх патчей игра уже выдаёт 70 фпс и меньше глюков. К сожалению, сейчас много игр выходят в "сыром" виде, а игроки выступают тестировщиками. И ещё за это платят деньги и портят себе нервы.
проблема сырости релизов актуальна, плюсую. Особенно раздражает, когда хочется игру пройти залпом на релизе
хах. у меня тоже была 8800 GT. Помню, как слюни пускали с пацанами на 8800ультра в магазе. Ходили посмотреть на неё на полке как на чудо за безумные 1к зелени
17:48 не вывозили, потому что там был упор в процессор. Процы того времени, да и нескольких поколений вперед просто не могли загрузить 3хSLI или даже quad-SLI работой, т.к. игра использовала всего 2 потока и была рассчитана на быстрый рост частот до 5 ГГц, но производители пошли другим путем. Я помню все эти видео в момент их выхода, но вот разгадка пришла позже.
аоаоао фанатики раскрытия видеокарты процессором подьехали, я думал вас сталкаш в 2017 году всех попустил, забудь вообще понятие того что проц должен что то там нагружать) хватит перестаньте существовать уже)
@БелыйКвадрат-й4т если кто-то не понимает, почему система из 3-way SLI 8800 Ultra имеет такую же производительность, что и одна такая же карточка, то это не моя проблема.
Здорова! Добрый тебе совет касательно вступления: не нужно стараться объяснить позицию и приводить аналогии, эффект будет противоположным)) Он уже есть в комментах) Будет эффект Стрейзанд) Просто доноси техническую часть так же круто как ты всегда это делаешь и забей на хейт и мнение экспёрдов) А по поводу нытиков - сколько людей, столько и идут они на хрен...
Тестировал сам DLSS на Unreal , в отличии от raytracing это однозначно большое добро для видеоигр, потерю четкости можно компенсировать в пост процессе
01:21:11 Чёт не помогает сглаживание в Just Cause 4 спрятать убогие артефачные волосы у персонажей
Реализация ТАА очень варьируется от студии к студии. Говоря о ТАА, я больше имею в виду сам подход и концепцию временной реконструкции изображения
Спасибо за подробный обоснованный видос!!!
Большое спасибо за видео, самое адекватное по этой теме!!!
Сколько я себя помню, никогда не играл на ультрах, хотя карты всегда были топ или предтоп. Люди играли в игры, а не в AA с AF. Мне всегда на них было по винту.
Спасибо автор, посмеялся. Ну так человеку хотелось доказать что новые технологии нужны, что час размазывал сопли приводя в пример человеческие жертвы медицину и т.п. Вопрос собственно в чем? Почему вы так хотите доказать что эти технологии нужны? Если и без ваших доказательств индустрия плавно перетечет в плоскость новых технологий, так или иначе... Что вы бегаете с горящими жопами и пытаетесь всем доказать что это реально круто?! Что лучше пользоваться телефоном чем слать почту голубями, что у вас всех так зудит? - И так всем ясно что растр покидает сцену и крикуны через 10 лет будут использовать другие технологии просто потому что альтернатив уже не будет. Дайте индустрии плавно перетечь в новое состояние, нафига вы пытаетесь этот процесс так ускорить? растр выглядит отлично, стоит дёшево, понятно почему ему прощают все шероховатости и костыли. Хватит, прошу ссать всем в уши о лучах... Они неизбежно займут свое место, как програмируемые шейдеры и тесселяция в свое время. Объективно, сейчас королевой являеться растровый метод по многим причинам, - возьмите те же портативки, стим деки, свитчи и т.п. - полный переход на трассировку не только похоронит портативный гейминг но и потащит к дну старшие консоли, увеличив их цену в 2-3 раза, про пк вообще молу... Всему свое время, и нужно соблюдать баланс во всем, где и старым и новым технологиям есть место. И самое важное - выбор! Он должен быть, у тех кому растровый метод ближе как по картинке и быстродействию так и по фин. возможностям. - P.S. пишу как владелец 4070 который использует ее с rtx и dlss и радуется, но я так же понимаю почему растр важен и нужен, а вы автор кажется просто бегаете с горящей кастрюлей и пытаетесь доказать что суп вкусее окрошки. Не обожгитесь.
У автора банальная профдеформация, он как и другие разрабы увидел новую технологию, ему она интересна потому что новая, потому что в будущем она будет восстребована, ему на самом деле неважно как хорошо она работает СЕЙЧАС, сколько лет ее нужно допливать и сколько поколений карт сменится чтоб ее тянули без артефактов.
проблема в том что эта технология оказалась не нужна игрокам, ведь геймплей она не поменяла и они не разделяют это удивление.
Вот когда в играх ФИЗОН был новой технологией, игрокам это нравилось играть и разрабам нравилось это делать, ведь теперь каждую бочку можно было пнуть. А тут игроки не замечают эту технологию и у разрабов бомбит, они то видят что технология новая, но не могут понять почему игроки не воспринимают ее также весело, как появления в играх физики, вот и нужно 2часа объяснять.
Объяснять почему физика у каждого ящика в игре лучше, чем отсутствие физики у каждого ящика для игрока не придется. Он и сам это увидит.
@@reionami5983 вам бы за "профдеформацию" пояснить врачам, которые офигевают в интернете читать про гомеопатические средства или народную медицину, а потом появнить инженерам мобильных сетей как 5G вышки нас убивают. Ещё, наверное, будет интересно пообщаться с космонавтами на тему религии или астрологии. Вы что, думаете, что в интернете несут чушь только по поводу графики? Я вас умоляю. Человеческая глупость она повсюду, знаете ли
Чтобы новичок в теме выбора видеокарт не взял какое-нибудь AMD, которое по цене то же, процентов на 10 быстрее, но без технологий
А теперь спроецируйте то, что вы написали на огромное количество антинаучного бреда в интернете на тему космоса, медицины и так далее
@@SelectFrom Вопрос в том, почему вам так хочется доказать каждому встречному поперечному что они неправы ?) - И без ваших потугов все случиться само собой, пускай те кто ошибаются и заблуждаются, внезапно ошибаются и заблуждаются. Оставьте бедолаг в покое, пусть играют как им нравится.
Отличный видос. Спасибо, что дарите знания в игровых технологиях и разрушаете мифы. Удачи и больше таких роликов!)
1:02:30 В Crysis MSAA вообще не помогает. Будто без сглаживания играешь. В Warhead пришлось через ReShade всякие TFAA и SMAA подрубать, да и то это не правит полностью проблему
Значит там неполноценное MSAA, без альфа канала. Полноценное сглаживает всё прекрасно - см. сталкер.
@@Directx11cool Да, но Crysis и без альфы садил всё железо на бутылку, а чё с ней было бы.
В консоли чё-то за SSAA сказано, но я не понял как включить
@@Sklaysonтак он и выглядит иипо сей день лучше 90% игр.
@@ximera8657 Эм, нет. Я Warhead прохожу после ремастера оригинала. В ориге тупо нет глобального освещения. Только самое простое затенение в углах (поэтому через ReShade врубал Complete RT). Только ночью разница невелика потому что темень и старая графика не так свои изъяны показывает
@@Sklayson основная проблема старых игр, текстуры низкого качества, геометрия, освещение.
плюсы старых игр, рендер в реальном времени, значит можно использовать полноценное сглаживание такое как мсаа и ссаа, гораздо более отзывчивое управление и отсутствие артефактов и дребезг картинки.
Я понял, всё это в защиту и неоправданную критику последних топовых карт. Кого благодарить? - Технологии, науку, удешевление производства. Я бы не стал сравнивать первую видеокарту и последнюю... Слишком много переменных, которые повлияли в перспективе на рынок видеокарт и игровую индустрию. Я никогда не гнался за топами, всегда был на пару лет позади) И да, DLSS - это спасение для гейминга, согласен) Более того, это экономия ваших денег) Иначе, за электричество платили бы больше))
ну DLSS апскейл с 720р и был придуман только из за лучей. которые карты не тянут в 60фпс. А лучи ввели, только из за того, что бы людям как то впаривать новые карты. Иначе было бы склады не разгрузить. У людей не было бы причин менять свои 1080 даже сегодня. даже спустя 8 лет. Отсюда и оптимизация. Если спустя 10 лет графика никак не поменялась по сути. Запусти сегодня Бетмен Аркхем Найт 2015 на ультрах. Или Ассасин Юнити 2014. Графон круче чем в 99.9% игр , которые вышли даже в 2024, а только в Стиме за один 2024 вышло более 18 000 игр.
Причем тогда хватало карты gtx660 за 150$, а сегодня требуют 1500$ за карты. Но стала ли графика при этом в 10 раз круче? или быть может игры стали в 10 раз интереснее???
Теперь даже стали искуственно и это обрубать. новую Индиану Джонс не запустить игру на карте без РТХ. Но прикол в том, что что бы поиграть в неё на ультрах в 60фпс РТХ надо выключать. ЛОЛ. оптимизация у игры такая, что даже на карте за 2000$ на 4090 игра лагает и не выдаёт 60 фпс. про карты от Нвидиа на 8Гиг как 3070Ти, я вообще молчу) тоже урезание ) что бы люди разгружали склады с новыми картами. искуссвенное устаревание. так что автор видео явно не в теме. лишь очередное ля ля как обычно.
Отличное видео, хоть про многое показаное знал. Честно говоря меня устраивает и 1080 при условии что матрица дисплея качественная с высокой герцовкой. Понятное дело, что 2к должно уже быть стандартом, но производительность под мой бюджет низкая (хотя кому-то и за глаза). Рад за тех кто может позволить себе играть в новинки с высоким фпс и графикой хотябы на высоких-средних. Но опять же я для себя взесив все за и против останусь на 1080p, до выхода нового поколения консолей и соответственно более свежих карт. Всем добра)
У меня также ртх 4060, пользуюсь всеми новыми технологиями, меня всё устраивает. Нооооооо, люди которые говорят раньше оптимизааааация была лучше, вот сглаживание было лучше, они имеют ввиду игры, вышедшие до поколения PS4, так как раньше не то чтобы было что сглаживать, ну гору квадратную и три полигона на кусте.
Игры стали сложнее и детализированней, но они всё равно говорят, "как же круто было играть в Resident evil 5, где нет травы, а песок и грязь, а тот уровень с фонарём в пещере просто моя мечта, графика на высшем уровне, да да, и мне всё равно что там ни зги не видно и 2 полигона на стенах"
Спасибо за видео, разобрался в теме, всех благ тебе!
Super. Respect
Забавно, но если бы NFS 2015 года или тот же Arkham Knight вышли допустим вчера с тем же уровнем графики который они имеют, то они бы лагали на 4090 без DLSS в фуллХД.
Это не похоже на рофельный коммент
А ты помнишь каким Arkham Knight вышел на ПК в своё время?)
Этим примером ты очень, очень хорошо подтвердил тезисы приведённые озвученные в видео
@GodRay он был сломан из-за кривых рук разработчиков, а не из-за того, что его компы не тянули. На консолях же он спокойно работал.
Давай я сокращу твой пост без потери смысла
Представьте, что если бы вышла какая-то современная игра - она была бы неоптимизированная и не красивее игры 2015го. Представили? Ну кайф же
@@Goliafik2905 спокойно работал он только на PS4 в 1080р и со стабильными 30 ФПС, Xbox One предлагал вроде 900р с просадками.
А то что игра вышла сломанной из-за кривых рук, ну да, ничего не поменялось к нынешнему времени, игры всё также допиливают после релиза. Об этом в ролике и речь
Отличное раскрытие темы, посмотрел с большим удовольствием! Ждем анализа ray tracing и path tracing. Спасибо за интересное видео.
Это база!
Лизать друг другу.