А что вы думаете по поводу новой линейки видеокарт RTX 50? Поддержать донатом - www.donationalerts.com/r/dark... Бусти - boosty.to/darkrikoshet ТГ канал - t.me/dark_rikoshet
Сколько я каналов посмотрел, все сравнивают работу видеокарт с функцией rtx и это логично и правильно, я не спорю. НО! Я хочу узнать, что вообще по мощностям без RTX. Я презираю ртх с самого его начала. Сырая технология, грубо говоря, как героин младенцу вколатая игрокам, хочет развиться без нашего на то согласия. Играть с включенным ртх желания нет, меня устраивают тени которые и так раскиданы разрабами и я обязательно буду ждать, что по компоновке и производительности без ртх и стоит ли вообще тратить деньги на обновление.
Да ужас какой-то! Согласен, это не правильно не справедливо, а издатели так вообще продают виртуальные игры за большие деньги, а должны давать их бесплатно, как FSR у АМД!
@@Igor-Bond который кстати, вроде бы начиная со следующей итерации, также будет требовать аппаратных мощностей, как и длсс. всё, амуде закрылась от народа получается, не наш слоняра больше?
@@daga5627 дают при соответствующей нагрузке. 3090 и 4090 разница в производительности до 70%. При 56% отличии в ядрах. Поэтому может быть ещё быстрее, чем разница в ядрах из-за новой архитектуры. Ну и какие 10% нифиг? Самому не смешно?
А почему нет? Если Хуанг, снова втирает людям туфту, что и была до. Токо теперь вместо 1 ненастоящей картинки, будет сразу - 3. А игра как шла в 30фпс. На 4070. Так будет в 30 и на 5070. Смысл.
@@antonwestakov648 5070 дешевле на 50$. 5070 в чистой производительности мощнее 4070. +длсс на 2к , 4к выглядит нормально. Переход с 4070 на 5070 не имеет смысла.
@@antonwestakov648 Ты хоть смотрел как длсс работал или только слушал деда который сидит на б/у 3080 и хейтит обсалютно все, не учитывая цену, производительность с прошлыми картами и энергоэффективность
Если бы включили мультифрейм для 2000 и 3000 линейки, то да, могли бы с гордостью говорить, что увеличили их производительность в 4 раза в ИГРАХ на пустом месте. А для 5000 линейке это выглядит, конечно, маркетинговой уловкой.
Просто пора ПЕРЕСТАТЬ сравнивать производительность графики в играх, тогда и разводов таких не будет. Сравнивайте в монтаже, в матвычислениях и прочем.
Все идет к тому, что нвидия продает тупо дллс в картах, а не чистую производительность по факту. Ненужно будет особо наращивать мощности, а тупо делать программный дллс с каждым поколением карт, и фпс будет удваиватся. Так они потом сделают генерацию не трех кадров, а 5-6 к примеру и цены ставят космос. У меня есть 4080 2к монитор, и я плевать хотел на эту 5 серию. Мне моей карты с 2к разрешением притом в нативе хватит еще на очень долго, примерно до года 2030 можно не парится со сменой карты, в целом апгрейда пк. Тобишь у меня 12700к, 32гб ддр5 оперативы и 4080, как уже сказал. Пред топ комп, который будет еще много лет тянуть игры.
Ну ведь можно купить чистую производительность от конкурента в лице АМД, и не парится, даже не смотреть в сторону Нвидиа, которая продаёт только DLSS, верно?
@@Igor-Bond Не фанат амд, всю жизнь сижу на нвидия, да еще я наслышан про баги с драйверами амд. Как там щас, не знаю с этими драйверами, но переходить на амд не стану.
@@Владик1985 я владелец 7900хт нитро + и 5700х рузена, вылетов нет, ну разве что если не накидывать на адреналине частоты на которых карта не способна работать. Про хотспот 100 - тут скорее к исполнению, при разгоне и потреблении 400вт было 90, и то единажды, так 85-87 (лето, жара). Есть ли баги у амуде? Нет, есть фичи в виде повышения чëткости и пр функции адреналина, а также возможность настроить карту как хочешь и без автарбëрнера.
Вместо того, что бы сделать реально мощное железо для нативного 4к, крестьян уже который год кормят искусственными софтверными затычками, которые стопудово пишут исключительно под новые карты. С другой стороны, современное ААА превратилось в такое УГ, что обновлять комп стало почти бессмысленно, еще и за такие бабки.
Путем оптимизации технологии в новых драйверах мощности видеокарты будут использоваться исключительно для обработки счётчика ФПС... А если серьезно - зачем они это делают? Ну будет в какой-то игре нарисованные 200 ФПС, но с жутким инпутлагом, выскакивающих и ниоткуда монстрами, артефактами и потреблением питания под 1к ват
@ с path tracing конечно будет так. Это игра использует его по максимуму. Такая маленькая видеокарта не сможет тебе в таком разрешении 60 фпс сделать. Вот и применяются технологии
Единственная глобальная притензия к нвидиа, это заоблочные цены. Я бы купил условную 5050Ti за 125-199$. Но 200$ для меня психологический барьер который я никогда не перейду, какая бы хорошая видеокарта не была и какой бы прекрасный dlss там не прикрутили. Пока у них с ценами такая бубуйня, я быду юзать apu от amd, где за те же условные 200$ я получу и хороший проц и приемлемую графику, что бы худо бедно поиграть во все современные игры. Так что не видать Хуангу новой кожанки за мой счёт, пусть ему куртки оплачивают те, кто у него сервера под нейронки покупает.
Ты не их целевая аудитория на сейчас. К сожалению, они отказались от бюджеток вообще. Причем, если смотреть с 700-й серии, каждые два поколение, идет проседания. Т.е. если 750Ti - была прям хорошим геймерский решением в своем поколении, То, 2060 стал таким минимумом.
А какого хрена? Они на 5080 сделали 16Гб? На 4080 столько же и этого мало для локальных нейронок. По мне это петушиный поступок, походу оставили зазор для 5080ti на 24Гб
Это тебе не амд, которой и 32 гига мало будет в qhd. Если не заметил, то в презентации ещё и нейронные текстуры показали, которые весят в 2 раза меньше🤷
Еще одно чучело вылезло про видеопамять😂, сейчас еще про шину начнет затирать. Давай. Только лбди покупают, и играют на ультрах в 60++++ фпс. Но ему все, Чего-то, Где-то не хватает.
Я хз зачем эти генераторы кадров, если латенси не заметно лишь от 60 кадров, чего вполне хватает для 90% игр, ведь они не соревновательные. Ну будет у вас не 60, а 180 кадров и толку?
Согласен, от увеличения цифр ничего не меняется, кроме самой картинки, увеличенная задержка реально больше приносит дискомфорта, чем эти цифры в верху экрана радости!;)
Ну при задержке от 70 фпс вполне комфортно играется в киберпук, но плавности немного не хватает. Для меня плавно от 100 фпс. Поэтому FG помогает. А вот зачем х4 сделали уже действительно не ясно.
@@x_bat9_cah4e3_x6 Расстрою тебя но да задержка + мыло + артефакты и расскажу прикол что генка работает нормально только если круглые кадры 30/60/120 если у тебя в игре нет 30 как показана теста на киберпанке где без генки 24 а с генкой 240 будет чуствоваться очень плохо даже хуже чем 24 потому что карта просто не дотягивает до 30 чтобы генка нормально работала
Да что вы такое говорите, вы не правы, надо играть в игры с 4К разрешением без апскыйлеров, и сглаживания, в нативном разрешении и с 30 кадрами в секунду, а не в с этими DLSS и 144 кадрами, это кащунство играть с огромным количеством кадров в секунду!
1:50 не знаю.зачем тогда выложил свое видео?там речь о процессоре повышенной производительности Blackwell, предназначенный для технологий искусственного интеллекта (ИИ)
Проблема в том, что несознательные потребители без способности критично мыслить активно способствуют процветанию империи Хуанга и отсутствию у неё нормальных конкурентов.
Меня в комментах на полном серьезе один чел уверял вчера, что он уже тесты посмотрел в сети 5070 vs 4090 и она типо одинаковая по производительности. Я конечно вежливо объяснил ему, что эти тесты, как и 98% сравнительных тестов железа в сети это фейки. Реальные будут только ближе к 30 января. Пытался ему объяснить, что комппния не будет торговать себе в минус выпуская карту за 500 долларов с производительностью 4090. Так наивно думать. Это не серьезно. Куда тогда продавать 4070ti, 4080 и 4090? Которых еще достаточно на скаладах. Да и по чём их продавать, если на авито по его локике 4090 полетят за меньше чем 100к. Такой фантазер. Объяснял ему, что это сравнение 5070 с мультигенератором и голая 4090. А по сухой мощи ей дотянуть бы до 4070ti. Но он непоколебим. Ждет извинений после 30 января. Это поколение потеряно.
@@Igor-Bond ну запусти любую игру на UE5 с длсс 3/3.5, а затем быстро смени направление взгляда несколько раз - увидишь что все в артефактах. ДЛСС вывозит исключительно в статичных сценах без сильной динамики, во всех прочих картинка превращается в шлак из артефактов.
Презентацией Хуанг доказал что Видеокарты уперлись в свой лимит, Чип они уже лучше не смогут создать, Максимум что они могут сделать, Это улучшать технологию DLSS, Хотя фреймрейт просто пиздец.......
Не только Хуан, меня даже Зяоми програла на деньги, продав мне новый Смартфон! А вот мой сосед по подъезду не прогреваемый, пользуется техникой 15-20 летней давности и копит денежки, он рассказал что уже 2 250 000 рублей накопил, когда я его угостил пивком, за свои 75 лет жизни, вот человек молодец что не прогревается на все эти маркетинги, правда плохо одно, он одинокий, сын его умер давно, жена тоже умерла!
Смотря для кого как, если кто-то реально думает что 5070 круче, и возтмет по этой причине, то тут можно по плакать. А так 5070 будет мощнее 4070 и дешевле
нвидиафанбоев не спасти, они реально думают что растянув как в презентации 1080п до 4к детальнее будет, есть ещё виды сглаживания и длсс это тоже сглаживание только сегодня один узнал, с такими фанатами можно и 3.5гб видеопамяти продавать 5060, всё равно не заметно.
12:17 а вот не такой же будет инпут лаг, а больше сами Nvidia заявляли, что инпут лаг такой же, если включен DLSS Quality + Nvidia Reflex это как два энергетике тестировать на спортсменах, при том, что один спортсмен в обуви, а другой босиком нужно сравнивать, когда оба спортсмена в обуви))
Смотри на плюсы и минусы, 7900хтх дороже, но мощнее в голой производительности , 384 бита шина, 24гб видео буфер. 5070 дешевле, лучше в трасровке, длсс 4, нейронки.
проблема рт нет мощностей для него проблема длсс нельзя использовать в играх где её не внедрли сами разрабы фрейм ген дерьмо хз как вообще можно её хоть немного хвалить рефлекс крутая фишка но опять же нет в драйвере что бы юзать везде И самое главное нужны мощностя а не технологии и та же видеопамять о которой все ноют нах не нужна если сам камешек не справляется, покрутите разрешение в играх и глядя на фпс посмотрите на загрузку гпу и загрузку памяти Посыл правильный что нас дурят но люди сами хотят верить в чудеса увы(
ты откуда производительность найдёшь? АЛЁ 5070 В растре есть уже 250ватт. Без всяких лучей, длсс и прочей мишуры. Твоя 5070 упирается в возможности тепловыделения, который сейчас уже не решить. Техпроцесс тормозит своё развитие. Раньше видеокарты от улучшения нанометров и бустились, а сейчас уже нет, так как раз в 2 года TSMC выпускает новое поколение техпроцесса, которое на 20-30% энергоэффективнее предыдущего. BRUH. Каким образом ты сделаешь видеокарту производительнее нынешней 5070?
@@home_bt8218 наверное можно сделать монстр-видюху с потреблением > 1 кВт и стоимостью в $дохреналлион, вопрос кто себе такое в домашний ПК купит, 1.5 энтузиаста? И где эту производительность реализовать, если игры разрабатывают под консоли в первую очередь?
@@home_bt8218 ой вода такая надёжная, а жидкий металл надёжнейшая вещь. Воистину. Мы же видеокарты покупаем на три года. А через 3 года пусть хоть спаяется. Проблема даже не в охлаждении, а в потреблении как таковом. Увеличиваются радиаторы и прогары и увеличиваются требования к блокам питания, что не норма. Я не собираюсь сидеть и играть в игры на пк, который в игрушках кушает 1 кВт
ЕСЛИ без DLSS производительность в Cyberpunk 28 кадров, то нафига мне нужна карта за 1500$ ? DLSS это был шанс для маломощных карт, хоть как то отрисовать 60 FPS для требовательных игр. Зачем мне искусственные 270 кадров, они не добавят отзывчивости управления, это будет мыло и ватное управление с задержкой несколько десятков MC. По ходу в чистой производительности мощности у NVIDIA закончились еще на 10й серии, 1080ti была последняя карта, которая отрабатывала каждый вложенный рубль и каждый потребленный ватт электричества.
Я честно не понимаю проблему. Сам пробовал DLSS и генерацию кадров, не понимаю почему +- всем не по нраву эта технология. В чём проблема, что половина кадров не настоящая, если это выглядит лучше, чем мало нативных? Да, соглашусь, что сгенерированные кадры иногда или даже часто могут быть искажёнными, рваными в качестве. Но глаз через пару минут привыкает к этому, и эти "фальшивые" кадры выглядят с нативными лучше, чем чистый натив. По поводу Super Sampling-а тоже не понимаю. Да, конечно, иногда сложные в понимании места на изображении для ИИ модели могут искажаться и быть неестественными, но опять же уходим в человеческий фактор того, что глаз привыкает, и таких проблем не замечает. Подведу итог высказываний. DLSS желателен при игре с трассировкой лучей/путей для облегчения вычислений видео ускорителя, и отлично с этим справляется, создавая плавную картинку, ценой искажениями изображения. Но что же лучше? Любоваться логичной, но слегка искажённой графикой, или попытками её повторить такими методами как Screen Space, VXGI и т.п? Лично в моём вкусе будет первое, потому что разницу между нативом и "фальшивкой" не замечаю спустя время. Я могу согласится, что выбор это дело каждого, многие хотят честное изображение без артефактов, а некоторые готовы немного жертвовать качеством, но получать логичную картинку. Я понял проблему, многие люди платят много своих денег, но не получают требуемого ими результата за такие большие деньги. Ругают за это компанию, однако, если посмотреть с лица компании, то основная задача компании в бизнесе. Nvidia отлично делает вычислители для сложных вычислений, что многое время подходило для графики в видеоиграх, из за чего они и делают видеокарты. Но также оказалось, что особенности архитектуры GPU подходит для вычислений ИИ. Многие компании заинтересовались в разработке ИИ, и также оказалось, что Nvidia может предложить чуть ли не лучшее решение для этого. Поэтому Nvidia посмотрела в сторону ИИ, но стараются не забыть про игроков, и пытаются внедрить их технологии в видеокарты, из за чего люди и не получают нужных вычислительных мощностей. Получают значительные улучшения в ИИ, и эти улучшения стоят денег, но людям не нужен ИИ. Я, кажется окончательно понял, почему многие ругают новые видеокарты и компанию. Если я не прав, то, пожалуйста, поправьте меня.
Все оптимизации немощных курточных карт - приведут к тому, что будет всего всего 1 графический процессор с разным кол-вом памяти, а все эти длссни и фреймгены только по подписке.
Спасибо за выпуск, интересный вопросы раскрыты. А то прям многие в восторге от презентации и восхваляют КУРТКУ за заботу о геймерах - мол, подвезли и цены и производительность. Всех благ и тёплых эмоций ближнему кругу ❤
В прошлом поколении, RTX 4070 Super за 600$ действительно соответствовала RTX 3080 Ti 1200$ по чистой производительности К тому же, RTX 4090 была в два раза мощнее, чем RTX 3090, без всяких генераций кадров А в этом поколении, судя по слайду с презентации Nvidia, RTX 5090 мощнее, чем RTX 4090 лишь на 25%, именно по чистой производительности Что самое смешное, так это то, что по цене RTX 5090 дороже на те же 25% 2000$, вместо 1600$ за RTX 4090, получается вообще никакого улучшения относительно мощности за доллар не произошло среди этих карт. У меня такое подозрение, что в этом поколении, AMD перегонят Nvidia по чистой производительности, вот это будет потеха, если так.
Ну FSR это же апскейл, а генерация это уже дорисовка искусственно, тут надо смотреть на качество, dlss в сравнение с FSR сильно картинка шакалится это очень заметно.
Не,ну если это чисто с длсс 4 такой прирост тогда ладно,но если это считается при включенном FG-это убого. Я пару раз включал эту frame generation,так там мало того что задержка чувствуется очень сильно так еще и при движение картинка размазывается жестко.Но вот чисто длсс 3.5 без fg мне нравится,картинка четкая на 2к монике при настройке «качество»
А чем плох framegen? Какой смысл без него и остальных фичей вообще считать прирост? Кадры есть - есть. Обмана не вижу. + качество сгенерированных кадров лучше чем в предыдущих версиях DLSS
Генерация нескольких кадров на 5 серии эксклюзив не просто так. Хардвар анбоксед пояснял почему. Генерация кадров в 4 серии частично работала на цпу, а в 5 серии всё перенесли на гпу. То есть 4 серия аппаратно не умеет делать то, что умеет 5 серия при генерации.
@@sanya_cev Посмотрел я этот ролик, даже с переводом, ииии, заметил что в настройках DLSS стоит режим производительности, а не баланс или качество, а это уж сильно снижает качество картинки, будем ждать тестов у других Ютуб блогеров!
4:37 Автор вы читали что там написано под моделькой генерации картинок Flux? В 4090 использовался типа FP8 а в 5090 использовался FP4! Нормально да? Прогресс не за счёт технологического ускорения умножения чисел, а за счёт уменьшения точности вычислений в два раза.
А в блендере и других прогах Куртка Хуанг нарисует мне производительность при рендере 8к сцены на своем ДИЭЛ'ASS 4? Тогда беру амуде, там хоть память есть, которую могу без остатка на рендер кинуть
Читал сравнение видюх в блендере, там 7900 XTX слил допотопной 3080 в 2 раза почти, то есть это уровень плюс-минус 3060... Да и в целом брать карты АМД для работы... вы там держитесь, удачи 😁
Нвидия получает 80% прибыли от корпораций. Что нужно корпам? Нейросеть, или майнинг. А что надо ему? Больше и ядер и видеобуфер. Нужны ли им ФПС в играх? вообще нахер не впали. Понимаете куда и для кого развиваются видеокарты? ДЛСС это попытка убить 2 зайцев, заставить геймеров покупать видюхи которые по сути им не нужны и дают мало производительности.
Единственный минус это цена. Это я как владелец карты от красных пишу. Для меня все таки цена имеет решающее значение. И будущее это апскейлы, как бы нам не хотелось. Встали мощности , "нанометры заканчиваются" нужны новые технологии.
Мощности встали и нанометры уже лет 10 ни как не закончатся. Капиталисты выжимают все соки из потребителей, козыряя своими чудо технологиями и костылями, которые были-бы не нужны, если бы изначально ускорение RTX реализовали на отдельном чипе, как это когда-то было c Phyisx. Да-да, была отдельная плата с чипом ускоряющим физикс и за него нужно было платить отдельно! А сейчас, нам даже выбора не дают. Нужен тебе RTX или нет - ты все равно за него заплатишь.
@@dofiga1309 уже даже tsmc говорит о 2 нанометрах как о чем-то сложном. Ядерных технологий тоже не предвидится и капиталисты тут не причем. Либо надо архитектуру х86 менять и все вот это допотопное что тянется еще с начала времен. Но весь готовый софт итд этого не позволит сделать. а ближайшем будущем так точно. Что касается rtx так ведь есть тензорные ядра они и выполняют роль того самого чипа как было у физикс. RTX это сложно, общитать в реал тайме или зарендерить готовое видео как в кино - это разные вещи и мощности.
т.е. на видеокартах 40-й серии нас не ждут эти задержки новых технологий с добавлением 3-х кадров -- ну и хорошо, Хуанг прогревает Гоев... Если всё так плохо, ждать нам реальные мощности ещё 2 года, можно на 40-й серии пока пересидеть, и посмотреть на видеокарты АРКИ от INTEL, Хуанг им явно фору даёт на 2 года - показать что INTEL выкатит, если АРКИ появятся с технологиями Ai это даже очень хорошо, у INTEL неплохой потенциал в области ИИ - в эту сторону смотреть нужно, и пока сидеть на 40-х видеокартах.
Генерация ВСЕГДА генерирует в 2 раза больше фпс, ровно в 2. Просто мощности, которые необходимы на генерацию съедают часть нативного ФПС, из-за чего итоговый фпс может быть меньше.
Чел, ну это фейспалм, ты бы хотя бы посмотрел презентацию и разобрался как работают анонсированные технологии. 1:45 нет никакого обмана, на слайде не GPU 4090, об этом нигде не говорится, это максимальные характеристики данного поколения, видеокарты 4090 не верх всего поколения, есть еще профессиональные ускорители, а возможно и задел на 4090ti. 2:49 опять ты ничего не понял, Reflex 2 не рисует кадры нейронкой, там дорисовывается только мизерная часть на самых краях экрана, это лишь косметический модуль. Сама технология Reflex 2 может полноценно работать, точно так же снижать задержку и без дорисовывания этих краев. Дальше не смотрел и так все понятно, автор в теме вообще не разбирается, просто решил похайпиться и будут обмусоливать теории маркетингового заговора.👎👎👎
Про различие рт ядер и других на чипе с презентации и чипе 5090 - все ок, на слайде идеальный чип почти без брака, возможно для новой версии ртх титан или 5090 ти в будущем, как производство наладят, а то, что в 5090 - часть отключена аппаратно из-за нестабильности некоторых блоков (брака)
Ты каким местом смотрел, наидиа всегда программного обновляет что возможно вплоть даже 20 серию карт, если для этого требуется аппаратная модель внутри карты естественно это будет работать только так где она есть
У тебя очень очень приятный на слух голос и тебя в целом интересно слушать, не забрасывай канал, развивайся в этом и я больше чем уверен что ты спокойно сможешь вырасти до миллионника, главное работать и стараться
4:30 Far Cry 6 RTX 5090 на 10-15% мощней RTX 4090, сейчас 4090 стоит от 300 000 и до 500 000 рублей, так что в первые дни 5090 будет стоить 350 000, а через 2 года от 400 000 и до 600 000 рублей.
Ты бы почитал что такое ДЛСС, как он развивался, как работает новый рефлекс. 13:50 таких вопросов не было бы. У меня 3080. Длсс 2 и 3.8 который сейчас в киберпанке небо и земля, картинка с длсс в 2К лучше чем натив
@@badmood7752окей, допустим он хомячок, но у него в сухой производительности и так видеокарта будет такая же, либо лучше чем у амд, так ещё и энегроэфекивнее. Вот вы сидите на своём амд, с гребанным fsr, те-же технологии, только хуже, без намёка на ИИ и гоните на зелёных, хотя амд и интел даже в сухой производительности не могут тягаться с nvidia. Называете недалекими, хотя по факту любой человек, который более менее понимает знает, что ну достигли уже практически предела возможностей кремния, с каждым годом все труднее дать прирост, поэтому сейчас упор на технологии, которые отлично работают, если не нравятся - выключи
не слышал что бывает лучше натива чтото это прогрес чел может ты натив играл без трасировки а Длсс с трасировкой ясно что трасировка включеная+натив лучше будет выглядить чем натив без трасировки ты чот напутал
По такой логике, Ryzen 7 1700, благодаря божественной генерации кадров NVIDIA, становится в 4 раза лучше, а значит его можно сравнивать с Ryzen 7 9800X3D Кто не знал, на генерацию кадров процессор никак не влияет, то есть если процессор может выдать 40 кадров, генерация кадров все равно может рисовать больше кадров
А что не понятного, мыльной картинки на DLSS 2. Этот пример относительно честный. DLSS 3 принес не только генерацию кадров, но и улучшение четкости и больше деталей. Радует, что ещё более детализированный и менее "артефачный" DLSS 4 доступен и на картах предыдущих поколений. А 3* 4* FG пусть себе оставят. Не использую даже 2х. Остальные тем более не нужны.
Я вот не совсем понял такой момент. Зеленые показали таблицу доступности новых приблуд из DLSS 4.0 для всех поколений. И вот для 4000 серии стоит галочка на FGx2 с комментарием: улучшена производительность и снижено потребление памяти. Новый апскейлер уже доступен всем поколениям, правда почему то beta. Еще RT реконстракшен везде доступен будет. Один вопрос, когда?
Выпало в рекомендации, досмотрел до середины и поставил галочку, что бы больше никогда этот канал не рекомендовали. Против автора ничего не имею против, но от услышанного уши заворачиваются в трубочку ))) Просто для примера, вы играете в ПУБГ, у вас топ ПК и монитор 240гц, у вашего противника старый хлам и монитор 30гц. Интернет соединение одинаковое, допустим один провайдер, оба живут в одном подъезде. Вопрос, кто увидит противника раньше? Ответ - оба игрока будут видеть друг друга ОДНОВРЕМЕННО и неважно, что у вас там 5090 или 9090. Современные технологии это здорово, но что бы рассуждать надо понимать как устроен сетевой код, как формируются фреймы, что именно просчитывает процессор, а что - видео карта и почему. И много всего другого. Удачи!
Как можно расказывать о том что ещё в руках не держали!? Каждый выход видеокарт одна и таже песня у блогеров как нас обманывают какие карты плохие и тд, как только в продаже появляется новая линейка карт вы начинаете их облизывать какие они класные....
@КириллМолчанов-з6з это не они обосралась, а надо характеристики смотреть внимательнее. Я не защищаю Хуанга, просто задолбало о том что я написал выше!
@@ДмитрийФомин-я5й как раз таки обосрались, раньше дискретки соотвествовали неймингу, сейчас же под видом 4070 продают гораздо хуже видеокарту, но ценник как за полноценную 4070
@ДмитрийФомин-я5й при чем тут цены выросли, ты вообще понять не можешь о чем речь? Тебе бл под видом 4070 продают 4060 ti , вот ток цена не за 4060 а за 4070 ты платишь, это тоже самое что ты видяху декстопную возьмёшь 4070 а в коробке будет 4060
Отлично, очень рад что инженеры нвидиа дали тебе все инсайды. Чем твой контент отличается от говорящих голов с ТВ или экстрасенсов? Просто мусор. Стоит дождаться конца января и посмотреть на голую производительность и затем на сравнение с использованием алгоритмов генерации и dlss. Когда много лет назад вышел первый длсс и фср все так же с пеной у рта доказывали что все это ФЕЙК и лаги! Но по факту сейчас всем уже ясно что длсс и рефлекс работает и то что он дает на голову выше чем все ожидали.
А что вы думаете по поводу новой линейки видеокарт RTX 50?
Поддержать донатом - www.donationalerts.com/r/dark...
Бусти - boosty.to/darkrikoshet
ТГ канал - t.me/dark_rikoshet
Сколько я каналов посмотрел, все сравнивают работу видеокарт с функцией rtx и это логично и правильно, я не спорю.
НО!
Я хочу узнать, что вообще по мощностям без RTX. Я презираю ртх с самого его начала. Сырая технология, грубо говоря, как героин младенцу вколатая игрокам, хочет развиться без нашего на то согласия. Играть с включенным ртх желания нет, меня устраивают тени которые и так раскиданы разрабами и я обязательно буду ждать, что по компоновке и производительности без ртх и стоит ли вообще тратить деньги на обновление.
Что Хуанг в край уже обнаглел в виду отсутствия реальной конкуренции со стороны родственницы.
никогда не было и вот опять - Нвидия виртуальные кадры продаёт за реальные деньги!
Все кадры виртуальные умник...
Да ужас какой-то! Согласен, это не правильно не справедливо, а издатели так вообще продают виртуальные игры за большие деньги, а должны давать их бесплатно, как FSR у АМД!
@@Igor-Bond который кстати, вроде бы начиная со следующей итерации, также будет требовать аппаратных мощностей, как и длсс. всё, амуде закрылась от народа получается, не наш слоняра больше?
таки меня это устраивает
@@siffzeL_ К сожалению да, если хотя бы на 30-ой серии можно будет запускать при помощи модов это уже хорошо.
Голую производительность не показали, я думаю там прирост 10-20% максимум, вот и не показали.
около 30%, если считать ядра
@artem123654 ядра не дают эквивалентный прирост. Надо смотреть тесты.
@@daga5627 новое поколение обычно даёт больший прирость производительности на ядро
@@daga5627 дают при соответствующей нагрузке. 3090 и 4090 разница в производительности до 70%. При 56% отличии в ядрах. Поэтому может быть ещё быстрее, чем разница в ядрах из-за новой архитектуры.
Ну и какие 10% нифиг? Самому не смешно?
Показали же, серые графики это без всяких апскейлеров и генераций
- У вас есть кадры?
- Кое что по лучше, рисунок кадра😂
Продолжаем сидеть на RX6600.
🤮
я тоже сидел, и чего раньше не купил 4070супер😆
rx470 )
@@АлексейСтипанович что тоже жрёт после даунвольтинга в пике 90 ватт и можно взять на Авито за 15-16 штук?
@oychallenge GTX 550 Ti)))
Так и что в итоге? Если выключить дрысню в виде генерации, то 5070, выдаст те же, 30fps? Ммм...💩
Сенсея насмотрелся
А почему нет? Если Хуанг, снова втирает людям туфту, что и была до.
Токо теперь вместо 1 ненастоящей картинки, будет сразу - 3. А игра как шла в 30фпс. На 4070. Так будет в 30 и на 5070.
Смысл.
@@antonwestakov648 5070 дешевле на 50$.
5070 в чистой производительности мощнее 4070.
+длсс на 2к , 4к выглядит нормально.
Переход с 4070 на 5070 не имеет смысла.
@@antonwestakov648 Кстати все картинки не настоящие, это лишь пиксели, циферки.
@@antonwestakov648 Ты хоть смотрел как длсс работал или только слушал деда который сидит на б/у 3080 и хейтит обсалютно все, не учитывая цену, производительность с прошлыми картами и энергоэффективность
Если бы включили мультифрейм для 2000 и 3000 линейки, то да, могли бы с гордостью говорить, что увеличили их производительность в 4 раза в ИГРАХ на пустом месте. А для 5000 линейке это выглядит, конечно, маркетинговой уловкой.
Просто пора ПЕРЕСТАТЬ сравнивать производительность графики в играх, тогда и разводов таких не будет. Сравнивайте в монтаже, в матвычислениях и прочем.
кому не пофиг на монтаж и прочий не интересный массам скучный бред?)
Все идет к тому, что нвидия продает тупо дллс в картах, а не чистую производительность по факту. Ненужно будет особо наращивать мощности, а тупо делать программный дллс с каждым поколением карт, и фпс будет удваиватся. Так они потом сделают генерацию не трех кадров, а 5-6 к примеру и цены ставят космос. У меня есть 4080 2к монитор, и я плевать хотел на эту 5 серию. Мне моей карты с 2к разрешением притом в нативе хватит еще на очень долго, примерно до года 2030 можно не парится со сменой карты, в целом апгрейда пк. Тобишь у меня 12700к, 32гб ддр5 оперативы и 4080, как уже сказал. Пред топ комп, который будет еще много лет тянуть игры.
влажные мечты
Ну ведь можно купить чистую производительность от конкурента в лице АМД, и не парится, даже не смотреть в сторону Нвидиа, которая продаёт только DLSS, верно?
самое разочеровывающие что игры новые будут в упор по производительности dlss. как сталкер без апскейлера мыло и шумы
@@Igor-Bond Не фанат амд, всю жизнь сижу на нвидия, да еще я наслышан про баги с драйверами амд. Как там щас, не знаю с этими драйверами, но переходить на амд не стану.
@@Владик1985 я владелец 7900хт нитро + и 5700х рузена, вылетов нет, ну разве что если не накидывать на адреналине частоты на которых карта не способна работать. Про хотспот 100 - тут скорее к исполнению, при разгоне и потреблении 400вт было 90, и то единажды, так 85-87 (лето, жара).
Есть ли баги у амуде? Нет, есть фичи в виде повышения чëткости и пр функции адреналина, а также возможность настроить карту как хочешь и без автарбëрнера.
Вместо того, что бы сделать реально мощное железо для нативного 4к, крестьян уже который год кормят искусственными софтверными затычками, которые стопудово пишут исключительно под новые карты. С другой стороны, современное ААА превратилось в такое УГ, что обновлять комп стало почти бессмысленно, еще и за такие бабки.
После презентации акции компании упали на 10% рынок не врёт
Туда их😂 (нет на самом деле)
ну-ну, их акции же просто обвалились, и плевать, что они сейчас растут
@@v61kz а тебе то что с этого
Путем оптимизации технологии в новых драйверах мощности видеокарты будут использоваться исключительно для обработки счётчика ФПС...
А если серьезно - зачем они это делают? Ну будет в какой-то игре нарисованные 200 ФПС, но с жутким инпутлагом, выскакивающих и ниоткуда монстрами, артефактами и потреблением питания под 1к ват
Чистый маркетинг чтобы продать свой кал
казуалам впарить так легче, вот и всё.
Скорее всего уже исчерпали мощности кремния, поэтому начали продавать искусственные фпс за реальные деньги
У тебя на рука эта видеокарта есть, что ты так говорить?
@@pooo1shovel Опа… свидетели зеленых подъехали…
Попробуйте тульские микрофоны "Октава". В них американские мега звёзды писали свои альбомы
Теперь упор не в мощность видеокарты а в ее способность работать с технологией ускорения Хуанг решил пойти по самому легкому пути
Ваши любимые разработчики теперь будут еще больше лениться
Они делают и то и другое одновременно умник
@@medrown Меня мало впечатляет 27 фпс на rtx5090 нативном 4к в киперпанке, остальное конечно магия
@ с path tracing конечно будет так. Это игра использует его по максимуму. Такая маленькая видеокарта не сможет тебе в таком разрешении 60 фпс сделать. Вот и применяются технологии
@@medrown Кстати, уже показали карты от ретейлеров от фирмачей Асус, Палит, не маленький такой бутерброд
Единственная глобальная притензия к нвидиа, это заоблочные цены. Я бы купил условную 5050Ti за 125-199$. Но 200$ для меня психологический барьер который я никогда не перейду, какая бы хорошая видеокарта не была и какой бы прекрасный dlss там не прикрутили. Пока у них с ценами такая бубуйня, я быду юзать apu от amd, где за те же условные 200$ я получу и хороший проц и приемлемую графику, что бы худо бедно поиграть во все современные игры. Так что не видать Хуангу новой кожанки за мой счёт, пусть ему куртки оплачивают те, кто у него сервера под нейронки покупает.
От одного сумасшедшего на встройке у куртки не убудет)
@Askippen это правда, как и то что сумасшедших вокруг гораздо больше чем может показаться.
@@0verforce если человек говорит, что он не сумасшедший, то он врёт. Если человек не говорит, что он сумасшедший, то он сумасшедший.
@@Askippen мне определённо нравится этот стиль повествования, зачёт!
Ты не их целевая аудитория на сейчас.
К сожалению, они отказались от бюджеток вообще.
Причем, если смотреть с 700-й серии, каждые два поколение, идет проседания.
Т.е. если 750Ti - была прям хорошим геймерский решением в своем поколении,
То, 2060 стал таким минимумом.
А какого хрена? Они на 5080 сделали 16Гб?
На 4080 столько же и этого мало для локальных нейронок.
По мне это петушиный поступок, походу оставили зазор для 5080ti на 24Гб
хуанг конечно мог бы добавить больше памяти, но тогда бы ему не хватило денег на новую куртку с трассировкой
@Latinonos
Кто там в облаках, самолёт или птица, нет это хуанг в лучах искрится
хочешь работать на видюхе, покупай 5090, а если хочешь играть, 16 гигов тебе хватит на ЛЮБОЙ тайтл в 4к
@sluckydog657
Да хочу работать и играть. Но 16Гб для 5080 реально мало.
А 2000$ за 5090 реально много.
К чему крайности?
@@banderprofiи в чём ты будешь работать?) В пэинте тебе и встройки хватит, а нейронку ты чему будешь обучать? Как апнуть 2к ммр в доте?😂
Куртка прогревает!
Платье кидает!
А когда не прогревал ?
Автору респект за такую жоскую аналитику, обоснованные сомнения и здравые рассуждения.
Для 5070 - 12гб это дно. Даже 16гб дно. На 5 лет не хватит для игр.
Хватит, мне и 8гб хватает в 4к зачем все выкручивать на максимум
Это тебе не амд, которой и 32 гига мало будет в qhd. Если не заметил, то в презентации ещё и нейронные текстуры показали, которые весят в 2 раза меньше🤷
@@ЕвгенийВозяков ну смотрю во что в ближайшее время ты играть собрался))))
@UMRUN Не играю, не во что
Еще одно чучело вылезло про видеопамять😂, сейчас еще про шину начнет затирать. Давай.
Только лбди покупают, и играют на ультрах в 60++++ фпс.
Но ему все, Чего-то, Где-то не хватает.
Никогда такого не было и вот опять. Или люди думают что компании говорят правду. Посмотрите на графики аппл, куртка учился у радужного
Процессоры и видеокарты достигли своего предела. Пока не произойдет переход на чиплеты с быстрой связью нас будут дурить
Я хз зачем эти генераторы кадров, если латенси не заметно лишь от 60 кадров, чего вполне хватает для 90% игр, ведь они не соревновательные. Ну будет у вас не 60, а 180 кадров и толку?
Согласен, от увеличения цифр ничего не меняется, кроме самой картинки, увеличенная задержка реально больше приносит дискомфорта, чем эти цифры в верху экрана радости!;)
Ну при задержке от 70 фпс вполне комфортно играется в киберпук, но плавности немного не хватает. Для меня плавно от 100 фпс. Поэтому FG помогает. А вот зачем х4 сделали уже действительно не ясно.
@@Directx11cool Это чтобы ты в киберпуке с трассировкой пути на 5090 имел не 30-40 кадров, а 100-120 хотя-бы.
17:15 - эта прога работает в 0.1% случаев и постоянно крашится, хз зачем вообще её сделали
Только меня смущает, что у 3-х слотовой 4090 ТДП 450 Ватт, а у 2-х слотовой 5090 это значение достигает 575 Ватт?
Так это версии FE, флагманские решения от MSI или Asus будут трехслотовыми
А я так и не понял: без интернета вот это всё работать будет? Я к тому что нужны какие сервера для всего этого или всё локально считается?
Нарисовать можно хоть 1000 фейковых кадров а на самом деле 50)
расстрою тебя, но с нарисованными кадрами я чувствую разницу, хоть и задержка появляется, но плавность игры в любом случае лучше будет)
@@x_bat9_cah4e3_x6 Расстрою тебя но да задержка + мыло + артефакты и расскажу прикол что генка работает нормально только если круглые кадры 30/60/120 если у тебя в игре нет 30 как показана теста на киберпанке где без генки 24 а с генкой 240 будет чуствоваться очень плохо даже хуже чем 24 потому что карта просто не дотягивает до 30 чтобы генка нормально работала
Жестко конечно, когда ты сам пенек и пытаешься в рассуждение о технологиях.
Тоже хотел что-то подобное написать, особенно когда речь зашла про шарпинг выходного изображения.
Тоже самое хотел сказать.
А я не шарю😅 Для меня он все грамотно говорит😂 Правильно ребят, выводите на чистую воду
включай dlss когда у тебя производительности не хватает и играй в майнкрафт. только за это доплатить ещё нужно.
Да что вы такое говорите, вы не правы, надо играть в игры с 4К разрешением без апскыйлеров, и сглаживания, в нативном разрешении и с 30 кадрами в секунду, а не в с этими DLSS и 144 кадрами, это кащунство играть с огромным количеством кадров в секунду!
Наконец-то, новая серия! Неужели я наконец-то смогу купить б/у 2070 или 3060 по бюджетным ценам?!
нет)
Не бери эти обмылки, лучше 6700xt в хорошем состоянии
@@Людына_Павук3070 норм за 25 с Авито
30-я серия хрен подешевеет
Сочувствую
1:50 не знаю.зачем тогда выложил свое видео?там речь о процессоре повышенной производительности Blackwell, предназначенный для технологий искусственного интеллекта (ИИ)
Хомяки действительно думают, что за 500 баксов получат 4090 it super. Не разрушаем их надежды
Проблема в том, что несознательные потребители без способности критично мыслить активно способствуют процветанию империи Хуанга и отсутствию у неё нормальных конкурентов.
разве существует такая карта?
Меня в комментах на полном серьезе один чел уверял вчера, что он уже тесты посмотрел в сети 5070 vs 4090 и она типо одинаковая по производительности. Я конечно вежливо объяснил ему, что эти тесты, как и 98% сравнительных тестов железа в сети это фейки. Реальные будут только ближе к 30 января. Пытался ему объяснить, что комппния не будет торговать себе в минус выпуская карту за 500 долларов с производительностью 4090. Так наивно думать. Это не серьезно. Куда тогда продавать 4070ti, 4080 и 4090? Которых еще достаточно на скаладах. Да и по чём их продавать, если на авито по его локике 4090 полетят за меньше чем 100к. Такой фантазер. Объяснял ему, что это сравнение 5070 с мультигенератором и голая 4090. А по сухой мощи ей дотянуть бы до 4070ti. Но он непоколебим. Ждет извинений после 30 января. Это поколение потеряно.
Я помню получил за 500 баксов 2080 ti в лице 3070 и был доволен как слон,че та подумал будет тоже самое и шя
Хуанг тот еще жулик но с моей 1660ti я думаю уже пора пересаживаться.
Думаю пришло время для замены 3080 на 5070 ti 🤔
Всегда отключаю длсс и прочие ии-приблуды в играх, ибо после них вместо нормальной картинки ты видишь 100500 артефактов на экране.
Тоже бы так делал если бы не видюха днище которая только с фср вывозит новые тайтлы
Верно, настоящие тру геймеры играют в оригинальный Deus Ex без всех этих абскуйлеров!
@@Igor-Bond ну запусти любую игру на UE5 с длсс 3/3.5, а затем быстро смени направление взгляда несколько раз - увидишь что все в артефактах. ДЛСС вывозит исключительно в статичных сценах без сильной динамики, во всех прочих картинка превращается в шлак из артефактов.
Презентацией Хуанг доказал что Видеокарты уперлись в свой лимит, Чип они уже лучше не смогут создать, Максимум что они могут сделать, Это улучшать технологию DLSS, Хотя фреймрейт просто пиздец.......
Просто заплатить за очередной DLSS проще чем инженерам, да еще и цену можно в небеса поднять за "супер пупер технологии генерации кадров", X2 прибыль.
Шутите?
5090 минимум 420-450к будет в ДНС.
Это чо жадность барыг 😅😅
Цена закупки и х2 бахнут.
Хуанг опять прогревает нас на деньги))00
Не только Хуан, меня даже Зяоми програла на деньги, продав мне новый Смартфон! А вот мой сосед по подъезду не прогреваемый, пользуется техникой 15-20 летней давности и копит денежки, он рассказал что уже 2 250 000 рублей накопил, когда я его угостил пивком, за свои 75 лет жизни, вот человек молодец что не прогревается на все эти маркетинги, правда плохо одно, он одинокий, сын его умер давно, жена тоже умерла!
Смотря для кого как, если кто-то реально думает что 5070 круче, и возтмет по этой причине, то тут можно по плакать. А так 5070 будет мощнее 4070 и дешевле
нвидиафанбоев не спасти, они реально думают что растянув как в презентации 1080п до 4к детальнее будет, есть ещё виды сглаживания и длсс это тоже сглаживание только сегодня один узнал, с такими фанатами можно и 3.5гб видеопамяти продавать 5060, всё равно не заметно.
У тебя есть идеи получше? Что можешь предложить для улучшения карт нвидиа?
@@shmpnj не покупать 4 года
один кадр в игре, и ии её завершит сама
Хуанг нам старается втюхать, фейковые кадры
6:50 при включенном Ray Tracing, DLSS значительно больше влияет на FPS, чем без RT, так что там может быть не 70, а даже 100
14:05 с первого кадра идет быстрый апскей а потом улучшайзер, без апскейла, чтоб исключить задержку.
12:17 а вот не такой же будет инпут лаг, а больше
сами Nvidia заявляли, что инпут лаг такой же, если включен DLSS Quality + Nvidia Reflex
это как два энергетике тестировать на спортсменах, при том, что один спортсмен в обуви, а другой босиком
нужно сравнивать, когда оба спортсмена в обуви))
"рефлекс 2 игнорирует нам то, что делает видеокарта.." - автор хотя бы понимает, что он вообще говорит?
Far Cry 6 всё показал... Куртка разводила😂
Ребят, подскажите пжлст, стоит сейчас покупать rx 7900xtx или лучше rtx 5070?
8000 ждать
Смотри на плюсы и минусы, 7900хтх дороже, но мощнее в голой производительности , 384 бита шина, 24гб видео буфер. 5070 дешевле, лучше в трасровке, длсс 4, нейронки.
По сути смотреть прохождения на ютуб это 100% ненастоящих кадров, это как бы более совершенная технология
проблема рт нет мощностей для него
проблема длсс нельзя использовать в играх где её не внедрли сами разрабы
фрейм ген дерьмо хз как вообще можно её хоть немного хвалить
рефлекс крутая фишка но опять же нет в драйвере что бы юзать везде
И самое главное нужны мощностя а не технологии и та же видеопамять о которой все ноют нах не нужна если сам камешек не справляется, покрутите разрешение в играх и глядя на фпс посмотрите на загрузку гпу и загрузку памяти
Посыл правильный что нас дурят но люди сами хотят верить в чудеса увы(
ты откуда производительность найдёшь? АЛЁ 5070 В растре есть уже 250ватт. Без всяких лучей, длсс и прочей мишуры. Твоя 5070 упирается в возможности тепловыделения, который сейчас уже не решить. Техпроцесс тормозит своё развитие. Раньше видеокарты от улучшения нанометров и бустились, а сейчас уже нет, так как раз в 2 года TSMC выпускает новое поколение техпроцесса, которое на 20-30% энергоэффективнее предыдущего. BRUH. Каким образом ты сделаешь видеокарту производительнее нынешней 5070?
@@sanya_cev СЖО никто не отменял, а жидкий металл видимо по приколу сделали, странно говорить про упор в тепловыделение.
Мультигенератор интегрировали в драйвер. Ты упустил этот момент в презентации. Больше ничего не нужно интегрировать.
@@home_bt8218 наверное можно сделать монстр-видюху с потреблением > 1 кВт и стоимостью в $дохреналлион, вопрос кто себе такое в домашний ПК купит, 1.5 энтузиаста?
И где эту производительность реализовать, если игры разрабатывают под консоли в первую очередь?
@@home_bt8218 ой вода такая надёжная, а жидкий металл надёжнейшая вещь. Воистину. Мы же видеокарты покупаем на три года. А через 3 года пусть хоть спаяется.
Проблема даже не в охлаждении, а в потреблении как таковом. Увеличиваются радиаторы и прогары и увеличиваются требования к блокам питания, что не норма. Я не собираюсь сидеть и играть в игры на пк, который в игрушках кушает 1 кВт
Хорошее видео
Для меня главное генерация во FLUX, если в два раза вырастет производительность, как заявлено, то надо брать.
ЕСЛИ без DLSS производительность в Cyberpunk 28 кадров, то нафига мне нужна карта за 1500$ ? DLSS это был шанс для маломощных карт, хоть как то отрисовать 60 FPS для требовательных игр. Зачем мне искусственные 270 кадров, они не добавят отзывчивости управления, это будет мыло и ватное управление с задержкой несколько десятков MC. По ходу в чистой производительности мощности у NVIDIA закончились еще на 10й серии, 1080ti была последняя карта, которая отрабатывала каждый вложенный рубль и каждый потребленный ватт электричества.
Я честно не понимаю проблему.
Сам пробовал DLSS и генерацию кадров, не понимаю почему +- всем не по нраву эта технология. В чём проблема, что половина кадров не настоящая, если это выглядит лучше, чем мало нативных? Да, соглашусь, что сгенерированные кадры иногда или даже часто могут быть искажёнными, рваными в качестве. Но глаз через пару минут привыкает к этому, и эти "фальшивые" кадры выглядят с нативными лучше, чем чистый натив.
По поводу Super Sampling-а тоже не понимаю. Да, конечно, иногда сложные в понимании места на изображении для ИИ модели могут искажаться и быть неестественными, но опять же уходим в человеческий фактор того, что глаз привыкает, и таких проблем не замечает.
Подведу итог высказываний.
DLSS желателен при игре с трассировкой лучей/путей для облегчения вычислений видео ускорителя, и отлично с этим справляется, создавая плавную картинку, ценой искажениями изображения. Но что же лучше? Любоваться логичной, но слегка искажённой графикой, или попытками её повторить такими методами как Screen Space, VXGI и т.п?
Лично в моём вкусе будет первое, потому что разницу между нативом и "фальшивкой" не замечаю спустя время.
Я могу согласится, что выбор это дело каждого, многие хотят честное изображение без артефактов, а некоторые готовы немного жертвовать качеством, но получать логичную картинку.
Я понял проблему, многие люди платят много своих денег, но не получают требуемого ими результата за такие большие деньги. Ругают за это компанию, однако, если посмотреть с лица компании, то основная задача компании в бизнесе. Nvidia отлично делает вычислители для сложных вычислений, что многое время подходило для графики в видеоиграх, из за чего они и делают видеокарты. Но также оказалось, что особенности архитектуры GPU подходит для вычислений ИИ. Многие компании заинтересовались в разработке ИИ, и также оказалось, что Nvidia может предложить чуть ли не лучшее решение для этого.
Поэтому Nvidia посмотрела в сторону ИИ, но стараются не забыть про игроков, и пытаются внедрить их технологии в видеокарты, из за чего люди и не получают нужных вычислительных мощностей. Получают значительные улучшения в ИИ, и эти улучшения стоят денег, но людям не нужен ИИ.
Я, кажется окончательно понял, почему многие ругают новые видеокарты и компанию. Если я не прав, то, пожалуйста, поправьте меня.
Тебя послушать то все плохо!
Ты совсем там кукуху потерял🤣
Отличные карты по хорошей цене! И технологии хорошие!)
А когда подвезут новый апскейлер для предыдущих поколений? И улучшенный генератор для 4000? После 30 числа дрова выкатят новые?
Все оптимизации немощных курточных карт - приведут к тому, что будет всего всего 1 графический процессор с разным кол-вом памяти, а все эти длссни и фреймгены только по подписке.
Спасибо за выпуск, интересный вопросы раскрыты.
А то прям многие в восторге от презентации и восхваляют КУРТКУ за заботу о геймерах - мол, подвезли и цены и производительность.
Всех благ и тёплых эмоций ближнему кругу ❤
Сижу, гадаю где я включил тему боя tales of arise.
А plague tale requiem дословно читается как "Э ПЛЭГ Тэйл Рэквием" что в переводе значит примерное "Чумной рассказ: реквием"
а я думал Чумная сказка: реквием
В прошлом поколении, RTX 4070 Super за 600$ действительно соответствовала RTX 3080 Ti 1200$ по чистой производительности
К тому же, RTX 4090 была в два раза мощнее, чем RTX 3090, без всяких генераций кадров
А в этом поколении, судя по слайду с презентации Nvidia, RTX 5090 мощнее, чем RTX 4090 лишь на 25%, именно по чистой производительности
Что самое смешное, так это то, что по цене RTX 5090 дороже на те же 25% 2000$, вместо 1600$ за RTX 4090, получается вообще никакого улучшения относительно мощности за доллар не произошло среди этих карт.
У меня такое подозрение, что в этом поколении, AMD перегонят Nvidia по чистой производительности, вот это будет потеха, если так.
Ну FSR это же апскейл, а генерация это уже дорисовка искусственно, тут надо смотреть на качество, dlss в сравнение с FSR сильно картинка шакалится это очень заметно.
Не,ну если это чисто с длсс 4 такой прирост тогда ладно,но если это считается при включенном FG-это убого.
Я пару раз включал эту frame generation,так там мало того что задержка чувствуется очень сильно так еще и при движение картинка размазывается жестко.Но вот чисто длсс 3.5 без fg мне нравится,картинка четкая на 2к монике при настройке «качество»
А чем плох framegen? Какой смысл без него и остальных фичей вообще считать прирост? Кадры есть - есть. Обмана не вижу. + качество сгенерированных кадров лучше чем в предыдущих версиях DLSS
Генерация нескольких кадров на 5 серии эксклюзив не просто так. Хардвар анбоксед пояснял почему. Генерация кадров в 4 серии частично работала на цпу, а в 5 серии всё перенесли на гпу. То есть 4 серия аппаратно не умеет делать то, что умеет 5 серия при генерации.
Linus с канала Linus tech tips поиграл в cyberpunk 2077 на 5090 и гостинг все еще присутствует местами
Пока официально не начались продажи видеокарт, всё что вам показывают, это фальшивки, так что ждите выхода оф карт и драйверов!
ему как бы уже заслали эти видеокарты)))
@@sanya_cev Посмотрел я этот ролик, даже с переводом, ииии, заметил что в настройках DLSS стоит режим производительности, а не баланс или качество, а это уж сильно снижает качество картинки, будем ждать тестов у других Ютуб блогеров!
4:37 Автор вы читали что там написано под моделькой генерации картинок Flux? В 4090 использовался типа FP8 а в 5090 использовался FP4! Нормально да? Прогресс не за счёт технологического ускорения умножения чисел, а за счёт уменьшения точности вычислений в два раза.
А в блендере и других прогах Куртка Хуанг нарисует мне производительность при рендере 8к сцены на своем ДИЭЛ'ASS 4? Тогда беру амуде, там хоть память есть, которую могу без остатка на рендер кинуть
Читал сравнение видюх в блендере, там 7900 XTX слил допотопной 3080 в 2 раза почти, то есть это уровень плюс-минус 3060...
Да и в целом брать карты АМД для работы... вы там держитесь, удачи 😁
@@nitroexpress9928 что еще остается, rtx titan за 100к? Видел какую-то видеокарту от нвидиа за 20к для работы, но до покупки еще руки не дошли)
Нвидия получает 80% прибыли от корпораций. Что нужно корпам? Нейросеть, или майнинг. А что надо ему? Больше и ядер и видеобуфер. Нужны ли им ФПС в играх? вообще нахер не впали. Понимаете куда и для кого развиваются видеокарты? ДЛСС это попытка убить 2 зайцев, заставить геймеров покупать видюхи которые по сути им не нужны и дают мало производительности.
Единственный минус это цена. Это я как владелец карты от красных пишу. Для меня все таки цена имеет решающее значение. И будущее это апскейлы, как бы нам не хотелось. Встали мощности , "нанометры заканчиваются" нужны новые технологии.
Мощности встали и нанометры уже лет 10 ни как не закончатся. Капиталисты выжимают все соки из потребителей, козыряя своими чудо технологиями и костылями, которые были-бы не нужны, если бы изначально ускорение RTX реализовали на отдельном чипе, как это когда-то было c Phyisx. Да-да, была отдельная плата с чипом ускоряющим физикс и за него нужно было платить отдельно! А сейчас, нам даже выбора не дают. Нужен тебе RTX или нет - ты все равно за него заплатишь.
@@dofiga1309 уже даже tsmc говорит о 2 нанометрах как о чем-то сложном. Ядерных технологий тоже не предвидится и капиталисты тут не причем. Либо надо архитектуру х86 менять и все вот это допотопное что тянется еще с начала времен. Но весь готовый софт итд этого не позволит сделать. а ближайшем будущем так точно. Что касается rtx так ведь есть тензорные ядра они и выполняют роль того самого чипа как было у физикс. RTX это сложно, общитать в реал тайме или зарендерить готовое видео как в кино - это разные вещи и мощности.
точняк
т.е. на видеокартах 40-й серии нас не ждут эти задержки новых технологий с добавлением 3-х кадров -- ну и хорошо, Хуанг прогревает Гоев...
Если всё так плохо, ждать нам реальные мощности ещё 2 года, можно на 40-й серии пока пересидеть, и посмотреть на видеокарты АРКИ от INTEL, Хуанг им явно фору даёт на 2 года - показать что INTEL выкатит, если АРКИ появятся с технологиями Ai это даже очень хорошо, у INTEL неплохой потенциал в области ИИ - в эту сторону смотреть нужно, и пока сидеть на 40-х видеокартах.
16:53 подушню: не ответа, а вопроса. ответ они сами покажут)
Все это не имеет смысла, 20 фпс будет в таркове в любом случае, потому что буянов
У Хуанга куртка блестит прямо с трасировкой лучей и DLSS 4 😅🤣
Единственное что может спасти бюджетный рынок - это AMD и Intel.
Ничего появятся моды и dlss 4 можно будет запускать на 40-ой серии.
Нет
@@user_Antonio что нет? Если длсс 3 можно тупо скачать на 20 и 30 линейке, то и с длсс 4 такое будет.
А зачем? Ну если тольько прям совсем оптимизацию прекратят😂 Но из одного кадра 4 мне не очень хочется🤣
@@GamingTestsEnjoy так они и так доступны)))
@@GamingTestsEnjoy бл где ты запускал dlss 3 на 20 и 30?? Нет такого, чё ты выдумываешь сидишь?
Генерация ВСЕГДА генерирует в 2 раза больше фпс, ровно в 2. Просто мощности, которые необходимы на генерацию съедают часть нативного ФПС, из-за чего итоговый фпс может быть меньше.
продажа ДЛСС 4 за 2к баксов карт уже не существует
Нифига себе смех нейронка которая кадры дорисовывает 600мб весела, а сейчас будет весить 200мб 5 процентов)))
12:55 при 250 кадрах задержка должна быть вообще около 4 ms
Я так понимаю что RTX40 не будет поддерживать DLSS 4?
Да
@@antonkovalev6259 А 30-линейка будет поддерживать DLSS 4?
Будет, кроме мультигенератора.
6090 будет генерировать 1000 кадров, за 3 000$, лучше подожду ее, я что лох:)))))
Чел, ну это фейспалм, ты бы хотя бы посмотрел презентацию и разобрался как работают анонсированные технологии.
1:45 нет никакого обмана, на слайде не GPU 4090, об этом нигде не говорится, это максимальные характеристики данного поколения, видеокарты 4090 не верх всего поколения, есть еще профессиональные ускорители, а возможно и задел на 4090ti.
2:49 опять ты ничего не понял, Reflex 2 не рисует кадры нейронкой, там дорисовывается только мизерная часть на самых краях экрана, это лишь косметический модуль. Сама технология Reflex 2 может полноценно работать, точно так же снижать задержку и без дорисовывания этих краев.
Дальше не смотрел и так все понятно, автор в теме вообще не разбирается, просто решил похайпиться и будут обмусоливать теории маркетингового заговора.👎👎👎
Lossless scaling давно может 3 кадра генерировать 😂
а 200% не хотел ????? сча 4090 стоит 3k вечнозелёных американских долларов)))))
Про различие рт ядер и других на чипе с презентации и чипе 5090 - все ок, на слайде идеальный чип почти без брака, возможно для новой версии ртх титан или 5090 ти в будущем, как производство наладят, а то, что в 5090 - часть отключена аппаратно из-за нестабильности некоторых блоков (брака)
Та их минимум покупать через год, пока сделают нормальные исполнения, пока рынок ляжет
Было бы круто если бы длсс 4 и на 40 серию добавили, но увы они никогда так не расщедрятся
DLSS 4 будет на всех RTX картах. На 5 серии только многокадровая генерация
Ты каким местом смотрел, наидиа всегда программного обновляет что возможно вплоть даже 20 серию карт, если для этого требуется аппаратная модель внутри карты естественно это будет работать только так где она есть
Музыка на фоне моё уважение.
Видос классный, достаточно информативный, спасибо
Будем играть в игры с несуществующими кадрами с несуществующей задержкой
включение генератора в 2 раза задержкусразу увеличивает лул)
У тебя очень очень приятный на слух голос и тебя в целом интересно слушать, не забрасывай канал, развивайся в этом и я больше чем уверен что ты спокойно сможешь вырасти до миллионника, главное работать и стараться
Для меня NVIDIA уже синонимом RAZER стала и цвет у них один.
Cоздание "впечатления" вместо производительности, в промышленнм масштабе идет "создание впечатления". Масштабирование вранья.
4:30 Far Cry 6 RTX 5090 на 10-15% мощней RTX 4090, сейчас 4090 стоит от 300 000 и до 500 000 рублей, так что в первые дни 5090 будет стоить 350 000, а через 2 года от 400 000 и до 600 000 рублей.
5070 будет в промежутке от 4070ти до 4070тиС
Недоролик от школьника можете не смотреть
Ты бы почитал что такое ДЛСС, как он развивался, как работает новый рефлекс. 13:50 таких вопросов не было бы. У меня 3080. Длсс 2 и 3.8 который сейчас в киберпанке небо и земля, картинка с длсс в 2К лучше чем натив
Да бестолку амудаунам что-то объяснять(
@@alexeyfalcoпрогревайся дальше хомячок, неси свои деньги))) недалёкому нет смысла что то объяснять.
@@badmood7752окей, допустим он хомячок, но у него в сухой производительности и так видеокарта будет такая же, либо лучше чем у амд, так ещё и энегроэфекивнее. Вот вы сидите на своём амд, с гребанным fsr, те-же технологии, только хуже, без намёка на ИИ и гоните на зелёных, хотя амд и интел даже в сухой производительности не могут тягаться с nvidia. Называете недалекими, хотя по факту любой человек, который более менее понимает знает, что ну достигли уже практически предела возможностей кремния, с каждым годом все труднее дать прирост, поэтому сейчас упор на технологии, которые отлично работают, если не нравятся - выключи
Лудше чем натів не может бить
не слышал что бывает лучше натива чтото это прогрес чел может ты натив играл без трасировки а Длсс с трасировкой ясно что трасировка включеная+натив лучше будет выглядить чем натив без трасировки ты чот напутал
Вопрос - вас кто-то заставляет эти карты покупать?Не нравится не покупай или сделай сам лучше,не умеешь не...й возмущаться играйте на тетрисах!
По такой логике, Ryzen 7 1700, благодаря божественной генерации кадров NVIDIA, становится в 4 раза лучше, а значит его можно сравнивать с Ryzen 7 9800X3D
Кто не знал, на генерацию кадров процессор никак не влияет, то есть если процессор может выдать 40 кадров, генерация кадров все равно может рисовать больше кадров
вот и раскроется потанцевал фуфыкса
А что не понятного, мыльной картинки на DLSS 2. Этот пример относительно честный. DLSS 3 принес не только генерацию кадров, но и улучшение четкости и больше деталей. Радует, что ещё более детализированный и менее "артефачный" DLSS 4 доступен и на картах предыдущих поколений. А 3* 4* FG пусть себе оставят. Не использую даже 2х. Остальные тем более не нужны.
Я вот не совсем понял такой момент. Зеленые показали таблицу доступности новых приблуд из DLSS 4.0 для всех поколений. И вот для 4000 серии стоит галочка на FGx2 с комментарием: улучшена производительность и снижено потребление памяти. Новый апскейлер уже доступен всем поколениям, правда почему то beta. Еще RT реконстракшен везде доступен будет. Один вопрос, когда?
Выпало в рекомендации, досмотрел до середины и поставил галочку, что бы больше никогда этот канал не рекомендовали. Против автора ничего не имею против, но от услышанного уши заворачиваются в трубочку ))) Просто для примера, вы играете в ПУБГ, у вас топ ПК и монитор 240гц, у вашего противника старый хлам и монитор 30гц. Интернет соединение одинаковое, допустим один провайдер, оба живут в одном подъезде. Вопрос, кто увидит противника раньше? Ответ - оба игрока будут видеть друг друга ОДНОВРЕМЕННО и неважно, что у вас там 5090 или 9090. Современные технологии это здорово, но что бы рассуждать надо понимать как устроен сетевой код, как формируются фреймы, что именно просчитывает процессор, а что - видео карта и почему. И много всего другого. Удачи!
Как можно расказывать о том что ещё в руках не держали!? Каждый выход видеокарт одна и таже песня у блогеров как нас обманывают какие карты плохие и тд, как только в продаже появляется новая линейка карт вы начинаете их облизывать какие они класные....
ну с 4060 они обосрались , так же обосрались с неймингом дискреток в ноутах , когда у тебя 4070 по сути 4060ti
@КириллМолчанов-з6з это не они обосралась, а надо характеристики смотреть внимательнее. Я не защищаю Хуанга, просто задолбало о том что я написал выше!
@@ДмитрийФомин-я5й как раз таки обосрались, раньше дискретки соотвествовали неймингу, сейчас же под видом 4070 продают гораздо хуже видеокарту, но ценник как за полноценную 4070
@КириллМолчанов-з6з ну так то и цены с тех времён выросли и под видом литровый бутылки молока продают 900 мл!;)
@ДмитрийФомин-я5й при чем тут цены выросли, ты вообще понять не можешь о чем речь? Тебе бл под видом 4070 продают 4060 ti , вот ток цена не за 4060 а за 4070 ты платишь, это тоже самое что ты видяху декстопную возьмёшь 4070 а в коробке будет 4060
Лучший разбор! Спасибо.
Отлично, очень рад что инженеры нвидиа дали тебе все инсайды. Чем твой контент отличается от говорящих голов с ТВ или экстрасенсов? Просто мусор. Стоит дождаться конца января и посмотреть на голую производительность и затем на сравнение с использованием алгоритмов генерации и dlss. Когда много лет назад вышел первый длсс и фср все так же с пеной у рта доказывали что все это ФЕЙК и лаги! Но по факту сейчас всем уже ясно что длсс и рефлекс работает и то что он дает на голову выше чем все ожидали.