А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
09:24 не путайте формат архива и сжимающий алгоритм. zip использует алгоритм deflate по умолчанию. Его же может использовать 7zip. rar использует перверсию LZ77, коей является и LZ4. Еще раз: deflate, snappy и LZ4 - это алгоритмы сжатия (они используются не только в файлах, но, например, при передаче данных в интернете, сжатии оперативки и тд), а rar, 7z, zip - это форматы файлов, которые используют эти (или другие) алгоритмы.
Чуть уточню, вернее сказать, что rar, 7z, zip - это формат контейнера для хранения компрессии. А в нем может использоваться разные алгоритмы, в т.ч. более одного внутри одного контейнера (хотя это конечно редкая специфика).
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах. Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
@@TheGloriousRussian Ну почему же! Зайдите в статистику Стим и вы очень удивитесь тому железу, которое использует среднестатистический геймер. 90% всех игроков это как раз средние сборки до 50к. Получается по вашей логике 90% всех игроков и в том числе подписчиков этого канала - Бомжи?!
@@Lucky-ge6ulпо меркам тру геймеров - да. Вот по моим например. В смысле, не те бомжи, которые на улицах пьяные и грязные, это именно в разрезе денег, которые человек выделяет на игры. Такой геймерский бич со слабым ультрабуком для игр, может владеть условным БМВ пятой серии в максималке. Но играет как бич 😂
@@Lucky-ge6ul мне как-то говорили, что игровых ноутбуков не существует, потому что они не тянут хотя бы 2к на ультрах. И вряд ли комп за 50к можно будет назвать игровой сборкой
@@FormJuneсборка для игр = игровая сборка. Тот же ноут с дискреткой нужен либо для специфических задач, что малая часть, либо для игр. Так почему он не игровой?
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-. единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@Rimmon42 смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу. а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
@@prunky12те же 80, просто в литографии им не повезло. Это же как с ЦПУ, есть i3/5/7/9 или r3/5/7/9, абсолютно одинаковые по архитектуре, просто часть ЦП отключена на аппаратном уровне, так как во время тестов, после самого процесса сборки чипа в единое целое, выясняется, что какой-то чип плохо работают, где-то достаточно хорошо и тд. Вот из этого по сути и рождаются 3-5-7-9, также и с ГПУ, на одной пластине сотня чипов, кто-то лучше, кто-то хуже - разделили от 4050 до 4090 их и все.
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
Возможно словосочетание "полупрофессиональные карты" действительно имеют смысл для определения чего то среднего между геймерами и инженерами которые на картах проводят сложные исчисления. Например как я кто вроде и не любитель, потому что делаю графику для кино, но и не сказать что профи, который реально чём-то значимым занимается. Насчёт топовых процов 9950x3d как минимум мне точно непомешает больше кеша во всех ядрах, потому что х3д кеш по идее должен сильно помогать в симуляциях но на деле просчёт на 7950х3д упирается в остальные ядра (симуляции ткани и воды всё ещё корректно обрабатываются лишь на процессорах, так что топовые райзены для этих задач очень полезны, в отличии от тредрипперов, которые из-за медленной шины и меньшей частоты оч сильно тормозят все процессы)
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально. в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений). если прям совсем кратко: честно работать - много работать (лучшее качество). "не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее) надеюсь,сумел объяснить.
>> Как это работает? Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр. Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
Каждый "реальный" новый кадр рисуется с нуля, заново полностью обсчитывая всё освещение и геометрию. Улучшить или достроить по подобию всегда проще, чем делать всё с нуля.
А я жду рефабов АМД - дешево и сердито! Для игр норм. Тысяч на 5 дешевле оригинала и ещё на 2-3 "аналога" эНННвидиа. Взял 6700 на 10гб за 19к и жду подобного предложения.
Не, ну оно всё круто конечно, только один вопрос. Где игры-то? Опять выпустят очередной патч для киберпанка? Где GTA6, ведьмак 4, Крайзис 4, пару гонок прикольных. Ну или самое невероятное, сделать возможность прикрутить тесселяцию, заапскейлить текстуры и прочие улучшалки для старых игр. Искуственный интеллект и нейросети или где? А пока, заказал очередной комплект термопрокладок да переобслужу старушку Strix 3090 Ti, видимо, нам с ней ещё года два жить.
Видел Honor magicpad 2 на стенде в магазине, мне очень понравился дизайн и дисплей, а да еще звук объемный да и по такой цене вне конкуренции на мой взгляд
Да не опоздание с видюхами главная причина провала (хотя оно конечно крайне значимо, но все же), а дибилизм руковоителей, которые живут в каком-то своем мирке и не способны осознать, что именно их действия являются причиной основной части провалов, а не нерадивые исполнители, внешние обстоятельства и так далее. Ну вот ведь не спад майнинг-бума заставил синих пытаться продавать свои сырые поделки по цене радеонов и джифорсов, верно ведь? А это абсолютный нонсенс -- пытаться ворваться на сформированный рынок без конкурентного преимущества и не демпингуя. Что-то одно в любом случае должно быть. Приводить цены к средним по рынку можно когда ты уже занял долю этого самого рынка и твой бизнес обрел стабильность. Когда синие ставят ценник на свою видюху как на сопоставимую нвидию, то я ее не покупаю ее не только потому, что жалко денег (за очевидно проигрывающий в моменте продукт из-за сырости и отсутствия адаптации сторонних решений), но в первую очередь из-за того, что предполагаю что на таких условиях ее не купит примерно ни кто другой, а это значит что сторонние решения адаптироватсья под используемые тремя калеками видюхи не станут, а сам интел не будет вкладывать усилия в продукт, который не только не приносит денег в моменте, но и не имеет пользовательской базы, а значит и дрова так и останутся сырыми... Замкнутый круг, который виден любому, кто задумается над вопросом дольше чем на 30 секунд. Но не руководителям интела(( Если бы хватило мозгов инвестировать в занятие рынка, продавая свои решения процентов эдак на 30% дешевле чем просят конкуретны за аналогичную производительность, то сейчас занимали бы значительную долю рынка не смотря ни на какой спад майнинга. Но нет, лучше списать инвестицыи на разработку в убытки, чем поработать в минус и потом долгие годы снимать сливки... Вместо этого лучше сольем проект и на очередном пике прибыльности гпу опять бросимся догонять снова ушедший поезд. Гении.
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю. Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
Начиная с 4000 серии чем больше слышу про видеокарты Nvidia, тем больше хочу пересесть на AMD. Сейчас на 2070 Super и проблем в общем-то не испытываю, потому как играть некогда ;( да и в новые игры не то что играть скучно, там даже на геймплей смотришь и зеваешь - "это уже было". Так что DOS-квесты, тем более что DOSBox Staging последнее время прямо расцвёл.
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку. Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
в худшем случае на несколько тысяч больше будешь платить за электричество, но учитывая цену 4090 и потенциальную цену 5090, это копейки для человека который сможет ее себе позволить.
@@sektor_glaza187 Так больше чем за отопление, за электричество платил 3500 а стало 11 500, а за отопление 8 000. и по моему это проблемные карточки, если сидеть за ней целый день гонять в игрушки, по мне так я расматриваю 4060ti на 16гб, она не прожорливая и тянет всё, ну пускай гдето не в 4К если что касается игр и работать нормально она позволяет, а 4080 можно уделить на финальные работы так гдето с часик, два, так ещё нормально это я уже говорю про 3D графику
@@MrMedk Ну есть люди которые копят деньги и не обязательно что такие карточки покупают только состоятельные люди, а когда покупают сталкиваются вот с такой проблемой, я лично столкнулся, выше я написал как лично я нашёл выход из такого положения, как её можно более рационально использовать, может мой опыт кому ни будь пригодится
@@sergey5138 Ну это уже проблема людей которым на жизнь не хватает, а они покупают карточку за несколько сотен тысяч.. С тем же успехом можно говорить, что айфон говно потому что память кончается если снимать видео в 4к все подряд покупая айфон за 250к и при этом живя в доме без центральной канализации..
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
Илья, на демонстрации уже устаревшая версия... Вышла новая бета версия Nvidia App, уже с более расширенным функционалом, очень даже интересная 😉😜 так что советую обновить, понравится
Таких карт и у АМД и у Нвидии было предостаточно, не вижу ничего удивительного в том что к этому вернутся обратно, наращивать производительность каждый раз в два раза не успевали никогда почти. Если экстраполировать что было раньше и 5090 будет реально на двух чипах, 6080/6090 будет отночиповой и такой же по характеристикам на бумаге, но быстрее за счет меньших задержек и новой архитектуры. Как то так.
@@doberlife639 никогда ещё топовые карты так сильно не отличались от предтоповых по спекам. Очевидно нвидиа наваривает бабла на богатеньких дурачках, которые любой мусор хавают и готовы каждый год менять комп
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее, это так себе совет.
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
да, история с 3д кэшем получилась очень удачно как минимум для игр. посмотрим насколько они надежны со временем. разу уж интеловские алдерлейки отваливаться стали
На самом деле это ожидаемо. В стандарте 12VHPWR как раз таки заложены эти самые 600W. То есть то, что раньше было по ATX стандарту на обычном PCI-e проводе (4-6-8 pin) и вставлялось в GPU, например 1080 Ti требует 2x8 pin коннектора, теперь заменено на 12VHPWR, вместо 4-х проводов от БП, для подключения 4090, мне достаточно использовать всего 1. А тут сразу же рождается вопрос, почему бы не заполнить этот 1 провод на 100%, если там доступно 600W, значит я могу их использовать. Дальше мы будем развиваться а том же направлении, 6090/7090 и тд могут требовать уже 12VHPWR*2 где будет потребление все 700W-1200W.
Ну если карта будет жрать киловатт с лишним, там уже вопрос к стоимости электричества, в мире не как в рф, где электричество чуть ли не беслатное, в других странах киловатт на одну карту может быть критичен@@chopped_dolphin
Отличный момент, что бы амуде заняли именно потребительский рынок со средне бюджетниками, а то Хуанг уже совсем ахуангел. Смотрю последние пару лет на всю эту кутерьму с длсс и все больше прихожу к выводу, что 7800XT нынче самый оптимальный (и даже больше) вариант для 90% пользователей за более менее адекватную цену
Так в новом приложении от nVidia streaming по средством Nvidia Shield или неофициального moonlight убрали, зачем оно теперь нужно? Я только для этого использовал. Там стальное шляпа полная. Зачем менять настройки в игре на те которые не предусмотрел разработчик, можно себе впечатление о игре испортить. Драйвера вручную вполне можно установить, да я автоматически никогда их и не ставил. Вообще не люблю что-то обновлять если работает. Если что-то не устраивает например в новой игре можно попробовать и обновить.
NVIDIA давным давно использовала софтварные блокировки для разделения продуктов по линейкам. Зачем они лезут со своими ИИ ускорениями в Geforce линейку если для полу-профессионалов есть Quadro. Ограничили бы ИИ функционал и китайцы перестали бы устраивать дефицит и спекулятивные цены на потребительскую линейку. А пока вместо блэквела за миллионы долларов за сервер они скупают целыми сухогрузами 4090 для датацентров
Планшет Honor magicpad 2 топовый, звук, производительность и стилус, очень удобно. Наконец-то Honor начали выпускать флагманы среди планшетов и для дизайнеров
Эта история с лопатами уже была! Наверное стоит опять ждать ответ от АМД, лопаты чуть слабее, и не такие крепкие, но намного дешевле??? Наверное будет новый драйвер, который будет включать возможность копать ИИ, И всё "старое" железо со складов, "шахтеры" сметут за актуальные для красного дракона ценам!?
Играть-то можно чуть менее, чем на любом "гамне", а вот для мало-мальски серьёзного ИИ нужны CUDA и память 12Gb+. Поэтому очень грустно становится от ценника в 2к печатаных.
RTX4090, как у меня, до сих пор стоит ~284тыс. Я представляю, сколько будет стоить RTX4090 и RTX4080... там уже походу за миллион перевалит. Учитывая какая подсистема под нее необходима, вообще все становиться интересным (материнка, ЦП, память, БП).
У меня были 2 4090, которые я купил на старте продаж за 135 тысяч рублей за каждую. В феврале 2024 года я продал их по 200 тысяч за каждую. Куплю 5090. 4090 б/у легко можно купить на Авито за 170 тысяч рублей. Новую можно купить за 190 легко. А выйдет 5080 и она будет стоить 120-130 тысяч рублей, а по мощности +~ равна 4090. Так что ты лохонулся!! А я пока посижу на 3090 и подожду 5090.
Детальный разбор кофейной гущи.
Лучше и не скажешь
Народ ещё верит в 50-ю линейку , это хайпа ради. Новость ради новости.
А что не верить? Точно так же говорили про 40-кую линейку rtx. Типа всё говно, всё дорого, что 3070 ti, 3080 итак на всё хватает, нет смысла переплачивать. А пошли реальные тесты, энергоэффективность и производительность 40-й линейки зарешали всё, и народ стал массово пересаживаться на 4070 и выше. Так же и с 50-й линейкой будет. Сначала богатеньких отоварят на 5090, потом и средний класс подтянется, начнет менять свои 3070 и 4070 на 5070- 5080. Прогресс будет, не волнуйтесь. Не такой быстрый как было с 1999-го по 2001, когда первые дже форсы на 32Мб перевернули рынок видеокарт, но будет.
@@almac1968 4070 менять на 5070? Это ты сейчас серьезно? Я знаю массу людей которые до сих пор сидят на 1660s и даже на 580 рыксах и ничего менять не собираются. Даже по стиму самая популярная 3060 (если не ошибаюсь). И да, я не знаю ни одного кто бы менял 3ххх линейку на 4ххх
@@Ivanhalif ну а че в неё не верить? 5090 уже по одним только прямым характеристикам на 40% мощнее, чем 4090, + ещё сколько-то производительности (как мне кажется ~10%) навалится за счёт новой архитектуры.
09:24 не путайте формат архива и сжимающий алгоритм. zip использует алгоритм deflate по умолчанию. Его же может использовать 7zip. rar использует перверсию LZ77, коей является и LZ4. Еще раз: deflate, snappy и LZ4 - это алгоритмы сжатия (они используются не только в файлах, но, например, при передаче данных в интернете, сжатии оперативки и тд), а rar, 7z, zip - это форматы файлов, которые используют эти (или другие) алгоритмы.
Как кодек видео и его расширение(формат)
Чуть уточню, вернее сказать, что rar, 7z, zip - это формат контейнера для хранения компрессии. А в нем может использоваться разные алгоритмы, в т.ч. более одного внутри одного контейнера (хотя это конечно редкая специфика).
"Умеет разархивировать экзотические форматы" - это не форматы, а алгоритмы, которые используются в неэкзотических форматах.
Они даже используются при браузеринге для сжатия траффика, а не только когда запускаешь win rar))
Да этим чего только не сжимается и текстуры и архиваторы работают по ним и ещё куеву хучу всего.
9:27 Вы перепутали форматы и алгоритмы. На скриншоте перечислены алгоритмы компрессии, а не форматы. Это разные вещи. Например тот же 7z - это формат, поддерживающий несколько алгоритмов компрессии.
Lz4 поддерживается форком 7zipZS, мб завезут потом и GPU
Это когда непрофессионал берется обсуждать профессиональные темы.
Ну так-то на самом скрине ошибка, там перечисляются форматы.
@@ExcellentMoments На скрине и правда скорее всего ошибка. Потому что там перечисляются не форматы (хотя написано что форматы), а поддерживаемые алгоритмы. Для поддержки формата, GPU не нужен.
Купить 5090 и играть с дллс и генерацией ультимативный гейминг от хуанга😂
Если картинка не отличима или близка к нативу то какая разница?
@@Fantomas24ARM Разница в том, что картинка как раз таки отличается в нативе и в постобработке.
@@ВаськинЯрослав ох уж эти свидетели натива... в 4К на длсс Качестве картинка наоборот лучше в половине случаев, а в остальной половине как минимум не хуже.
Инженеры нвидиа. Наш чип полное г. Хуанг. Делаем dlss 4.0. 😎
Тестил? @@Fantomas24ARM
Ждём пятую серию чтобы купить четвертую)
Мне нравится фраза "Сбалансированный вариант для геймеров" - Процессор по цене всей игровой сборки!
Ну если только по цене для игровой сборки бомжа
@@TheGloriousRussian Ну почему же! Зайдите в статистику Стим и вы очень удивитесь тому железу, которое использует среднестатистический геймер. 90% всех игроков это как раз средние сборки до 50к. Получается по вашей логике 90% всех игроков и в том числе подписчиков этого канала - Бомжи?!
@@Lucky-ge6ulпо меркам тру геймеров - да. Вот по моим например. В смысле, не те бомжи, которые на улицах пьяные и грязные, это именно в разрезе денег, которые человек выделяет на игры. Такой геймерский бич со слабым ультрабуком для игр, может владеть условным БМВ пятой серии в максималке. Но играет как бич 😂
@@Lucky-ge6ul мне как-то говорили, что игровых ноутбуков не существует, потому что они не тянут хотя бы 2к на ультрах. И вряд ли комп за 50к можно будет назвать игровой сборкой
@@FormJuneсборка для игр = игровая сборка. Тот же ноут с дискреткой нужен либо для специфических задач, что малая часть, либо для игр. Так почему он не игровой?
Такая короткая рекламная вставка, что не успел перемотать 🤣
была правда вставка про honor, но она вроде даже как интересная была и не сильно выделялась в видео
При упоминании студенческих лет надо было фоточку приложить патлатую :)
А если он раньше всю молодость брился наголо?
Какое же замечательное качество картинки в роликах! Просто перфекто! Спасибо за кайф для глаз) Как минимум)
Толку то большинство уже смотрят в 720p
@@ZhelezniyDrovosek В 480p на второй скорости☝😌
Хотелось бы, чтобы Intel всё же продолжили выпускать дискретные видеокарты. Сейчас с удовольствием пользуюсь Ark A770 на 16Гб - прекрасно работает. Если следующее поколение действительно получит обещанный буст производительности или хотя бы близкое к нему ускорение - это будет просто БЛЕСК и они ещё подвинут зажравшихся зелёных и вечно их догоняющих красных.
ну по моему для владельцев 4070+ карт нет смысла апдейтиться, если не работать с нейронками. 5080 слишком дорого будет, а 5070 судя по всему будет такая же как и 4070 +-.
единственное что может повлиять - эксклюзивность длсс 4.0 на 50xx линейки. но и тут думать надо - стоит ли отдавать 1500-3к$ за не настолько уж и существенный прирост в 30%
Смотря что будет в ноябре, но не думаю, что 5080 даже в днс будет дороже 150к. На мегамаркет под кеш дофига 4070 подрезали в прошлом году, до сих пор барыги не отошли от 60% кеша. Может, с новыми будет так же.
@@Rimmon42 смысла кеша в мегамаркете не понимаю, потому что там наценка эквивалентна кешу.
а так - надеюсь конечно что не будет дороже 150к, но если стоковая идёт за 1500~ по прогнозам, то стоит ещё % 20 минимум накидывать. так и получается, что будет в районе 170
@@ivan2go1 всё там есть и дешевле, на Авито не просто так выбрасывают пачки запакованных видюх с чеками ситика на 3г по достаточно низким ценам. На пеппере в осенние периоды только так разбирают за пару минут.
@@ivan2go1 там не всегда так, я вот взял 7800хт за 16к, если учитывать кэшбэк. Но это надо искать и чекать кучу продавцов.
Вообще не вижу смысла в этом DLSS. Лучше снизить немного настройки в 4К, чем включать это мыло. Первым делом выключаю эту опцию в играх.
Драйвера Нвидии это бич последних пары лет, стараюсь обновлять их не чаще 1 раза в полгода.
Илья, спасибо за наконец-то нормальное видео) интересно, без "воды"
Интересный и информативный ролик вышел. Давно такого от Ильи не было. Спасибо
Deflate -- это ZIP и есть.
А DLSS 4.0 не будет на 40-й оенейки поскольку для этого нужно будет обязательно купить 50-е поколение еврейский ✡️ принцып работает всегда )))
также как и генератор кадров на 30 серии не работает аппаратно, хотя физически это возможно, просто произошел эффект энвидия)
@@hillandobillando1588 это называется маркетинговыми уловками которые обусловленны исключительно желанием заработать... Ну те у кого сейчас например как у меня (4070) не собираются переходить на 50-е поколение будь там даже DLSS 4.0.2-5 и искуственным интелектом коженной куртки))))))
@@hillandobillando1588 потому что давно пора идти на краные карты. цены адекватные, а судя даже по обновлениям которые в ролике - они что то делают. Зелень глобально выпускает что то с новыми картами, когда как красные драйверами дают жизнь всем. Вообще особенно смешно, кто купил 2080ти\супер, им ради генерации и длсс3.0 мало толку переходить на 4060 какую нибудь. А вот fsr 3.0 отлично помогает в тех играх, где dlss 2.0 как коровья лепешка.
@@KommunistDelux я тоже того же мнения. но мне пришлось взять 3080, поскольку RX того же уровня производительности на авито в моем городе не было
Илья молодца, спс за обзор:))++
начиная с 30й серии все хх90 это перемаркированный TITAN, гениальный ход куртки продавать ПРО карты ещё и геймерам с ЧСВ. ПРО сегмент это не только ИИ, но и например работа с 3Д, все кто работает в блендер, зи-брашь, октан, анрил, CUDA и RTX стандарт индустрии, так что приставка ПРО вполне оправдана.
у меня есть титан v топовый до сих пор может 3д графику и т.д быстро обработать...а карте 6 лет причем!!!
не титан всегда на 100 чипах делался а 90 на 102 делают так что 90 это бывшие 80
@@Ostireon а 80 это тогда что?
@@prunky12те же 80, просто в литографии им не повезло. Это же как с ЦПУ, есть i3/5/7/9 или r3/5/7/9, абсолютно одинаковые по архитектуре, просто часть ЦП отключена на аппаратном уровне, так как во время тестов, после самого процесса сборки чипа в единое целое, выясняется, что какой-то чип плохо работают, где-то достаточно хорошо и тд. Вот из этого по сути и рождаются 3-5-7-9, также и с ГПУ, на одной пластине сотня чипов, кто-то лучше, кто-то хуже - разделили от 4050 до 4090 их и все.
Zbrush не использует видеокарту...
у меня джедай 2 заработал только на старых дровах, на всех новых и рекомендуемых постоянные вылеты rtx 3080
Спасибо за отлиный выпуск новостей!
На фоне слухов о жоре, цене и характеристиках 5080 (а там после НГ и рубль вероятнее всего как обычно падать будет) в какой-то момент прямо всерьёз задумался о приобретении 4080 Супер, которая от 5080 по ТТХ практически не отстаёт, но там меньше жор и существенно ниже цена. Да и до длинных январских каникул было бы приятно заиметь получше видяху. Потом вспомнил, что из требовательного новья хайповать не на что, а в бэклоге куча всего на что и моей видяхи за глаза, и расслабился. Выйдет 5080 столь плохой как выглядит по сливам, тогда подожду 5080 супер, она должна быть приятнее по аналогии 4080 супер - 4080. Мне до ГТА 6 новая видяха всё равно особо не горит.
какая разница, если весь смак в новом длсс будет, если оно не будет поддерживаться в 40xx. А если будет, то и нафиг новую покупать)
Когда ГТА выйдет на ПК уже может быть 6000 и 7000 серии инвидиа, тогда уже 7600 порвёт эту 4080.
а сейчас какая видеокарта?
@@Rimmon42 В конце 25-го года только на консолях она будет?
@@-MohammedElSyed- я тебе даже больше скажу, есть шанс, что её перенесут на 26 год и далеко не малый шанс, что она будет только на плейстейшине.
Возможно словосочетание "полупрофессиональные карты" действительно имеют смысл для определения чего то среднего между геймерами и инженерами которые на картах проводят сложные исчисления. Например как я кто вроде и не любитель, потому что делаю графику для кино, но и не сказать что профи, который реально чём-то значимым занимается. Насчёт топовых процов 9950x3d как минимум мне точно непомешает больше кеша во всех ядрах, потому что х3д кеш по идее должен сильно помогать в симуляциях но на деле просчёт на 7950х3д упирается в остальные ядра (симуляции ткани и воды всё ещё корректно обрабатываются лишь на процессорах, так что топовые райзены для этих задач очень полезны, в отличии от тредрипперов, которые из-за медленной шины и меньшей частоты оч сильно тормозят все процессы)
18:36 будет как подогрев сидений в бмв - по подписке включаться 😂
Как всегда полезное видео, спасибо за качественный контент.
Жаль за карты от синих, еслибы все получилось, то мейби и зеленые с красными подешевели бы.
там где в названии присутствует "профессиональный", ценник минимум х2 сходу..
Если 5080 будет ~4090, то и стоить будет также. Куртка же сказал что теперь продаёт не тиры карт, а "единицы призводительности"
Нельзя будет такую 5080 в Китай продать, по этому будет чуть слабее 4090.
Ждём 7060 за 2к баксов.
@@AlexCoachman
Не куртка а Кожаный
Почему нарисовать дополнительные кадры между реальными менее затратно, быстрее и проще, чем еще один реальный кадр? Как это работает?
предположу, что все упирается в процесс рендера. когда честным путем, там идет сложная цепочка рендера. хз как в других приложениях, но в играх (и игровом рендере, соответственно), в очень упрощенной схеме это выглядит так: на игровой сцене располагаются объекты, CPU готовит инструкции по отрисовке (какой объект на сцене, какой у него меш, какие материалы. группирует объекты по общим признакам, чтобы GPU отрисовал это разом,и т.д., и т.п.) для GPU, пакует их и отправляет. GPU уже занимается растеризацией этих данных, которые переводятся из услового 3D пространства в 2D пространство, чтобы предоставить финальное изображение на устройстве вывода информации (в нашем случае, монитор). я очень сократил всю цепочку. но это можно поискать и более детально.
в случае с "нечестными" методами, проще взять готовую картинку, и с простыми (по сравнению с честным методом) математическими операциями выдать новое изображение. это может быть как дорисовка промежуточных кадров, так и способ растягивания изображения (когда изображение рендерится в низком разрешении, а потом, при растягивании, ваша GPU достраивает недостающие пикселы на основе соседних значений).
если прям совсем кратко:
честно работать - много работать (лучшее качество).
"не честно работать" - это работа с уже готовым изображением + математика (качество хуже, но дешевле и быстрее)
надеюсь,сумел объяснить.
>> Как это работает?
Берем картинку А, картинку Б, вычисляем между ними разницу и получаем некоторый усредненный дополнительный кадр.
Не надо загружать и обсчитывать текстуры, освещение и т.д. Вычислением разницы между кадрами уже занимаются видеокодеки и это реализовано в железе "отдельно" от основных вычислительных мощностей.
Если кратко: не жрет дополнительные ресурсы компа = кадры даром. За настоящие кадры придется платить и достаточно дорого, включая проц и оперу.
Каждый "реальный" новый кадр рисуется с нуля, заново полностью обсчитывая всё освещение и геометрию. Улучшить или достроить по подобию всегда проще, чем делать всё с нуля.
А я жду рефабов АМД - дешево и сердито! Для игр норм. Тысяч на 5 дешевле оригинала и ещё на 2-3 "аналога" эНННвидиа. Взял 6700 на 10гб за 19к и жду подобного предложения.
Жёлтый и красный - это уже эмендемс какой-то 😃
Но хочу уточнить!Я бы купил бы RTX 4090 после выхода 5000 серий но они производство остановили🥺А значит будут только RTX4090 бу или с завышеным ценам!
Зеленый еще является антиподом красного) Что вписывается в извечное противостояние Нвидиа против АМД(АТИ).
Не, ну оно всё круто конечно, только один вопрос. Где игры-то? Опять выпустят очередной патч для киберпанка? Где GTA6, ведьмак 4, Крайзис 4, пару гонок прикольных. Ну или самое невероятное, сделать возможность прикрутить тесселяцию, заапскейлить текстуры и прочие улучшалки для старых игр. Искуственный интеллект и нейросети или где? А пока, заказал очередной комплект термопрокладок да переобслужу старушку Strix 3090 Ti, видимо, нам с ней ещё года два жить.
Лучше 4070 Ti SUPER
Герои 3 всегда будут с нами, не важно 3090 или 10990 ;)
Привет я купил бу gtx 1080 8gb, рад до невозможия)
Помимо того, что Хуан - жёлтый.
Само название Nvidia образовано от латинского invidia - зависть, один из семи смертных грехов. Символично. :)
Пора уже переименовать в жадность.
А как по латински похоть? Мне кажется для нвидии это более подходящее имя. Нвидию все хотят.
Мимо 4070тисуп.
@@Za_Tovarischa_Putina
Luxuria
19:29 это хорошо. вот когда я пошел работать летом после первого курса, то это были деньги на то, чтобы оплатить многолетние долги за квартплату
Видел Honor magicpad 2 на стенде в магазине, мне очень понравился дизайн и дисплей, а да еще звук объемный да и по такой цене вне конкуренции на мой взгляд
Выпуск Ильи без политики! Вот это праздник!)
ахахах
И много у него политики?Или здесь замечаем,а там не замечаем?
@@antiliberas Успокойся. Это полушутка
Да не опоздание с видюхами главная причина провала (хотя оно конечно крайне значимо, но все же), а дибилизм руковоителей, которые живут в каком-то своем мирке и не способны осознать, что именно их действия являются причиной основной части провалов, а не нерадивые исполнители, внешние обстоятельства и так далее. Ну вот ведь не спад майнинг-бума заставил синих пытаться продавать свои сырые поделки по цене радеонов и джифорсов, верно ведь? А это абсолютный нонсенс -- пытаться ворваться на сформированный рынок без конкурентного преимущества и не демпингуя. Что-то одно в любом случае должно быть. Приводить цены к средним по рынку можно когда ты уже занял долю этого самого рынка и твой бизнес обрел стабильность. Когда синие ставят ценник на свою видюху как на сопоставимую нвидию, то я ее не покупаю ее не только потому, что жалко денег (за очевидно проигрывающий в моменте продукт из-за сырости и отсутствия адаптации сторонних решений), но в первую очередь из-за того, что предполагаю что на таких условиях ее не купит примерно ни кто другой, а это значит что сторонние решения адаптироватсья под используемые тремя калеками видюхи не станут, а сам интел не будет вкладывать усилия в продукт, который не только не приносит денег в моменте, но и не имеет пользовательской базы, а значит и дрова так и останутся сырыми... Замкнутый круг, который виден любому, кто задумается над вопросом дольше чем на 30 секунд. Но не руководителям интела(( Если бы хватило мозгов инвестировать в занятие рынка, продавая свои решения процентов эдак на 30% дешевле чем просят конкуретны за аналогичную производительность, то сейчас занимали бы значительную долю рынка не смотря ни на какой спад майнинга. Но нет, лучше списать инвестицыи на разработку в убытки, чем поработать в минус и потом долгие годы снимать сливки... Вместо этого лучше сольем проект и на очередном пике прибыльности гпу опять бросимся догонять снова ушедший поезд. Гении.
А ещё говорят богатые они потому богаты что умные!
Ан нет не всё так просто)
4:23 плюс наша розница 50% 😂
попробуй покупать не в днс :)
@@ivan2go1 спасибо, но гарантия это гарантия
@@Amdur88 гарантия не только в днс есть))
@@ivan2go1 ага на авито тебе дадут гарантию, или на алике 😂тем более что я могу карточки напрямую покупать, с небольшой переплатой от цены в штатах, но я предпочитаю потрогать перед покупкой
@@Amdur88нет никаких гарантий, что ты завтра проснешься
Опять пытаются 5070 выдать за 5080, ничему их прошлый раз не научил😂
ребята, спасибо)
Был логотип что-то между жёлтым и зелёным - это же явно салатовый оттенок 😂
Как же хорошо у меня ребёнок засыпает под ваши видео)))
У меня только сейчас возник вопрос: а циферка после DLSS реальна? Я имею в виду там реально так много/такие мощные изменений что меняется перед точкой, а не после?
простите за грубость, но это полезное и интересное видео, которое без борадача
Когда- то процы считались кипятильниками. Теперь -видео - кофеварки))
Для игр 5090 это абсолютный оверкилл - потому что тупо нет новых игр с хорошей графикой, я уж про геймплей не говорю.
Для нейросеток 5090 это непомерно дорого и мало памяти. Почасовая аренда сервака с несколькоми а100 обойдется в разы дешевле, а толку больше.
Это же Фаундерс Эдишен будет 600w а какая нибудь Rtx 5090 asus power gaming pro $ OC будет 800w потреблять
Не будет, коннекторы у блоков рассчитаны под определенную нагрузку. Тебе же чётко сказали, что 2 по 16 не будет.
У меня 4090 должна 450 жрать, ни разу за 2 года не видел такого жора, даже в самых тяжелых играх. Видел разок близкое к 400, но игра была тяжелая и я выкрутил всё, чтобы напрячь карту. Так что, 5090 в худшем случае будет под 500 жрать. А так 300-400 максимум. На 4090 я вижу стандартно от 150 до 300.
@@aleksfreeman3627 так ты 4к поставя и увидишь как она в теплопакет долбится
@@aleksfreeman3627 ты не забывай, что в видеокартах ртх есть ещё блоки нейронок, которые в играх не задействуются. Реальное максимальное потребление можно только в софте увидеть, но никак не в играх.
@@Rimmon42 Хуанг сказал ?
Начиная с 4000 серии чем больше слышу про видеокарты Nvidia, тем больше хочу пересесть на AMD. Сейчас на 2070 Super и проблем в общем-то не испытываю, потому как играть некогда ;( да и в новые игры не то что играть скучно, там даже на геймплей смотришь и зеваешь - "это уже было". Так что DOS-квесты, тем более что DOSBox Staging последнее время прямо расцвёл.
По сухой производительности похоже сильного прироста в 5080 не будет, судя по количеству блоков. А по технологиям и не знаешь чего ждать.
В утечке число 21760 куда ядер это для полного небракованного чипа, такой пойдет только в топовую квадро. В 5090 в чипе "отключат" 10% ядер и будет в районе 18к ядер.
Ура, снова течки!
Новый интерфейс pci-e интересно насколько даст прирост. По сути 8 линий наверное хватило бы для 5070 уже даже, а может и для 5080 простой. Платы с двумя х8 pci-e 5.0 получается смогут тянуть без потерь 2 карточки, чисто для рабочих задач неплохой бонус, не нужна серверная плата, можно мощные и достаточно дешёвые рабочие станции собирать
Да и работать будешь только на электричество благодаря такой карте как 5090, 4080 тоже хорошо потребляет, посидел за компом две недели каждый день по чу чуть, а счёт за электричество пришёл в три раза больше обычного, Лично моё мнение, такими картами лучше всего пользоваться по необходимости, если нужны в какой то момент хорошие мощности, например в 3D графике в определённых случаях, ну или для тех кто располагает финансами и не задумывается о счетах за коммуналку.
Надеюсь в какой то момент производитель задумается о этой проблеме, лично я считаю что это проблема,
За отопление вот тут сумма огромная.
в худшем случае на несколько тысяч больше будешь платить за электричество, но учитывая цену 4090 и потенциальную цену 5090, это копейки для человека который сможет ее себе позволить.
@@sektor_glaza187 Так больше чем за отопление, за электричество платил 3500 а стало 11 500, а за отопление 8 000. и по моему это проблемные карточки, если сидеть за ней целый день гонять в игрушки, по мне так я расматриваю 4060ti на 16гб, она не прожорливая и тянет всё, ну пускай гдето не в 4К если что касается игр и работать нормально она позволяет, а 4080 можно уделить на финальные работы так гдето с часик, два, так ещё нормально это я уже говорю про 3D графику
@@MrMedk Ну есть люди которые копят деньги и не обязательно что такие карточки покупают только состоятельные люди, а когда покупают сталкиваются вот с такой проблемой, я лично столкнулся, выше я написал как лично я нашёл выход из такого положения, как её можно более рационально использовать, может мой опыт кому ни будь пригодится
@@sergey5138 Ну это уже проблема людей которым на жизнь не хватает, а они покупают карточку за несколько сотен тысяч..
С тем же успехом можно говорить, что айфон говно потому что память кончается если снимать видео в 4к все подряд покупая айфон за 250к и при этом живя в доме без центральной канализации..
ждем новую волну сгоревших коннекторов на 5090
не понял, а когда это успели РТ в рдр2 прикрутить то???
Еще бы эту древнюю панель управления интегрировали бы в это эпп. Было бы хорошо.
Попробовал я генерацию от красных, по цифрам прирост хороший, но по ощущениям стало хуже, еще и мыло😅
новая апка нвидиа ещё нуждается в тестах. например для нормальной работы оверлея в вин11 или апдейтнутых вин10, надо добавить 2 подприложения в исключения по настройкам високой производительности в меню дисплея, и я пару дней тыкался сам пока не нашёл эту рекомендацию на реддите.
Найс обзор без карты делать 👍🏻
Вы уже определитесь: директ или дайрект :-) В каждом выпуске по-разному произносите. Оба варианта правильные, но всё же.
Вот только только обновил драйвера, полгода не обновлял, а тут видос :/
Илья, на демонстрации уже устаревшая версия... Вышла новая бета версия Nvidia App, уже с более расширенным функционалом, очень даже интересная 😉😜 так что советую обновить, понравится
2:00 к в сравнении 4080 вообще в 2 раза по всем параметрам 😂
Таких карт и у АМД и у Нвидии было предостаточно, не вижу ничего удивительного в том что к этому вернутся обратно, наращивать производительность каждый раз в два раза не успевали никогда почти. Если экстраполировать что было раньше и 5090 будет реально на двух чипах, 6080/6090 будет отночиповой и такой же по характеристикам на бумаге, но быстрее за счет меньших задержек и новой архитектуры. Как то так.
@@doberlife639 никогда ещё топовые карты так сильно не отличались от предтоповых по спекам. Очевидно нвидиа наваривает бабла на богатеньких дурачках, которые любой мусор хавают и готовы каждый год менять комп
07:00
Щадя оф зи том рейда и тут. Просто пол блока про какую-то лингвистику
Ура новый ролик
была у меня 4090 отапливала зимою при закрытом окне в свои 450W всю комнату а тут до 600W поднимут, пипец печка.
Судя по комментам на Guru на самых свежих дровах GeForce 565.90 не устанавливается кастомная цифровая интенсивность - она всё время сама сбрасывается на 50%. Так что для тех кому эта настройка важна, совет обновляться на самое свежее, это так себе совет.
@pro Hi-Tech Илья вы не правы. Профессионал и любитель могут быть одного уровня. Разница в том что профессионал на этом зарабатывает, а любителю пофиг на деньги. Вот так.
да, история с 3д кэшем получилась очень удачно как минимум для игр. посмотрим насколько они надежны со временем. разу уж интеловские алдерлейки отваливаться стали
*600 W ! Следующему поколению 6090 нужно атомную электростанцию что ли брать*
На самом деле это ожидаемо. В стандарте 12VHPWR как раз таки заложены эти самые 600W. То есть то, что раньше было по ATX стандарту на обычном PCI-e проводе (4-6-8 pin) и вставлялось в GPU, например 1080 Ti требует 2x8 pin коннектора, теперь заменено на 12VHPWR, вместо 4-х проводов от БП, для подключения 4090, мне достаточно использовать всего 1. А тут сразу же рождается вопрос, почему бы не заполнить этот 1 провод на 100%, если там доступно 600W, значит я могу их использовать. Дальше мы будем развиваться а том же направлении, 6090/7090 и тд могут требовать уже 12VHPWR*2 где будет потребление все 700W-1200W.
Ну если карта будет жрать киловатт с лишним, там уже вопрос к стоимости электричества, в мире не как в рф, где электричество чуть ли не беслатное, в других странах киловатт на одну карту может быть критичен@@chopped_dolphin
в комнате обогревательная батарея 475Вт, получается зимой надо будет кондиционер включать чтобы жарко не было, а летом запасаться азотом для игры
@@reinsolar5977 в США электричество в два раза дороже как и бензин, но зп в 7 раз выше)
@@xyzw777 ну по такой логике обычный дешевый фен на полтора киловата должен нагревать всю квартиру
2:49 Что там вместо процессора? Почему охлаждение воздушкой?
Отличный момент, что бы амуде заняли именно потребительский рынок со средне бюджетниками, а то Хуанг уже совсем ахуангел.
Смотрю последние пару лет на всю эту кутерьму с длсс и все больше прихожу к выводу, что 7800XT нынче самый оптимальный (и даже больше) вариант для 90% пользователей за более менее адекватную цену
Так в новом приложении от nVidia streaming по средством Nvidia Shield или неофициального moonlight убрали, зачем оно теперь нужно? Я только для этого использовал. Там стальное шляпа полная. Зачем менять настройки в игре на те которые не предусмотрел разработчик, можно себе впечатление о игре испортить. Драйвера вручную вполне можно установить, да я автоматически никогда их и не ставил. Вообще не люблю что-то обновлять если работает. Если что-то не устраивает например в новой игре можно попробовать и обновить.
NVIDIA давным давно использовала софтварные блокировки для разделения продуктов по линейкам.
Зачем они лезут со своими ИИ ускорениями в Geforce линейку если для полу-профессионалов есть Quadro. Ограничили бы ИИ функционал и китайцы перестали бы устраивать дефицит и спекулятивные цены на потребительскую линейку. А пока вместо блэквела за миллионы долларов за сервер они скупают целыми сухогрузами 4090 для датацентров
интел со своими видеокартами как в народной мудрости: закупились на хаях прокатились на ...
Поэтому взял rtx 4070 super, сделал самый минимальный андервольтинг и на пару лет забуду про апгрейды. Буду менять все только на ам6
И опять ни слова про FP64 на новых картах NVIDIA. Какая производительность при вычислениях на двойной точности на куда-ядрах Blackwell?
5090 будет стоить не дороже пирожка в школьной столовой?
9:31 Так Deflate и используется в zip. А RAR и LZMA(7z) слишком сложны, требуют дохрена памяти, так что аппаратной поддержки ожидаемо не будет.
Планшет Honor magicpad 2 топовый, звук, производительность и стилус, очень удобно. Наконец-то Honor начали выпускать флагманы среди планшетов и для дизайнеров
Эта история с лопатами уже была! Наверное стоит опять ждать ответ от АМД, лопаты чуть слабее, и не такие крепкие, но намного дешевле??? Наверное будет новый драйвер, который будет включать возможность копать ИИ, И всё "старое" железо со складов, "шахтеры" сметут за актуальные для красного дракона ценам!?
Играть-то можно чуть менее, чем на любом "гамне", а вот для мало-мальски серьёзного ИИ нужны CUDA и память 12Gb+. Поэтому очень грустно становится от ценника в 2к печатаных.
Нало брать 5090 не меньше ,чтобы ташило в 4 к 60 +фпс с лучами
А8к на чем тащить? Изачем они сли отключили и квад?!
Когда обзор лунар лейка от бороды?
Если AMD выпустит 2х чиплетный проц с 3д кешами на обоих, то можно будет запускать сразу 2 игры 😁
И покупать сразу две копии 😂
Вспомнил мем про Чака Норриса, что может одновременно смотреть 1000 кабельных каналов по ТВ 😁
следующую пекарню точно буду собирать без нвидии и интела
7:26, нет, просто изначально оттенок мерзкий был
осталось понять что нового в app по сранвнеию с экспириенс 🤔
А разьёмы питания будут булькать горячей пластмассой? ))))
Из керамики небось сделают.
подскажите староверу майнинга, а что она даст в майнинге то, на eth и rvn итд ? :))
RTX4090, как у меня, до сих пор стоит ~284тыс. Я представляю, сколько будет стоить RTX4090 и RTX4080... там уже походу за миллион перевалит. Учитывая какая подсистема под нее необходима, вообще все становиться интересным (материнка, ЦП, память, БП).
Имелись в виду 5080 и 5090?
У меня были 2 4090, которые я купил на старте продаж за 135 тысяч рублей за каждую. В феврале 2024 года я продал их по 200 тысяч за каждую. Куплю 5090. 4090 б/у легко можно купить на Авито за 170 тысяч рублей. Новую можно купить за 190 легко. А выйдет 5080 и она будет стоить 120-130 тысяч рублей, а по мощности +~ равна 4090. Так что ты лохонулся!! А я пока посижу на 3090 и подожду 5090.
RTX 5090 выглядит круто! Похоже имеет смысл 4090 заменить на 5090 после релиза
Каждое новое поколение беру **80 серию,что бы моя "старая" карта еще имела цену,а не превратилась в тыкву 😊
А что там с эти новаторским и крутым сжатием текстур в играх, с минимальными потерями в качестве?
Хочу 5090 ti super, чтобы лучи лились отовсюду! Пох , хоть за пять тыщ зелени. Хуанг, ну когда уже????
Странно как-то, улучшений в 5080, по сравнению с 4080 немного, а потребление выросло прилично🤔
Deflate - это один из алгоритмов Zip.