Так душно, пришлось форточку открыть. 1) Рендер на процессоре был до появления куда ядер в мезазойскую эру. 2) Киловатник нужен если только когда у тебя топ карта и вами любимый i9. Для среднего игрового компа максимум 750ватт. 7500F и 9800х3д В КВАД hd В киберпанке на максималках тянет 4080s с одинаковым фпс так что даже дорогой проц не нужен и кушают они мало. А вот например 12400f или 5700х для них потолок 4070s и 7800xt для full hd. Карты от амд для игр все же доступнее и дают больше производительности за рубль.
Я по началу тоже так думал что можно 750 голдом обойтись, гигабайт на 750 накрылся, поставил 1 квт биквайт голд (самый дорогой по стоимости), накрылся, сейчас 1300 вт платина чифтековская, не греется на конец то, корпус Биквайт 900 про, проц R9 5900х, 4070 супер и 9 жестких, забиты все отсеки даже на 5,25. Не играю, но бывает иногда майню в дуале, на проц и видюху, так же 6 кулеров биквайтовских на корпусе. На втором компе тоже блок 1200 вт голд грелся даже при дополнительном продуве, со своим кулером под 48 градусов, там R7 3700 и видюха всего 1050ti, но 16 жестких, и кто бы не говорил что хард ест 5 вт, это брехня, именно харды и подсаживают блок как делать нечего, накрываются в моменте запуска. Может если бы была возможность выставлять постепенный запуск хардов то не накрывались бы питальники.
@@777Jism Так об этом инфы практически нет, я знаю что некоторые запитывают харды вообще отдельно даже не компьютерным блоком питания, но не хотел так усложнять дело, хотя у меня есть старый корпус от Чифтека который самый большой у них был, там предусмотрено два места под блоки питания, но на сколько знаю, между блоками надо для синхронизации перемычку ставить
12400f максимум может тянуть 4070 . Далее лучше бы брать чтото помощнее, и даже не 12600кф, а скорее 12700кф, 13500 или 13600кф. Касаемо же 5700х тоже смешно, учитывая что даже 5600х спокойно грузит 4070ти, чему я был крайне удивлен. Ну а карты от амд могут только в натив. FSR это жалкое подобие DLSS , коротое шакалит картинку. И это блин в 2К разрешении, да как так то? С генерацией кадров тоже приколы. В итоге получаем карту без технологий но дешевле. Надо ли оно каждый решает для себя сам. Я лично как ушел с амд карт, только рад этому.
Вот производительность на рубль самое конченное, что может быть. 3D итоги с их рейтингами и то объективнее были 😂. Ты женщину тоже выбираешь по эффективности на рубль? 😂😂😂
Не, ну у Intel Arc дрова, конечно, говно. Например, я не могу на 8-гиговой карте выделить буфер больше около 4 гигов (там экспериментальным путём очень странный предельный размер получается) - просто выдаётся ошибка. Как будто в 2018 год вернулся, там AMD так же не умели 😂. Или резко терять пропускную способность при случайном доступе в память, начиная с некоторого размера - у Nvidia такого никогда не было, у AMD разок было, когда 5700 только вышла, но исправили через месяц. Я, конечно, понимаю, что в играх такого не бывает, но в вычислениях иногда надо.
Краткая информативная выдержка из видео, кому лень смотреть почти час неуемной болтовни: Как выбрать видеокарту? Надо брать только Nvidia. Конечно, только Asus. Блок питания надо ATX 3.0 от 700 ватт, а лучше на целый киловатт с сертификатом Гольд. Минимум 4060Ti. А еще лучше 4070Ti Super.
Я кстати почти так и сделал, взял 4070s(только не Асус, а гига гейминг oc) ну и блок 3.0 на 850. Все прекрасно и в бюджет влез. И забыл про апргейд на 3 годика точно(все остальное тоже свежее, около полугода назад менялось)
60% успеха на канале каким бы видео не было - это комментарии 😊😊😊. Там самый сок, ну и особенно вопрос-ответ. Поимал себя на мысли что после просмотра лезу именно туда. Мне даже кажется что Сергей в том числе работает и в этом направлении, так сказать почувствовать реакцию публики.
Наличие комментариев говорит о том, что видео а) смотрят и б) оно находит отклик в душе смотрящего. Ничего специального для этого не делаю. Ну и да, стараюсь отвечать почти всегда. Потому что грамотно подпущенный известно кто веселит контингент.
Ну хз,хз. В прошлом году купил АМД 6950хт, за 63к, никаких проблем, сделал даунвольт, БП на 750 стоит, хотя рекомендован на 900, доволен как слон. Минимум 5 лет просижу на ней
Как выбирать видеокарту. Есть много денег, покупаешь флагман нвидиа, меньше денег, покупаешь флагман amd. Ещё меньше денег, покупаешь максимально возможную из линейки амд или нвидиа. Нет денег, ничего не покупешь.
Ну в целом все по делу Про видеокарты от AMD не согласен, но это субъективное мнение конечно. Последней видеокартой от Nvidia у меня была gtx980, потом перешел на Radeon, и никаких проблем ни с нагревом, ни с драйверами у меня не было и нет Использовал и rx480/rx580, и сейчас rx7700xt, проблем нет и производительность достойная за свои деньги конечно
Сергей очень мало рассказал про видеокарты AMD и сразу перешел к NVIDIA. У меня самого есть две видеокарты: RTX 4070 Super и RX 6600. Я имею представление об их использовании и настройке. И думаю, что карты AMD не такие уж плохие. Сергей правильно говорит, что перед покупкой видеокарты нужно решить, для каких целей она нужна. На мой взгляд (разумеется, Вы можете быть не согласны). Если только для игр (про специализированный софт ничего не могу сказать, так как все зависит от конкретной программы), а денег на «желанную» 40xx Super TI Turbo Limited Edition не хватает, то можно выбрать и AMD. У AMD больше расход энергии, но чистая производительность без DLSS иногда такая же, как у NVIDIA. Иногда у AMD бывают проблемы с драйверами, но с каждый новым выпуском все же подтягивают оптимизацию. Разумеется, бюджетные версии видеокарт AMD иногда имеет не лучший охлад и следовательно более высокие температуры, но вопрос можно всегда решить андервольтом. В итоге, если Вас не интересуют технологии Nvidia и лучи, а также вы готовы немного повозиться с настройкой драйвера и, возможно, андервольтом, то видеокарта AMD - хороший выбор.
Спасибо за комментарий. Я возился с Радеоном месяц. И так, и сяк. Не удалось забороть. Только ценой существенной потери производительности. А это уже не очень интересно
Интересно было послушать, я как владелец 4090 за 120к купленной на старте конечно считаю что сейчас цены конечно кусаются, но любовь к асусаю осуждаю, я выбираю качественный продукт от любого вендора, Асус тоже делает овно как и все остальные вендоры, поэтому надо искать качественные продукты и не смотреть на громкие имена.
Про разрядность шины памяти всё перепутано. Она НЕ влияет на скорость обмена данными между оперативкой и видяхой, а влияет именно на скорость обмена данными между графическим ядром и виделпамятью. Так что на задачи, которые крутятся внутри видяхи очень даже влияет. Но на самом деле важна не разрядность шины, а пропускная способность памяти (можно посмотреть на techpowerup). Влияние пропускной способности памяти сильно зависит от задачи, насколько она интенсивно использует вычисления, насколько память, и хорошо ли попадает в кеш. И вообще с выбором видяхи для игр всё просто: смотрим на желаемую игру и на бенчмарки на ютубе и приходим к компромиссу между стоимостью и FPS. Nvidia 40xx лучше остальных за счёт того, что в DLSS для них есть генератор кадров, а для старых Nvidia и для AMD нету. Но для работы 4060 хуже, чем 3060 по всем параметрам: она менее мощная вычислительно, там более медленная память, и самой памяти 8 Гб против 12 на 3060. PS: если современная видяха AMD у вас орёт, то либо она бракованная , либо вы что-то делаете не так.
@@ChubbyStoatАвтор там перепутал шину PCI и внутреннюю. Битность была названа именно для шины между видеопамятью и видеоядром. С PCI всё просто: младшие карты поддерживают 8 линий, старшие - 16.
@@JohnStranger-fx5cqТолько качество FSR намного хуже на мой личный вкус. Уж лучше снизить настройки графики, чем с ним (всё ещё на мой вкус). Так что я его не считаю за конкурента DLSS.
3:51 Эмм, интел в текущем состоянии обливается потом стоя у края бездны. Я уже не гвоорю об уровне стагнации и обманов покупателей. Просто без комментариев))
@@Л.Е.В А в итоге все дело оказалось в завышенных вольтажах))) И у тех кто 13900к и 14900к настраивал вручную в биосе по вольтажам, нет проблем. Даже в разгоне))) но диванные эксперты кричат что интел говно. А то что амд нв старте ам5 горели и выжигали материнки , это херня, это конечно же другое))
На 7900xtx гигабайт гейминг ос, никаких проблем с нагревом и производительностью. Купил на старте за 100. Температура 75 при 360 Вт. ФПС запредельный в любых играх. Да, для расчётов в cad она бесполезна, пока дрова не кастомнëт кто, или амуде не решит вернуть включение математики в адреналине. Но для дома, я альтернативы у нвидии не вижу.
Попробуйте поставить ZLUDA. Софт будет думать, что работает с Nvidia. Довольно много разных приложений работают практически из коробки (особенно, всякие нейросети).
@@SergeVilianov может больше в чём? В работе? Пожалуй. В играх? Ни при каких обстоятельствах 4070S (в хорошем исполнении) не будет превосходить 7900gre (в хорошем исполнении) в производительности. Даже с учётом технологий, всё что может навязать Инвидиа, это чуть больший фпс (на уровне погрешности) в некоторых игровых проектах, но даже так АМД чаще будет либо равна, либо чуть мощнее конкурента. Ну а про натив и говорить нет смысла, GRE-шка рвёт S-уперку на приличное кол-во кадров в большинстве своём. На всякий случай уточню, я не фанат AMD, но видя ОЧЕНЬ расплывчатое "может больше" конкретно в сравнении этих двух карт, стало даже обидно за АМУде. Надо же уточнять, в чём именно что-то кого-то "может больше". К тому же нужно понимать, что среднестатистический пользователь пекарни собирает оную как раз-таки для игрулек, а не для работы, поэтому и глядеть надо с обеих колоколен.
Вообще, выбор видеокарты это очень сильно индивидуально. И вдобавок сильно ограничен бюджетом, куда карты от НВидиа часто не попадают, если нужен обычный домашний ПК (которых подавляющее большинство). А в ролике некоторые аспекты и нюансы объяснены поверхностно. А уж явное "фанатство" обесценивает даже их.
Приличная графика встроеная в проц🤣 А вы тут карты покупаете дорогие😂 Вы посто не шарите! Выбирайте облочный гэйменг в браузере😂 Спасибо друг посмеялся от души! Это твоя альтернатива но не моя😂
Вы неправы насчет чернового рендера на видеокарте, вы просто некомпетентны в этом вопросе. У видеокарты есть несколько блоков которые обрабатывают данные. Ultimate Vocal Remover допустим использует блоки 3D обработки и обрабатывает все без ошибок в сотни раз быстрее процессора. Topaz использует вычислительный блок (Compute Unit, CU) который в 10-50 раз работает быстрее центрального процессора в задачах обработки видео, так же блоки video decoder работают при декодировании и запаковки видео, при хорошем битрейте разницы с процессором нет. HandBrake использует практически все блоки одновременно поэтому ему удается кодировать видео в несколько потоков с просто бешенной скоростью.
За рендеринг не скажу, но в научных вычислениях бывает так, что алгоритмы под массовую параллельность видеокарт имеют большую погрешность, чем их "обычные" версии под процессор. Но, если важна точность, то лучше обратить внимание на квадры с ECC.
Я общаюсь с теми, кто работает с видео профессионально. Зарабатывает этим на жизнь. Причем неплохо. Среди них фанатов бытовых видеокарт нет. Но вы можете делать, что угодно.
@@SergeVilianov пусть откроют вкладку GPU в диспетчере задач когда выполняют рендер и посмотрят какие блоки загружены, даю зуб, что они в этом такие же профаны, купили нвидиа подороже и сами не знают, что где рендерит.
@@SergeVilianov да же если дворником, это не мешает мне понимать, для чего видеокарта в пк и она явно не для черновой обработки видео, в 2009 году возможно это так и было, так как графический чип не мог исполнять команды API OpenCL, поэтому имел энкодер, который был не самого лучшего качества, а сейчас есть API CUDA, OpenCL, а так же аппаратная поддержка видео Intel Quick Sync, AMD VCN, NVIDIA NVENC - универсальные блоки кодирования видео в различные форматы с настраиваемым качеством, я вас уверяю при битрейте 100 мегабит в секунду 4K вы не увидите разницы с таким же кодированием процессором но в 10-ки раз медленнее.
Сергей, вы откровенно говоря сильно отстали по теме видеокарт, мне стыдно за вас, удалите это видео. Местами даже смешно, а ведь раньше у вас были весьма познавательные видео. Только если для домохозяек, оставить можно.
32:00 - она изменилась из-за того, что например у GTX 1080 Ti с широченной шиной кэш был что-то около 4 мегабайт, а например у RX 6600 XT с «узкой» шиной кэш уже 32 мегабайта, почувствуйте, как говорится разницу.
Толстые крышки на ам5 и малая площадь кристалла видимо незначительные особенности ам5 и на эффективности охлаждения никак не сказываются)))) ага ага))) И конские цены на 7800x3d и 9800х3д тоже видимо мелочи жизни))
про игры вообще не соответствует действительности беру dns как наиболее распространённый. Сейчас на 13.12.24 за 30 тыс +- 2тыс можно взять MSI Geforce RTX 3050 VENTUS 2X за 31500 и можно взять ASRock AMD Radeon RX 6600 Challenger D за 31 500 какая видеокарта более производительная? Ответ очевиден - RX6600 за 45 тыс +-2тыс GIGABYTE GeForce RTX 4060 EAGLE OC - 44500 AMD Radeon RX 7600 XT - 44500 +- паритет. где-то лучше nvidia, где-то amd, но у RX 7600xt 16гигов памяти, что с учётом роста требований к играм (уже сейчас 8гб не везде хватает), будет более перспективно за 65 +-2 тыс ASRock AMD Radeon RX 7700 XT Challenger OC за 62000 PNY GeForce RTX 4060 Ti за 64300 в большинстве проектов RX7700xt обгоряет RTX4060TI с отрывом около 20 кадров. но у 4060ti 16гб памяти, что тоже + Если взять видеокарты прошлого, то я ясно помню, как клоуны агитировали за 1050ti с 4гб памяти за 12к, хотя можно было взять RX570 8гб за те же деньги. И время показало, что 4гига памяим как мёртвому припарка, а 1050ti является тем же, для чего и задумывалась - быть затычкой слота pci e. Видеокарты от красных тем и хороши, что за те же деньги выдают более высокий fps, тем у конкурентов. Единственный плюс видеокарт NVIDIA - это больший FPS при игре с лучами. Но это касается именно видеокарт уровня RTX 4070, 4080, 4090. Для остальных (большинства) - это маркетинг. а вообще надо перед тем как покупать видеокарту прикинуть те задачи которые ты хочешь выполнять, игры в которых хочешь играть. Даже объективно неплохие видеокарты nvidia (выигрывающие в данной ценовой категории) могут выдавать меньший fps в конкретной игре, чем amd и наоборот. Поэтому надо промониторить тесты перед покупкой. греется просто джемонически - это просто такой лютейший бред, что я даже опровергать не будут amd adrenalin вот реально наиболее удобная программа для уравления видеокартой. Всё есть, всё из коробки настраивается. Хочешь андервольт - без проблем, хочешь отслеживание в игре - не вопрос. Это ОГРОМНЫЙ ПЛЮС в отличии от видеокарт nvidia, где приходится скачивать дополнительные программы для разгона андервольта и отслеживания. Вот реально, была бы такой софт от нвидиа - было бы круто!
Про рендер на процессоре - это какая-то загадка. Всё рендерю только на видюхе, плюс нейрофильтры, а их всё больше и больше, требуют видюху.. И 4090 по тестам работает на этих фильтрах быстрее в 2 раза, даже больше. Плюс в новых генерациях появились новые возможности (инструкции), которые так же уже поддерживаются софтом в последних обновлениях. В целом да, хватает и старой видюх, жду в 2 раза дольше или вот пообщался с разработчиками и меня бесплатно подключили к удаленному серверу в каком-то премиум варианте. И фильтр, который работал на видеокарте минуту, теперь отрабатывает запрос за 5-10 секунд.
При работе 2/2 из дома я за компом два дня работаю, а два дня могу поиграть. Мне нужна видяха) з.ы. на 3060TI чувствую себя королём QHD, про FHD вообще не вспоминаю. з.ы.ы. странно вы настройки видяхи делаете, что у вас 40% производительности улетает. Попробуйте понижать не энергопотребление, а напряжение) Ваш кэп!
Здравствуйте Сергей, небольшое уточнение по информации в финале - о подпорках всяческих: фиксация карт весом от 1 кг и тяжелее обязательна, фиксировать за край саму плату очень не желательно, наиболее оптимальный вариант избежать деформации платы - подпор в точках в продольном центре на кожухе (на карте в кадре это перемычки между 1 и 2, 2 и 3 вентиляторами), и кожух в местах крепления сам равномерно распределит упор. Тенденции таковы, что все более-менее производительные вк на воздухе будут требовать доп. фиксации, и учитывая стоимость карт - это неплохая профилактика инфарктов среди населения.
Не совсем понятно, почему 4070 только для 1080р)) Я на ней прекрасно и в 4К играю) Причем не всегда обязательно с DLSS. Может конечно я не очень требователен к частоте кадров, но стабильные 60 FPS меня более чем устраивают на большом 4К телеке) Понятно, что не всегда речь идет про натив. Например Mafia Definitive Edition идет в 4К со всеми максимальными настройками в 60FPS очень стабильно и там нет никакого DLSS. А вот в КиберПанке я уже врубаю DLSS на производительность и вкупе со всеми настройками выкрученными на максимум (ну разве что PathTracing не включаю, а только RayTracing ) - тоже выдает вполне играбельные 55-60 FPS.
@SergeVilianov я просто бывший консольщик)) комп собрал после начала СВО из-за проблем с покупкой игр. И играю не на мониторе, а на телевизоре)) и для меня то что 4070 выдает в 4К 60 FPS после PS4 Pro это прям ВАУ🤩
Спасибо за ролик! Всё чётко и по делу. После словосочетания S3 Trio чуть не прослезился )))) В голове заиграла песня "....молодость, ты как времени замок..." Не, на самом деле, без шуток - спасибо.
Нужно сделать ремарку. Графическое ядро процессоров AMD, которое хоть что то может показать в играх это ядро в процессорах с индексом G. Например AMD Ryzen 5 8600G и Ryzen 7 8700G. Но есть и свои минусы в таких процессорах, это термопаста под крышкой вместо припоя и только PCI 4.0 На обычных же AMD Ryzen 7 и 9 поколения (например, 7700x или 9600x) видеоядро просто для вывода изображения и базовых задач.
99% пользователей под крышку процессора никогда не полезут, и слава Богу. На версию pci-e выше 4.0 смотреть ещё очень рано по многим причинам, смысла сильно переплачивать за материнскую плату с поддержкой 5.0 нет. Видеоядро Radeon 780m и правда весьма хорошая штука. Потребляет в разы меньше чем сравнимые по мощности полноценные видеокарты (RX 470, GTX 1650 и т п.). Ускоряет нейровычисления и рендеринг видео. Доплата за его наличие всего лишь около 8 000 руб. Только чтоб оно работало на полную, нужна быстрая оперативная память, например DDR 5 5600 Мгц. Ибо встроенные в процессор видеоядра всегда используют системную память.
@@SosisD Согласен с вами во многом, но хочу уточнить несколько моментов. Никто не призывает лезть под крышку процессора. Важно учитывать, что термопаста под крышкой вместо припоя повышает температуру, и охлаждение должно быть лучше. Процессоры AMD седьмого, восьмого и девятого поколения сами по себе не холодные (у меня Ryzen 7700X, сначала охлаждал его с помощью be quiet dark rock pro 5, затем перешел на водянку и андервольт по PBO). По поводу памяти: согласен, стоит выбрать более скоростную, оптимально - Hynix A-Dia CL30 с частотой 6000-6200, так как нужен при частоте выше уже нужен делитель 1/2. Покупка материнской платы с PCI 5.0 под видеокарту - это личный выбор, но и переплата в 8-10 тыс. Однако есть нюанс с M.2-накопителями: на материнских платах Mini-ATX и Micro-ATX с двумя слотами M.2 проблем нет, но на полноразмерных ATX-платах с тремя и четырьмя слотами M.2 один из них может не работать с процессором 8-й серии AMD (это верно для плат Gigabyte и MSI), и при этом режется пропускная способность слота под видеокарту.
@@implex89 Техпроцесс вроде как медленно, но уменьшается. Но только энергопотребление у последних поколений ЦП выросло. Теперь надо ждать когда оптимизируют параметры производства чтоб уменьшилось потребление при сохранении производительности. Такое уже было неоднократно. А я сидел на R7 3700x с 2019 года и смотрел на это вот всё, на новые процессоры, которые при бусте в мощности +70% потребляют за 200 Вт. Да и взял себе мини-ПК на мобильном 7840hs. Поставил его от стола подальше, где его вообще не слышно даже под нагрузкой. Уже 8 мес. так живу и радуюсь. Он конечно на 45 Ваттах примерно на 30% медленнее чем ваш 7700x, но мне хватает )) Большой ящик пока оставил под игры, там видяха нормальная стоит. Но желания в обозримом будущем делать его апгрейд нет совсем.
@@SosisD По факту если бы не работа на удаленке, которая требует производительное железо и желание поиграть иногда я бы тоже выбрал мини-пк или ноутбук + хороший монитор.
По компании асус вынужден не согласиться, будучи в прошлом ярым адептом их железяк. Сейчас они совсем офонарели с ценами на свою продукцию, перешел на мать от МСИ и видеокарту от гигабайт. Не жалею ни капли. Аналог той же матери от асус стоил на момент покупки дороже ровно в 2 раза. Видеокарта аналог гигабайт аорус , стоил у асус на 30% дороже. При этом все отлично работает, и никаких проблем от этой экономии я не нажил. Плюс на карту еще и 4ый год гарантии дали. Да и палит честно говоря хреновый был в 30 серии, которую вы и купили. А сейчас в 40-ой с этой же линейкой GameRock все вполне нормально. Да и с их картами остальных линеек палит все стало нормально. Дуал конечно так и остался простеньким бюджетным решением, но по крайней мере теперь он не имеет тех жестких косяков по охлаждению которые были раньше. Короче на асусе свет клином точно не сошелся. Но если по хорошей цене, то всегда пожалуйста.
про видеокарты amd согласен только с тем что утилита адреналин для настройки видеокарты кривовата. уточню что это не драйвера а именно приложение через которое их можно скачать. сам являюсь владельцем rx6700 . в остальном проблем с картами нет,
Немного предвзятое мнение ведущего. Как будто у него задача рекламировать 40 серию. Хотя с момента выхода эту серию хейтели за кастрмрованную шину памяти. И в тестах они проигрывали 30 серии с более широкой шиной.
Тогда уж задача прорекламировать МТС Fog (кстати, Brigman сегодня к этому подключился), да и ASUS'ом лишний раз посветить. Но раз erid'а нигде нет, значит, не реклама;)
@@medvedall Я просто никогда не ставил такой задачи. Зарабатываю на жизнь немного другим. Но вижу, что тут все очень прошаренные. Может быть заберете там, где деньги дают, и принесете мне? Готов поделиться
я себе взял 3060 на 12 Гб, пока цены вверх не взлетели. самое то к моему Ryzen 5500 и 32 Гб оперативки. Особо не играю, а если и играю, то только в старые игрушки и там мощности моего ПК за глаза.
Когда-то на старте 40 серии приобрел за 870000 тенге (живу в Алматы, Казахстан) 4090. Причем, не обязательно приобретать блоки питания 3.0, у меня 1000w be quiet straight power, я лишь приобрел провод от be quiet на данный разьем видеокарты и не пожалел. Та матня, что шла в комплекте даже не распаковывалась. Год назад я продал ее за 1,3 млн и купил себе 4080 за 600000 тенге. Кстати обе тоже от Asus, так как другие не воспринимаю. И вот что...4080 мне больше нравится, меньше потребеление, игры так де тянет в 4к 120 кадров, какие играю в 2к. В общем особой разницы в производительности я не замечаю. С моим тв а95к 120 кадров выдает в синхре, все обсалютно так же. Для игр 4090 через чур дорога и не особо та нужна. Вот так.
Теперь жду 5080, которая обещает до 70% прирост производительности с новым чипом и памятью gddr7 при практически той же цене относительно 4080. А вот 5090 будет стоить около 4000 долларов, что ОЧЕНЬ ДОРОГО, БЛЕАТЬ!!!
Что б брать карту нужен хороший процессор, что б обновить процессор надо менять мать с сокетом, покупая мать надо докупить оперативку подходящую Короче чисто карточку обновить не получится
@@SergeVilianov работают отлично, но не на полную мощность. Мне кажется для 4090 нужно брать 14700к и выше, а от амд 7800X3D и выше. Иначе карточка не раскрывает весь свой потенциал, к тому же цены на процы не такие уж и большие по сравнению с видюхами
Не знаю насчёт рендера на процессоре. Если говорить о рендере 3д изображения, то уже встроены алгоритмы по отсеиванию шума. Тем более, что сейчас появились специальные вычислительные блоки для рендера на основе трассировки лучей в видеокартах нвидиа. Потребительский процессор, даже самый лучший, не сможет тягаться в рендере 3д сцены даже с базовыми видеокартами на уровне 3050. Можно найти в интернете тесты, но зачастую если рендер одного кадра исчисляется в минутах на процессоре, то на видеокарте, при тех же настройках и том же апи, рендер будет проходить за несколько секунд. А когда видеокарта используется для работы, то время = деньги. Да ещё и счёт за электричество. И это если говорить о рендере изображения. Для видео (если без интерполяции) Будет сравнение между месяцем на процессоре против нескольких суток на видеокарте.
Я в первую очередь говорю о 2D-изображении и видео. 3D не моя тема, плохо разбираюсь, не буду изображать. Но там, насколько знаю, непрофессиональные видеокарты все же используются редко, если речь идет именно о профессиональном применении.
@@SergeVilianovТут ты прав. Однако большинство профессиональных видеокарт закупается предприятиями, а не такими как я, людьми на фрилансе. Единственное отличие, по сути - ECC видеопамять и двухслотный кулер, чтобы можно было подключить несколько видеокарт одновременно. Для 2д рендера действительно процессор будет рендерить видео так же часто, как и видеокарта по времени, потому что так процесс стабильнее.
всё очень интересно, и местами даже смешно 👍 спасибо 🤝 только одно возражение-мнение: карты чаще "горят" как-раз у игорьков, а не при майнинге, т.к. большинство майнеров свои средства дОбычи хоть минимально берегут и обслуживают, а вот большинство игорьков не знают и знать не хотят про какие-то там допустимые и оптимальные режимы 😎; хотя, нерадивые/криворукие/тугоумные есть и среди майнеров, но среди игорьков таких относительно больше;
Использую rtx 3080 ti, не хватает. Играю на телевизоре. Приходится использовать 2к. На 4к не комфортно . Жду новые карты. Буду брать 5080 или 5090, надеюсь хватит)
Я конечно не верю, что ролик заказной от Nvidia и Intel, но так предвзято и голословно топить за то, что присмерти (Intel) и оверпрайснуто (Nvidia) странно, от журналиста все таки хочется услышать что брать сейчас лучше по цене/производительности, а не как любой продавец - бери от самой дорогой фирмы и будет тебе счастье) Вообще без негатива и хейта, только критика.
В свое время начинал с жы форсов, а потом появились R7 370-390, на сегодняшний день есть RXы, за дешевле и фпс приемлемый, о чем ты дядя... И на сегодняшний день стал выбор между RX 7600 или 4060, я бы выбрал 4060, но на горизонте появилась B580, кторорая в рот даст твоим НеВидиа за меньшие деньги... Походу к тому и ролик...
Мне не нужна только CGA, EGA и VGA на ISA шине, а так PCI S3 Trio 64+, AGP несколько штук и штук 6 PCI-E начиная от GeForce 7300 до GTX1030 ну и в основном компе стоит RTX3080 купленная года три назад и её еще будет хватать для всего года так два точно. А выбирать просто, смотрите на авито по сохрану внешки и работоспособности, всё! Берите ретро железо оно дорожает и вообще может пригодиться если что
Нече если между 4070ti супер и4080 разница в 8:%а 4080 и 4080 супер ее вапче нет в районе погрешности, но по словам "ведущего" Это карты для разного разрешения))) вам бы матчасть подтянуть уважаемый олдфаг))
Сергей Вильянов@ Прекрасный обзор, впрочем как и все. Из особенностей этой очень важной комплектующей безусловно каждого ПК, я бы еще отметил тот факт, что она одна из самых быстро обесценивающихся железок. И при покупке нужно дважды подумать, что и для каких задач именно тебе она понадобится. Потому как потом поменять, перепродать будет очень накладно по финансам. Даже спустя год-полгода цена на ее будет значительно ниже. Даже попользовавшись ей недельку и решив затем ее продать, ее уже как за новую вам не заплатит. Я два года назад себе взял 3070Ti, и когда покупал, в основном исходил из того, что я очень засиделся на HD7970, и уж точно могу себе позволить такой апгрейд раз в 10 лет)) И спустя длительное время, по мере того как карта обесценивалась, меня в большей или в меньшей степени таки время от времени душит жаба, стоило ли все же так тратиться)) Геймер с меня такой себе, если и играюсь во что-то, то это должен быть какой-то действительно шедевр, вроде ведмака. Да и с возрастом игры уходят на второй-третий, а чем дальше, так и подавно на последнем месте. Так что... это наверно больше относится к тем, кто... Не знаю, слышали ли такое мнение, что чем тяжелей тебе даются деньги, тем скурпулезней ты с ними расстаешься. Я к тому, что те кто выпрашивает деньгу у папы/мамы, им это чуждо, а тем кто зарабатывает своим потом и кровью, тот 10 раз подумает, нужно это ему, и для каких целей. Как-то так)
Ну справедливости ради сейчас рендер на видяхе именно в приоритете. lumion так вообще именно на ней и завязан, нет там выбора на каком компоненте рендерить. ну и тут получается шо чем мощнее, тем быстрее, ну и естественно с бОльшим объёмом видеопамяти нужно выбирать. в 3dsmax на проце из популярных corona (cpu only), а также vray (а там вот и есть выбор, на проце или риалтайм на видяхе). а вот с монтажкой всё сложнее. например в premiere pro вообще 3ххх серия нвидиа лучше себя показывает, нежели 4xxx, ввиду сильно порезанной псп на последних. ну и также стоит отметить, что для популярных кодеков h264/h265 нужно вдовесок выбирать проц intel со встроенным видеоядром, чтобы активировать аппаратное декодирование quick sync
24:38 Сильные видеокарты потребляют 500-600 ватт?? Среди потребительских видеокарт даже королева 4090 потребляет под нагрузкой 450, не более. В играх и того меньше. Это если не лезть паять плату и обманывать её энергопотребление. Все остальные, даже "жористые и горячие" современные радеоны находятся в районе 320-350 ватт.
так ведь всегда с запасом указывают плюс 20-30% чтоб блок работал не напрягаясь и ничего не сгорело, да еще и проц если горячий то там еще +200 ват, кто то 2й моник подключает еще плюс 50 и тд...запас прочности нужен
Вам там уже в комментариях написали. Добавлю, что многие видеокарты продаются сейчас сразу с разгоном, и там энергопотребление выше паспортного. Я сам не очень верил в аппетиты, пока не начал замерять. Так что да, если я и преувеличиваю, то несильно
@@SergeVilianov но хочу подметить, что с таким потреблением, без использования технологий Nvidia типа лучей, которые хоть что-то (визуально заметное) меняют в 1.5 игре, производительность 7900xtx, в среднем, выше чем у 4080. Про RT отдельная тема, сейчас никто без пинка зелёных не стремится внедрять технологии Nvidia в играх, т.к. консоли на каком железе? В текущих ценах, топовые исполнения 7900xtx стоят столько же или дешевле, чем самые дешёвые 4080. АМД жрет больше, факт, с этим не поспоришь, но и электричество не настолько дорого.
АМД дороже при той же производительности ахахахахахахахаха 7800ХТ и 4080Супер передают привет с разницей в 20К. Хоть очки и нацепил, а дураком остался. Сенсей 2 =))
@@games-pc Есть держалка в тафке, но коротенькая, вытащил почти на максимум и еще подложил шайбу металлическую под него, но я кожух убрал с компа, упираю в блок питания
про 4к и 20 гигабайт пвмяти - враньё: уже 2 года сижу на 4к и rtx 3080 - с апскейлом память разгружается и даже 10гигов хватает Dlss в 2к не очень хорош, посему говорить, что это лучше, чем нативное 2к...можно только если нихрена не видеть. Dlss незаметно только в 4к и только в режиме "качество"
@@SergeVilianov да можно сказать про любую пока что: в том же киберпарке в 4к с апскейлом на "качество" и начальными лучами получается выжать 45-50 фпс при том, что процессор у меня старенький - всего лишь Райзен 2600х. Памяти в этом режиме потребляет 9 гигабайт
Вопрос : может ли магнит в основании держателя для видеокарты негативно на харды повлиять, если держатерь установлен прямо над ними? Читал разное, единого мнения как-то нет.
Не парься, у меня даже 1050ti и 1660ti до сих пор в компах есть, и нет мыслей их продать, 3070 тоже есть, осень и весну когда отопление отключают включаю по майнить на неё
2:00 - Да, сейчас AMD Ryzen 8000G в топовых процессорах встройки на уровне GTX 1650. Да, только там не только линии, но и кэш меньше по сравнению с процессорами без G.
Процессоры живут долго, а видеокарты меняются сравнительно быстро - в отличие от мнения автора. Это во-первых. Во вторых, с год назад взял RX 6600 для нормальной игры в Diablo II Resurrected. Карта всем лучше аналогичной в цене RTX 3050, до этого была карта от Nvidia, никаких претензий нет, просто рыкса производительней и холоднее конкурента, кстати. У всех свои задачи.
про проф софт и видеокарты nvidia - бред. Всё зависит от конкретной программы. К примеру в siemens nx видеокарта amd rx6600 по производительности в разы превосходит RTX4080. Но, зато, в компас 3d даже GTX 1050 "обгоняет" RX6600. Есть хороший проф бенчмарк - specviewperf, на основании которого можно судить о приблизительной производительности видеокарты в той или иной проф задаче.
Здравствуйте есть вопрос для меня сейчас очень важный.могу ли в устаревший компьютер порядка 10 лет (мать asus p8z77-v lx2 проц интэл 3570к бп 1000кв) вставить видеокарту 3060 12г?но это на время года на 2 ))пока остальное не докуплю.
Вставить можно, скорее всего, у вас на материнке PCI-E 3.0, а у них обратная совместимость есть, так что работать будет. При чём, если у вас топовый процессор того времени, то и современные игры должен потянуть, если, конечно, оперативы хватит. Но оперативу тоже недорого докупить.
Как обладатель 7900 XTX (до этого были видеокарты только от nVidia), которую брал именно для игр без лучей (DCS, MSFS 2020/2024 & Elite Dangerous), в разрешении 3440x1440, в том числе и для VR (24Gb видеопамяти здесь не лишние), на крайних драйвеах от AMD, с нормально работающнё генерацией кадров в ЛЮБОЙ игре - очень доволен! Особенно если учесть её цену ~1000 EUR, я думаю, выбор очевиден (в пользу AMD). Все эти разговоры о глючных драйверах AMD, высоких температурах и вообще фу-фу-фу... я реально не понимамаю почему люди так говорят??? Переплачивать минимум +30% за RTX 4080, которая в большинстве случаев будет медленее 7900 XTX (в играх без лучей) - какой смысл??? Ну вот реально - какой? Да, в рабочих задачах nVidia будет лучше, не спорю. Но если я НЕ использую эти самые "рабочие радачи". В общем канал с действительно реально-обоснованной информацией превращается в субъективное / личное мнение конкретного человека :) А личный опыт у каждого может быть разный.
Этот канал, а до этого сайт в течение 25 лет был субъективным личным мнением конкретного человека. И будет таким, пока человек не помрет. Другой вопрос, что в моей "субъективности" объективности сильно больше, чем в высоколобых размышлениях Очень Честных Блогеров
Помню в одном из моих первых ПК была установлена Riva TNT2 аж с 32 мб sdram. В те времена, когда ОЗУ в 128 мб было естественным явлением, сложно себе было вообразить видеокарту с 32 ГБ памяти. На данный момент в компе трудится 6870. Аж с целым гигом! Ему уж лет 12-13. Как-то странно наблюдать, когда сорокалетние мужики рассуждают об играх. Мне как раз сорокет и последнее во что играл, дай мне боженька памяти, это Wolfenstein: Enemy Territory и Doom 3 - 2004-2005 годы. ) Возможно, позже, ещё пробовал что-то из Farсry... Но это не точно ))) Даже не представляю себя сейчас играющим в какие-нибудь танчики, условно. )) Как раз планирую покупать новый ПК. От мышки до монитора. И 100 - 200 к за видеокарту - наверное перебор.
Для справки. На интегряшках от АМД, в процессорах Ryzen AI 9 HX 370, графика 890m неплохо тянет игры, на уровне rtx 3050. Даже более старая 780m в 7940hs ноутбуки и 8700g десктоп, давала поиграть в сетевые игры на средних настройках, только в путь, чуть хуже 1650.
@@SergeVilianov 4080 super PNY 4699 PLN + ALphacool водоблок на эту карту 669 = 5368. AZsus TUF +/- 5700 PLN (Но это при учете что радики помпа вентиляторы емкость на воду есть)
Человек явно мало что понимает, просто решил по старой русской традиции лизнуть бесплатно на авось так сказать. Про проблемы нвидии ничего не сказал, проблемы только у АМД и интел. Сказал плохо что узкие шины и предложил решение покупать более дорогие нвидии с более толстыми шинами. И да молодец старообрядец во всём, даже в "палит хату спалит". Асус купил бы подешевле и тоже узнал бы что около него разговаривать нельзя. Молодец, разделил карты на HD, 2к и 4к, вот только жаль что брехня :) Очень смешной обзор :) Вот информация про подставку реальная, всё остальное........
gigabyte тоже норм ! Сидел на асус всегда, собирал белую сборку и на тот момент не было белой RTX 4070Ti от АСУС,а была от Гигабит и других, взял гигабит другими побрезговал!
Топпа топа топа.. Берем то на что хватает. У самого две 4090. на 5090 отложил денег. ПС Люлю железки. В реальности такие карты не нужны для игр. Ноя гамаю 4 К - 240 фпс. Потяное дело 240 в топ графике нет. Как было сказано облачный гейминг более выгодно. А для игр по проше можно купить карту с 12-16 гигами мамяти. Уровня 40(50)60(70) На истории про палит ожидал услышать про дом спалит))))
Бред какой-то 😂
Как будто автор прямиком из 2012 года. Процессор интел, видеокарта только нвидиа, а еще мегаваттный блок питания. Оххх.
Так душно, пришлось форточку открыть. 1) Рендер на процессоре был до появления куда ядер в мезазойскую эру. 2) Киловатник нужен если только когда у тебя топ карта и вами любимый i9. Для среднего игрового компа максимум 750ватт. 7500F и 9800х3д В КВАД hd В киберпанке на максималках тянет 4080s с одинаковым фпс так что даже дорогой проц не нужен и кушают они мало. А вот например 12400f или 5700х для них потолок 4070s и 7800xt для full hd. Карты от амд для игр все же доступнее и дают больше производительности за рубль.
Я по началу тоже так думал что можно 750 голдом обойтись, гигабайт на 750 накрылся, поставил 1 квт биквайт голд (самый дорогой по стоимости), накрылся, сейчас 1300 вт платина чифтековская, не греется на конец то, корпус Биквайт 900 про, проц R9 5900х, 4070 супер и 9 жестких, забиты все отсеки даже на 5,25. Не играю, но бывает иногда майню в дуале, на проц и видюху, так же 6 кулеров биквайтовских на корпусе. На втором компе тоже блок 1200 вт голд грелся даже при дополнительном продуве, со своим кулером под 48 градусов, там R7 3700 и видюха всего 1050ti, но 16 жестких, и кто бы не говорил что хард ест 5 вт, это брехня, именно харды и подсаживают блок как делать нечего, накрываются в моменте запуска. Может если бы была возможность выставлять постепенный запуск хардов то не накрывались бы питальники.
@severusalbus3931 так надо думать там стартовый ток до 2 ампер и до 18 ватт плюс куллера и т.д. в таких системах обычно ставят по 2 бп.
@@777Jism Так об этом инфы практически нет, я знаю что некоторые запитывают харды вообще отдельно даже не компьютерным блоком питания, но не хотел так усложнять дело, хотя у меня есть старый корпус от Чифтека который самый большой у них был, там предусмотрено два места под блоки питания, но на сколько знаю, между блоками надо для синхронизации перемычку ставить
12400f максимум может тянуть 4070 . Далее лучше бы брать чтото помощнее, и даже не 12600кф, а скорее 12700кф, 13500 или 13600кф.
Касаемо же 5700х тоже смешно, учитывая что даже 5600х спокойно грузит 4070ти, чему я был крайне удивлен.
Ну а карты от амд могут только в натив. FSR это жалкое подобие DLSS , коротое шакалит картинку. И это блин в 2К разрешении, да как так то? С генерацией кадров тоже приколы. В итоге получаем карту без технологий но дешевле. Надо ли оно каждый решает для себя сам. Я лично как ушел с амд карт, только рад этому.
Вот производительность на рубль самое конченное, что может быть. 3D итоги с их рейтингами и то объективнее были 😂. Ты женщину тоже выбираешь по эффективности на рубль? 😂😂😂
про амд и интел инфа будто 10ти летней давности
смешная шутка. Давайте еще одну
@@SergeVilianovрасскажите пожалуйста о прорывных процессорах от интел 13 и 14 серии
@@evary6345 На канале есть отличные видео о них, посмотрите
Не, ну у Intel Arc дрова, конечно, говно. Например, я не могу на 8-гиговой карте выделить буфер больше около 4 гигов (там экспериментальным путём очень странный предельный размер получается) - просто выдаётся ошибка. Как будто в 2018 год вернулся, там AMD так же не умели 😂. Или резко терять пропускную способность при случайном доступе в память, начиная с некоторого размера - у Nvidia такого никогда не было, у AMD разок было, когда 5700 только вышла, но исправили через месяц. Я, конечно, понимаю, что в играх такого не бывает, но в вычислениях иногда надо.
На заметку, самая лучшая видеокарта сейчас по цена/производительность - это RX 7700 XT. Она лучше RTX 4060 Ti даже с 16Gb, но чуть хуже RTX 4070.
Ну и нафига она такая?
@ ну она стоит дешевле 4060 Ti 16GB но при этом производительнее в играх.
@@games-pc все, что ниже 4070Ti это шлак, пора уже позволить себе 2К и лучи. Разговоры про RT говно только от бедности.
@ все, что ниже BMW X7 это шлак, пора позволить себе большее 😅 - это примерно также понимается.
@games-pc любая BMW шлак, гопотячья машина. Porshe мой выбор, ну или Audi от нищебродства
Краткая информативная выдержка из видео, кому лень смотреть почти час неуемной болтовни:
Как выбрать видеокарту? Надо брать только Nvidia. Конечно, только Asus.
Блок питания надо ATX 3.0 от 700 ватт, а лучше на целый киловатт с сертификатом Гольд.
Минимум 4060Ti. А еще лучше 4070Ti Super.
Посмотри еще раз, может что-то поймешь
спасибо добрый человек, судя по тому что сколько в кадре асуса, я другого и не ждал. как всегда обоснованно и с взгляд с одной стороны
@@SergeVilianovнехрен тут понимать, фанат Nvidia высказывает своё мнение какую видеокарту брать.
@@Maxysch14 горит попа, да?
Я кстати почти так и сделал, взял 4070s(только не Асус, а гига гейминг oc) ну и блок 3.0 на 850. Все прекрасно и в бюджет влез. И забыл про апргейд на 3 годика точно(все остальное тоже свежее, около полугода назад менялось)
60% успеха на канале каким бы видео не было - это комментарии 😊😊😊. Там самый сок, ну и особенно вопрос-ответ. Поимал себя на мысли что после просмотра лезу именно туда. Мне даже кажется что Сергей в том числе работает и в этом направлении, так сказать почувствовать реакцию публики.
Наличие комментариев говорит о том, что видео а) смотрят и б) оно находит отклик в душе смотрящего. Ничего специального для этого не делаю.
Ну и да, стараюсь отвечать почти всегда. Потому что грамотно подпущенный известно кто веселит контингент.
@
Сергей Вильянов (Vilianov) что ты несешь ? удади ролик и никогда не льзь в пк железо
Рынок зарешал за него, Лиза констатировала на декабрь 2024 года свою долю на рынке GPU менее 10%. Ой, что же случилось с топом за свои деньги😂
Малолетний дурачок, немедленно покинь канал! Он сделан для взрослых
Ну хз,хз. В прошлом году купил АМД 6950хт, за 63к, никаких проблем, сделал даунвольт, БП на 750 стоит, хотя рекомендован на 900, доволен как слон. Минимум 5 лет просижу на ней
Что ж. Удачи :)
Если только максимальный даунвольт. Например, у моей 6800 я сделал 0.8 В.
Тут блогер, просто фанат
@@Maxysch14 Да, согласен
Ну и зачем это печь? Старая, бушная, думаешь они не горят?) Зря...
Как выбирать видеокарту. Есть много денег, покупаешь флагман нвидиа, меньше денег, покупаешь флагман amd. Ещё меньше денег, покупаешь максимально возможную из линейки амд или нвидиа. Нет денег, ничего не покупешь.
Нет, AMD покупать не надо
Ну в целом все по делу
Про видеокарты от AMD не согласен, но это субъективное мнение конечно. Последней видеокартой от Nvidia у меня была gtx980, потом перешел на Radeon, и никаких проблем ни с нагревом, ни с драйверами у меня не было и нет
Использовал и rx480/rx580, и сейчас rx7700xt, проблем нет и производительность достойная за свои деньги конечно
Сергей очень мало рассказал про видеокарты AMD и сразу перешел к NVIDIA. У меня самого есть две видеокарты: RTX 4070 Super и RX 6600. Я имею представление об их использовании и настройке. И думаю, что карты AMD не такие уж плохие.
Сергей правильно говорит, что перед покупкой видеокарты нужно решить, для каких целей она нужна. На мой взгляд (разумеется, Вы можете быть не согласны). Если только для игр (про специализированный софт ничего не могу сказать, так как все зависит от конкретной программы), а денег на «желанную» 40xx Super TI Turbo Limited Edition не хватает, то можно выбрать и AMD.
У AMD больше расход энергии, но чистая производительность без DLSS иногда такая же, как у NVIDIA. Иногда у AMD бывают проблемы с драйверами, но с каждый новым выпуском все же подтягивают оптимизацию. Разумеется, бюджетные версии видеокарт AMD иногда имеет не лучший охлад и следовательно более высокие температуры, но вопрос можно всегда решить андервольтом.
В итоге, если Вас не интересуют технологии Nvidia и лучи, а также вы готовы немного повозиться с настройкой драйвера и, возможно, андервольтом, то видеокарта AMD - хороший выбор.
Спасибо за комментарий. Я возился с Радеоном месяц. И так, и сяк. Не удалось забороть. Только ценой существенной потери производительности. А это уже не очень интересно
@@SergeVilianov А в чем именно была проблема Радеона и какая именно это была модель карты?
Что за дич я смотрю, откуда это видео появилось.
А вы случайно не водолей?
Как малолетний дурачок попал на мой канал? Охрана, уведите!
Как же уныло повествование.
Даже двойная скорость не помогает.
Это канал не для детей, покинь его
Полтора года назад взял 4070 ti от палит. Не воет, не свистит. Все работает по дефолту. Вполне устраивает
Сказочник. Хуже-лучше, меньше-больше... Где тесты, цифры? Железки зачем приволок?
Как зачем? Надо-же показать, что топовый Radeon хуже, чем Nvidia, вот и приволок, чтобы "показать" :)
Дурачок, зачем приперся сюда? Задницу свою зачем приволок? Катись колбаской.
@@SergeVilianov чувак, ты не прав...
@Kozlomordii неправ был ты, когда такой тупой ник придумал
Взял 6800 хт на Авито с проверкой за 35 тыс. Года 2 уже. Может немного меньше. Полет нормальный. В 2 к самое то.
Интересно было послушать, я как владелец 4090 за 120к купленной на старте конечно считаю что сейчас цены конечно кусаются, но любовь к асусаю осуждаю, я выбираю качественный продукт от любого вендора, Асус тоже делает овно как и все остальные вендоры, поэтому надо искать качественные продукты и не смотреть на громкие имена.
А что делать, если купил шляпу?
@@SergeVilianov Страдать!
Ну куда, куда вы влезли Сергей😂
да как я посмел?..
Про разрядность шины памяти всё перепутано. Она НЕ влияет на скорость обмена данными между оперативкой и видяхой, а влияет именно на скорость обмена данными между графическим ядром и виделпамятью. Так что на задачи, которые крутятся внутри видяхи очень даже влияет. Но на самом деле важна не разрядность шины, а пропускная способность памяти (можно посмотреть на techpowerup). Влияние пропускной способности памяти сильно зависит от задачи, насколько она интенсивно использует вычисления, насколько память, и хорошо ли попадает в кеш.
И вообще с выбором видяхи для игр всё просто: смотрим на желаемую игру и на бенчмарки на ютубе и приходим к компромиссу между стоимостью и FPS.
Nvidia 40xx лучше остальных за счёт того, что в DLSS для них есть генератор кадров, а для старых Nvidia и для AMD нету.
Но для работы 4060 хуже, чем 3060 по всем параметрам: она менее мощная вычислительно, там более медленная память, и самой памяти 8 Гб против 12 на 3060.
PS: если современная видяха AMD у вас орёт, то либо она бракованная , либо вы что-то делаете не так.
Речь шла о шине PCIe если я правильно расслышал.
у fsr 3 версии появился генератор кадров
Может ли БП влиять на шум дросселей видеокарты? Или даже вентиляторов?
@@ChubbyStoatАвтор там перепутал шину PCI и внутреннюю. Битность была названа именно для шины между видеопамятью и видеоядром. С PCI всё просто: младшие карты поддерживают 8 линий, старшие - 16.
@@JohnStranger-fx5cqТолько качество FSR намного хуже на мой личный вкус. Уж лучше снизить настройки графики, чем с ним (всё ещё на мой вкус). Так что я его не считаю за конкурента DLSS.
3:51
Эмм, интел в текущем состоянии обливается потом стоя у края бездны. Я уже не гвоорю об уровне стагнации и обманов покупателей. Просто без комментариев))
В глазах тупых детей, судящих о происходящем по новостям, написанными такими же тупыми детьми, все именно так и есть.
@@SergeVilianov скорее в глазах тупых фанатиков судящих о происходящем в своем манямирке бесконечного интол превосходста, всё именно так и есть
после слов "по моему мнению процессоры амд уступают интелу" видео досматривать не стал, извините
Так переживаю, так сочувствую...
@@SergeVilianov, сочувствую вам…
@@zazazu2218 ну ты-то куда влезло?
@@Л.Е.В интел "массово" дох только в тупых новостях из интернета. В реальности все было несколько иначе. Но кого это интересует
@@Л.Е.В А в итоге все дело оказалось в завышенных вольтажах))) И у тех кто 13900к и 14900к настраивал вручную в биосе по вольтажам, нет проблем. Даже в разгоне))) но диванные эксперты кричат что интел говно. А то что амд нв старте ам5 горели и выжигали материнки , это херня, это конечно же другое))
На 7900xtx гигабайт гейминг ос, никаких проблем с нагревом и производительностью. Купил на старте за 100. Температура 75 при 360 Вт. ФПС запредельный в любых играх. Да, для расчётов в cad она бесполезна, пока дрова не кастомнëт кто, или амуде не решит вернуть включение математики в адреналине. Но для дома, я альтернативы у нвидии не вижу.
Попробуйте поставить ZLUDA. Софт будет думать, что работает с Nvidia. Довольно много разных приложений работают практически из коробки (особенно, всякие нейросети).
Очень субъективно, 7900gre за 58 тыс. на 11.11 брал, аналог от зеленых за эти деньги есть?
4070 Super. Стоит столько же, может больше
@@SergeVilianov может больше в чём? В работе? Пожалуй.
В играх? Ни при каких обстоятельствах 4070S (в хорошем исполнении) не будет превосходить 7900gre (в хорошем исполнении) в производительности. Даже с учётом технологий, всё что может навязать Инвидиа, это чуть больший фпс (на уровне погрешности) в некоторых игровых проектах, но даже так АМД чаще будет либо равна, либо чуть мощнее конкурента. Ну а про натив и говорить нет смысла, GRE-шка рвёт S-уперку на приличное кол-во кадров в большинстве своём.
На всякий случай уточню, я не фанат AMD, но видя ОЧЕНЬ расплывчатое "может больше" конкретно в сравнении этих двух карт, стало даже обидно за АМУде. Надо же уточнять, в чём именно что-то кого-то "может больше". К тому же нужно понимать, что среднестатистический пользователь пекарни собирает оную как раз-таки для игрулек, а не для работы, поэтому и глядеть надо с обеих колоколен.
Вообще, выбор видеокарты это очень сильно индивидуально. И вдобавок сильно ограничен бюджетом, куда карты от НВидиа часто не попадают, если нужен обычный домашний ПК (которых подавляющее большинство). А в ролике некоторые аспекты и нюансы объяснены поверхностно. А уж явное "фанатство" обесценивает даже их.
Приличная графика встроеная в проц🤣 А вы тут карты покупаете дорогие😂 Вы посто не шарите! Выбирайте облочный гэйменг в браузере😂 Спасибо друг посмеялся от души! Это твоя альтернатива но не моя😂
В конце нулевых, начале 10-ых две материнки от асуса сдохли. Перестал брать асус, перешел на гигибайт. И видеокарты от них норм.
После горячей 6700xt, присматривался к 4070ti, 4070super, 4070ti.super, но в итоге взял холодную 7900gre, доволен как слон!
Главное, чтобы радовало
Вы неправы насчет чернового рендера на видеокарте, вы просто некомпетентны в этом вопросе. У видеокарты есть несколько блоков которые обрабатывают данные. Ultimate Vocal Remover допустим использует блоки 3D обработки и обрабатывает все без ошибок в сотни раз быстрее процессора. Topaz использует вычислительный блок (Compute Unit, CU) который в 10-50 раз работает быстрее центрального процессора в задачах обработки видео, так же блоки video decoder работают при декодировании и запаковки видео, при хорошем битрейте разницы с процессором нет. HandBrake использует практически все блоки одновременно поэтому ему удается кодировать видео в несколько потоков с просто бешенной скоростью.
За рендеринг не скажу, но в научных вычислениях бывает так, что алгоритмы под массовую параллельность видеокарт имеют большую погрешность, чем их "обычные" версии под процессор. Но, если важна точность, то лучше обратить внимание на квадры с ECC.
Я общаюсь с теми, кто работает с видео профессионально. Зарабатывает этим на жизнь. Причем неплохо. Среди них фанатов бытовых видеокарт нет. Но вы можете делать, что угодно.
@@SergeVilianov пусть откроют вкладку GPU в диспетчере задач когда выполняют рендер и посмотрят какие блоки загружены, даю зуб, что они в этом такие же профаны, купили нвидиа подороже и сами не знают, что где рендерит.
@Spacehooper :) Да-да, профаны. А вы где работаете?
@@SergeVilianov да же если дворником, это не мешает мне понимать, для чего видеокарта в пк и она явно не для черновой обработки видео, в 2009 году возможно это так и было, так как графический чип не мог исполнять команды API OpenCL, поэтому имел энкодер, который был не самого лучшего качества, а сейчас есть API CUDA, OpenCL, а так же аппаратная поддержка видео Intel Quick Sync, AMD VCN, NVIDIA NVENC - универсальные блоки кодирования видео в различные форматы с настраиваемым качеством, я вас уверяю при битрейте 100 мегабит в секунду 4K вы не увидите разницы с таким же кодированием процессором но в 10-ки раз медленнее.
Сергей, вы откровенно говоря сильно отстали по теме видеокарт, мне стыдно за вас, удалите это видео. Местами даже смешно, а ведь раньше у вас были весьма познавательные видео. Только если для домохозяек, оставить можно.
32:00 - она изменилась из-за того, что например у GTX 1080 Ti с широченной шиной кэш был что-то около 4 мегабайт, а например у RX 6600 XT с «узкой» шиной кэш уже 32 мегабайта, почувствуйте, как говорится разницу.
Intel лучше? Жрут больше, греются сильнее, стоят столько же, фпс дают меньше. Похоже этот парень из прошлого
Толстые крышки на ам5 и малая площадь кристалла видимо незначительные особенности ам5 и на эффективности охлаждения никак не сказываются)))) ага ага)))
И конские цены на 7800x3d и 9800х3д тоже видимо мелочи жизни))
@@АнтонИльин-ц8х Не мешайте фанату AMD наяривать на новости, написанные для малолетних дурачков!
про игры вообще не соответствует действительности
беру dns как наиболее распространённый.
Сейчас на 13.12.24
за 30 тыс +- 2тыс
можно взять MSI Geforce RTX 3050 VENTUS 2X за 31500
и можно взять ASRock AMD Radeon RX 6600 Challenger D за 31 500
какая видеокарта более производительная? Ответ очевиден - RX6600
за 45 тыс +-2тыс
GIGABYTE GeForce RTX 4060 EAGLE OC - 44500
AMD Radeon RX 7600 XT - 44500
+- паритет. где-то лучше nvidia, где-то amd, но у RX 7600xt 16гигов памяти, что с учётом роста
требований к играм (уже сейчас 8гб не везде хватает), будет более перспективно
за 65 +-2 тыс
ASRock AMD Radeon RX 7700 XT Challenger OC за 62000
PNY GeForce RTX 4060 Ti за 64300
в большинстве проектов RX7700xt обгоряет RTX4060TI с отрывом около 20 кадров.
но у 4060ti 16гб памяти, что тоже +
Если взять видеокарты прошлого, то я ясно помню, как клоуны агитировали за 1050ti с 4гб памяти за 12к,
хотя можно было взять RX570 8гб за те же деньги. И время показало, что 4гига памяим как мёртвому припарка,
а 1050ti является тем же, для чего и задумывалась - быть затычкой слота pci e.
Видеокарты от красных тем и хороши, что за те же деньги выдают более высокий fps, тем у конкурентов.
Единственный плюс видеокарт NVIDIA - это больший FPS при игре с лучами. Но это касается именно видеокарт уровня
RTX 4070, 4080, 4090. Для остальных (большинства) - это маркетинг.
а вообще надо перед тем как покупать видеокарту прикинуть те задачи которые ты хочешь выполнять,
игры в которых хочешь играть. Даже объективно неплохие видеокарты nvidia (выигрывающие в данной ценовой категории) могут выдавать меньший
fps в конкретной игре, чем amd и наоборот. Поэтому надо промониторить тесты перед покупкой.
греется просто джемонически - это просто такой лютейший бред, что я даже опровергать не будут
amd adrenalin вот реально наиболее удобная программа для уравления видеокартой. Всё есть, всё из коробки настраивается.
Хочешь андервольт - без проблем, хочешь отслеживание в игре - не вопрос. Это ОГРОМНЫЙ ПЛЮС в отличии от видеокарт nvidia,
где приходится скачивать дополнительные программы для разгона андервольта и отслеживания. Вот реально, была бы такой софт
от нвидиа - было бы круто!
Целиком и полностью Ку!😉
Автор из тех кто бы взял 4060 Ти вместо 7800xt (когда они были по 50к) и обмазывался лучами, и считал что он всех обманул)
Спасибо дядя, что раскидал.
Много что в видео аргументируется по типу: "ну не солидно, ну неловко" хотя выводы вроде бы правильные.
Про рендер на процессоре - это какая-то загадка. Всё рендерю только на видюхе, плюс нейрофильтры, а их всё больше и больше, требуют видюху.. И 4090 по тестам работает на этих фильтрах быстрее в 2 раза, даже больше. Плюс в новых генерациях появились новые возможности (инструкции), которые так же уже поддерживаются софтом в последних обновлениях. В целом да, хватает и старой видюх, жду в 2 раза дольше или вот пообщался с разработчиками и меня бесплатно подключили к удаленному серверу в каком-то премиум варианте. И фильтр, который работал на видеокарте минуту, теперь отрабатывает запрос за 5-10 секунд.
А в каких задачах рендерите?
@@SergeVilianov давинчи резолв
При работе 2/2 из дома я за компом два дня работаю, а два дня могу поиграть. Мне нужна видяха)
з.ы. на 3060TI чувствую себя королём QHD, про FHD вообще не вспоминаю.
з.ы.ы. странно вы настройки видяхи делаете, что у вас 40% производительности улетает. Попробуйте понижать не энергопотребление, а напряжение) Ваш кэп!
Здравствуйте Сергей, небольшое уточнение по информации в финале - о подпорках всяческих: фиксация карт весом от 1 кг и тяжелее обязательна, фиксировать за край саму плату очень не желательно, наиболее оптимальный вариант избежать деформации платы - подпор в точках в продольном центре на кожухе (на карте в кадре это перемычки между 1 и 2, 2 и 3 вентиляторами), и кожух в местах крепления сам равномерно распределит упор. Тенденции таковы, что все более-менее производительные вк на воздухе будут требовать доп. фиксации, и учитывая стоимость карт - это неплохая профилактика инфарктов среди населения.
Лучше всего ставить кронштейн для видеокарты на месте разъёма питания, его чаще всего ставят на месте, где заканчивается сама печатная плата
Не совсем понятно, почему 4070 только для 1080р)) Я на ней прекрасно и в 4К играю) Причем не всегда обязательно с DLSS. Может конечно я не очень требователен к частоте кадров, но стабильные 60 FPS меня более чем устраивают на большом 4К телеке) Понятно, что не всегда речь идет про натив. Например Mafia Definitive Edition идет в 4К со всеми максимальными настройками в 60FPS очень стабильно и там нет никакого DLSS. А вот в КиберПанке я уже врубаю DLSS на производительность и вкупе со всеми настройками выкрученными на максимум (ну разве что PathTracing не включаю, а только RayTracing ) - тоже выдает вполне играбельные 55-60 FPS.
В принципе, на 60 кадрах играть можно, не спорю. И не без удовольствия. Но все же сам меньше сотни уже как-то некомфортно чувствую.
@SergeVilianov я просто бывший консольщик)) комп собрал после начала СВО из-за проблем с покупкой игр. И играю не на мониторе, а на телевизоре)) и для меня то что 4070 выдает в 4К 60 FPS после PS4 Pro это прям ВАУ🤩
@@hammyGT Тогда - да :)
Доболе слово для блогера и системы ранжирования ютуба. Спасибо за видео!
серега,у меня 7900хтх,абсолютно не горячая,хотспот не превышает 82 градуса,адреналин удобнее чем от энвидиа,полностью доволен)))
лишь бы в радость
Спасибо за ролик! Всё чётко и по делу. После словосочетания S3 Trio чуть не прослезился )))) В голове заиграла песня "....молодость, ты как времени замок..."
Не, на самом деле, без шуток - спасибо.
Ура!
Нужно сделать ремарку. Графическое ядро процессоров AMD, которое хоть что то может показать в играх это ядро в процессорах с индексом G. Например AMD Ryzen 5 8600G и Ryzen 7 8700G. Но есть и свои минусы в таких процессорах, это термопаста под крышкой вместо припоя и только PCI 4.0 На обычных же AMD Ryzen 7 и 9 поколения (например, 7700x или 9600x) видеоядро просто для вывода изображения и базовых задач.
Про PCIe 4.0 я говорить не стал, потому что это ни на что вообще не влияет. Остальное все сказал
99% пользователей под крышку процессора никогда не полезут, и слава Богу. На версию pci-e выше 4.0 смотреть ещё очень рано по многим причинам, смысла сильно переплачивать за материнскую плату с поддержкой 5.0 нет. Видеоядро Radeon 780m и правда весьма хорошая штука. Потребляет в разы меньше чем сравнимые по мощности полноценные видеокарты (RX 470, GTX 1650 и т п.). Ускоряет нейровычисления и рендеринг видео. Доплата за его наличие всего лишь около 8 000 руб. Только чтоб оно работало на полную, нужна быстрая оперативная память, например DDR 5 5600 Мгц. Ибо встроенные в процессор видеоядра всегда используют системную память.
@@SosisD Согласен с вами во многом, но хочу уточнить несколько моментов. Никто не призывает лезть под крышку процессора. Важно учитывать, что термопаста под крышкой вместо припоя повышает температуру, и охлаждение должно быть лучше. Процессоры AMD седьмого, восьмого и девятого поколения сами по себе не холодные (у меня Ryzen 7700X, сначала охлаждал его с помощью be quiet dark rock pro 5, затем перешел на водянку и андервольт по PBO). По поводу памяти: согласен, стоит выбрать более скоростную, оптимально - Hynix A-Dia CL30 с частотой 6000-6200, так как нужен при частоте выше уже нужен делитель 1/2. Покупка материнской платы с PCI 5.0 под видеокарту - это личный выбор, но и переплата в 8-10 тыс. Однако есть нюанс с M.2-накопителями: на материнских платах Mini-ATX и Micro-ATX с двумя слотами M.2 проблем нет, но на полноразмерных ATX-платах с тремя и четырьмя слотами M.2 один из них может не работать с процессором 8-й серии AMD (это верно для плат Gigabyte и MSI), и при этом режется пропускная способность слота под видеокарту.
@@implex89 Техпроцесс вроде как медленно, но уменьшается. Но только энергопотребление у последних поколений ЦП выросло. Теперь надо ждать когда оптимизируют параметры производства чтоб уменьшилось потребление при сохранении производительности. Такое уже было неоднократно. А я сидел на R7 3700x с 2019 года и смотрел на это вот всё, на новые процессоры, которые при бусте в мощности +70% потребляют за 200 Вт. Да и взял себе мини-ПК на мобильном 7840hs. Поставил его от стола подальше, где его вообще не слышно даже под нагрузкой. Уже 8 мес. так живу и радуюсь. Он конечно на 45 Ваттах примерно на 30% медленнее чем ваш 7700x, но мне хватает )) Большой ящик пока оставил под игры, там видяха нормальная стоит. Но желания в обозримом будущем делать его апгрейд нет совсем.
@@SosisD По факту если бы не работа на удаленке, которая требует производительное железо и желание поиграть иногда я бы тоже выбрал мини-пк или ноутбук + хороший монитор.
По компании асус вынужден не согласиться, будучи в прошлом ярым адептом их железяк. Сейчас они совсем офонарели с ценами на свою продукцию, перешел на мать от МСИ и видеокарту от гигабайт. Не жалею ни капли. Аналог той же матери от асус стоил на момент покупки дороже ровно в 2 раза. Видеокарта аналог гигабайт аорус , стоил у асус на 30% дороже. При этом все отлично работает, и никаких проблем от этой экономии я не нажил. Плюс на карту еще и 4ый год гарантии дали.
Да и палит честно говоря хреновый был в 30 серии, которую вы и купили. А сейчас в 40-ой с этой же линейкой GameRock все вполне нормально. Да и с их картами остальных линеек палит все стало нормально. Дуал конечно так и остался простеньким бюджетным решением, но по крайней мере теперь он не имеет тех жестких косяков по охлаждению которые были раньше.
Короче на асусе свет клином точно не сошелся. Но если по хорошей цене, то всегда пожалуйста.
Мой радеон не греется, хотя топ
А включать пробовали?
@SergeVilianov при нагрузке 400+,приемлемые температура и не шумит
@@SergeVilianovу меня вот такой экземпляр Видеокарта GIGABYTE AMD Radeon RX 7900 XTX AORUS ELITE [GV-R79XTXAORUS E-24GD
@@TSV_Surgut не верю, но ладно
Ваще советую сразу брать 5090 и не париться - на 7 лет её хватит. Правда стоить будлет 500круб. 😂😂
Сказки детям на ночь
про видеокарты amd согласен только с тем что утилита адреналин для настройки видеокарты кривовата. уточню что это не драйвера а именно приложение через которое их можно скачать. сам являюсь владельцем rx6700 . в остальном проблем с картами нет,
Да проблем особых нет, согласен. Но работает медленнее, стоит столько же, жрет больше.
@@SergeVilianovв играх амд быстрее для одной цены. Но вообще надо указывать поколения, а то идет сравнение чего то с чем то.
Немного предвзятое мнение ведущего.
Как будто у него задача рекламировать 40 серию.
Хотя с момента выхода эту серию хейтели за кастрмрованную шину памяти.
И в тестах они проигрывали 30 серии с более широкой шиной.
Да, да, это реклама. Дело за малым - понять, кто заказал и вытрясти из него деньги
Тогда уж задача прорекламировать МТС Fog (кстати, Brigman сегодня к этому подключился), да и ASUS'ом лишний раз посветить. Но раз erid'а нигде нет, значит, не реклама;)
@@medvedall вопрос тот же: где получить деньги? Мне нужны
@SergeVilianov Вам так нужен мой ответ? Извольте. У вас нет связей в МТС или ASUS? Блогер из 90-х не знает как получить оплату за рекламу?;)
@@medvedall Я просто никогда не ставил такой задачи. Зарабатываю на жизнь немного другим. Но вижу, что тут все очень прошаренные. Может быть заберете там, где деньги дают, и принесете мне? Готов поделиться
я себе взял 3060 на 12 Гб, пока цены вверх не взлетели. самое то к моему Ryzen 5500 и 32 Гб оперативки. Особо не играю, а если и играю, то только в старые игрушки и там мощности моего ПК за глаза.
Да, вполне себе система
Я купил 4060 и 12400f
Когда-то на старте 40 серии приобрел за 870000 тенге (живу в Алматы, Казахстан) 4090. Причем, не обязательно приобретать блоки питания 3.0, у меня 1000w be quiet straight power, я лишь приобрел провод от be quiet на данный разьем видеокарты и не пожалел. Та матня, что шла в комплекте даже не распаковывалась. Год назад я продал ее за 1,3 млн и купил себе 4080 за 600000 тенге. Кстати обе тоже от Asus, так как другие не воспринимаю. И вот что...4080 мне больше нравится, меньше потребеление, игры так де тянет в 4к 120 кадров, какие играю в 2к. В общем особой разницы в производительности я не замечаю. С моим тв а95к 120 кадров выдает в синхре, все обсалютно так же. Для игр 4090 через чур дорога и не особо та нужна. Вот так.
Теперь жду 5080, которая обещает до 70% прирост производительности с новым чипом и памятью gddr7 при практически той же цене относительно 4080. А вот 5090 будет стоить около 4000 долларов, что ОЧЕНЬ ДОРОГО, БЛЕАТЬ!!!
Серёжа, где ты был?
Что б брать карту нужен хороший процессор, что б обновить процессор надо менять мать с сокетом, покупая мать надо докупить оперативку подходящую
Короче чисто карточку обновить не получится
А весь прикол что не хватает карты только для одной игры, а столько денег платить за одну игру жаба душит
Остальные то игры идут хорошо
У меня одна система на 13600К, другая на Ryzen 7700 (без X). С 4090 работают отлично. А они по нынешним меркам совсем середнячки
@@SergeVilianov 4090 сейчас стоят за 300к и недоступны для геймера даже половозрелова.
@@Simple_nick в таком случае действительно мало смысла. Потребность в обновлении видеокарты зависит от твоих хотелок и объёма кошелька)
@@SergeVilianov работают отлично, но не на полную мощность. Мне кажется для 4090 нужно брать 14700к и выше, а от амд 7800X3D и выше. Иначе карточка не раскрывает весь свой потенциал, к тому же цены на процы не такие уж и большие по сравнению с видюхами
Не знаю насчёт рендера на процессоре. Если говорить о рендере 3д изображения, то уже встроены алгоритмы по отсеиванию шума. Тем более, что сейчас появились специальные вычислительные блоки для рендера на основе трассировки лучей в видеокартах нвидиа. Потребительский процессор, даже самый лучший, не сможет тягаться в рендере 3д сцены даже с базовыми видеокартами на уровне 3050. Можно найти в интернете тесты, но зачастую если рендер одного кадра исчисляется в минутах на процессоре, то на видеокарте, при тех же настройках и том же апи, рендер будет проходить за несколько секунд. А когда видеокарта используется для работы, то время = деньги. Да ещё и счёт за электричество. И это если говорить о рендере изображения. Для видео (если без интерполяции) Будет сравнение между месяцем на процессоре против нескольких суток на видеокарте.
Я в первую очередь говорю о 2D-изображении и видео. 3D не моя тема, плохо разбираюсь, не буду изображать. Но там, насколько знаю, непрофессиональные видеокарты все же используются редко, если речь идет именно о профессиональном применении.
@@SergeVilianovТут ты прав. Однако большинство профессиональных видеокарт закупается предприятиями, а не такими как я, людьми на фрилансе. Единственное отличие, по сути - ECC видеопамять и двухслотный кулер, чтобы можно было подключить несколько видеокарт одновременно.
Для 2д рендера действительно процессор будет рендерить видео так же часто, как и видеокарта по времени, потому что так процесс стабильнее.
всё очень интересно, и местами даже смешно 👍
спасибо 🤝
только одно возражение-мнение:
карты чаще "горят" как-раз у игорьков, а не при майнинге, т.к. большинство майнеров свои средства дОбычи хоть минимально берегут и обслуживают, а вот большинство игорьков не знают и знать не хотят про какие-то там допустимые и оптимальные режимы 😎;
хотя, нерадивые/криворукие/тугоумные есть и среди майнеров, но среди игорьков таких относительно больше;
Использую rtx 3080 ti, не хватает. Играю на телевизоре. Приходится использовать 2к. На 4к не комфортно . Жду новые карты. Буду брать 5080 или 5090, надеюсь хватит)
@@lawyerstst хорошо быть состоятельным парнем
@SergeVilianov написал человек с rtx 4090)))
Я конечно не верю, что ролик заказной от Nvidia и Intel, но так предвзято и голословно топить за то, что присмерти (Intel) и оверпрайснуто (Nvidia) странно, от журналиста все таки хочется услышать что брать сейчас лучше по цене/производительности, а не как любой продавец - бери от самой дорогой фирмы и будет тебе счастье)
Вообще без негатива и хейта, только критика.
К сожалению, я не могу себе позволить рекомендовать аудитории дешевое дерьмо. Для этого есть много других малолетних блогеров.
@SergeVilianov а в чем карты amd дерьмо? Что в них нет, что есть в Nvidia?
@@andreyzaharov Да я ж вроде ролик выложил
В свое время начинал с жы форсов, а потом появились R7 370-390, на сегодняшний день есть RXы, за дешевле и фпс приемлемый, о чем ты дядя... И на сегодняшний день стал выбор между RX 7600 или 4060, я бы выбрал 4060, но на горизонте появилась B580, кторорая в рот даст твоим НеВидиа за меньшие деньги... Походу к тому и ролик...
Мне не нужна только CGA, EGA и VGA на ISA шине, а так PCI S3 Trio 64+, AGP несколько штук и штук 6 PCI-E начиная от GeForce 7300 до GTX1030 ну и в основном компе стоит RTX3080 купленная года три назад и её еще будет хватать для всего года так два точно.
А выбирать просто, смотрите на авито по сохрану внешки и работоспособности, всё!
Берите ретро железо оно дорожает и вообще может пригодиться если что
Нече если между 4070ti супер и4080 разница в 8:%а 4080 и 4080 супер ее вапче нет в районе погрешности, но по словам "ведущего" Это карты для разного разрешения))) вам бы матчасть подтянуть уважаемый олдфаг))
Обязательно
Второй раз слышу про МТС Fog Play ,прикольная идея сдавать в аренду свое железо ,но как это сделать из Израиля 🧐
@@boris-pc сдавать может и можно, а вот как деньги получать...
У меня материнская плата gigabyte b450m gaming какой максимальный процессор и видокарту я могу поставить?
Сергей Вильянов@ Прекрасный обзор, впрочем как и все. Из особенностей этой очень важной комплектующей безусловно каждого ПК, я бы еще отметил тот факт, что она одна из самых быстро обесценивающихся железок. И при покупке нужно дважды подумать, что и для каких задач именно тебе она понадобится. Потому как потом поменять, перепродать будет очень накладно по финансам. Даже спустя год-полгода цена на ее будет значительно ниже. Даже попользовавшись ей недельку и решив затем ее продать, ее уже как за новую вам не заплатит. Я два года назад себе взял 3070Ti, и когда покупал, в основном исходил из того, что я очень засиделся на HD7970, и уж точно могу себе позволить такой апгрейд раз в 10 лет)) И спустя длительное время, по мере того как карта обесценивалась, меня в большей или в меньшей степени таки время от времени душит жаба, стоило ли все же так тратиться)) Геймер с меня такой себе, если и играюсь во что-то, то это должен быть какой-то действительно шедевр, вроде ведмака. Да и с возрастом игры уходят на второй-третий, а чем дальше, так и подавно на последнем месте. Так что... это наверно больше относится к тем, кто... Не знаю, слышали ли такое мнение, что чем тяжелей тебе даются деньги, тем скурпулезней ты с ними расстаешься. Я к тому, что те кто выпрашивает деньгу у папы/мамы, им это чуждо, а тем кто зарабатывает своим потом и кровью, тот 10 раз подумает, нужно это ему, и для каких целей. Как-то так)
На мой взгляд видео очень своевременное. Когда выйдет серия 50, то обзоров будет и так много. Спасибо, успехов
Давай лучше про кинетик
Что еще дать?
Ну справедливости ради сейчас рендер на видяхе именно в приоритете. lumion так вообще именно на ней и завязан, нет там выбора на каком компоненте рендерить.
ну и тут получается шо чем мощнее, тем быстрее, ну и естественно с бОльшим объёмом видеопамяти нужно выбирать. в 3dsmax на проце из популярных corona (cpu only), а также vray (а там вот и есть выбор, на проце или риалтайм на видяхе).
а вот с монтажкой всё сложнее. например в premiere pro вообще 3ххх серия нвидиа лучше себя показывает, нежели 4xxx, ввиду сильно порезанной псп на последних. ну и также стоит отметить, что для популярных кодеков h264/h265 нужно вдовесок выбирать проц intel со встроенным видеоядром, чтобы активировать аппаратное декодирование quick sync
Всё так
24:38
Сильные видеокарты потребляют 500-600 ватт?? Среди потребительских видеокарт даже королева 4090 потребляет под нагрузкой 450, не более. В играх и того меньше. Это если не лезть паять плату и обманывать её энергопотребление. Все остальные, даже "жористые и горячие" современные радеоны находятся в районе 320-350 ватт.
У меня 7900xtx от sapphire на постоянке жрет 460Вт. В пиках бывает 500+, естественно в разгоне.
так ведь всегда с запасом указывают плюс 20-30% чтоб блок работал не напрягаясь и ничего не сгорело, да еще и проц если горячий то там еще +200 ват, кто то 2й моник подключает еще плюс 50 и тд...запас прочности нужен
У меня 7900gre в пиках 363вата....хотя заявлено по моему 260ватт... Или что то такое....
Вам там уже в комментариях написали. Добавлю, что многие видеокарты продаются сейчас сразу с разгоном, и там энергопотребление выше паспортного. Я сам не очень верил в аппетиты, пока не начал замерять. Так что да, если я и преувеличиваю, то несильно
@@SergeVilianov но хочу подметить, что с таким потреблением, без использования технологий Nvidia типа лучей, которые хоть что-то (визуально заметное) меняют в 1.5 игре, производительность 7900xtx, в среднем, выше чем у 4080. Про RT отдельная тема, сейчас никто без пинка зелёных не стремится внедрять технологии Nvidia в играх, т.к. консоли на каком железе? В текущих ценах, топовые исполнения 7900xtx стоят столько же или дешевле, чем самые дешёвые 4080. АМД жрет больше, факт, с этим не поспоришь, но и электричество не настолько дорого.
АМД дороже при той же производительности ахахахахахахахаха
7800ХТ и 4080Супер передают привет с разницей в 20К.
Хоть очки и нацепил, а дураком остался. Сенсей 2 =))
процессоры intel лучше🤡
особенно 13 и 14 поколения. угу (очень надежные)
Просто интель на последнем издыхании решил рискнуть, и все что осталось занёс Вильянову
@@st.dietrich437 Вас не проведешь
Сейчас нет.
Я сижу на 12400, но брат взял 7800х3d
🤣🤣🤣
51:23 - а у Вас что держатель не шел в комплекте с Tuf видеокартами?
Нет
@ очень странно, вроде в TUF Gaming идет телескопический держатель. Видимо не для всех моделей.
@@games-pc Похоже на то.
@@games-pc Есть держалка в тафке, но коротенькая, вытащил почти на максимум и еще подложил шайбу металлическую под него, но я кожух убрал с компа, упираю в блок питания
@ да, там есть такие моменты, что корпус не абы какой нужен.
Мне нравится такая поэтичная подача материала, редко встретишь
👙Как то токсичненько, а местами просто трешово (особенно про рендеринг на видеокартах)))))👙
Я тоже Олд и хочу все таки играть на своей видеокарте и т д до сих пор
про 4к и 20 гигабайт пвмяти - враньё: уже 2 года сижу на 4к и rtx 3080 - с апскейлом память разгружается и даже 10гигов хватает
Dlss в 2к не очень хорош, посему говорить, что это лучше, чем нативное 2к...можно только если нихрена не видеть. Dlss незаметно только в 4к и только в режиме "качество"
А вы про какую игру?
@@SergeVilianov да можно сказать про любую пока что: в том же киберпарке в 4к с апскейлом на "качество" и начальными лучами получается выжать 45-50 фпс при том, что процессор у меня старенький - всего лишь Райзен 2600х. Памяти в этом режиме потребляет 9 гигабайт
@@logos6527 я очень сильно извиняюсь, но 45-50 кадров - это не игра
а че для работы там тесла или квадро купить .. профессиональные карты чот что говорит неясно..
год назад 4090 стоила 120 000 рублей, а сейчас за такую цену можно только 4080 пупер купит. Цены падают в другую сторону.
Ну это рубль немношк скачет
Вопрос : может ли магнит в основании держателя для видеокарты негативно на харды повлиять, если держатерь установлен прямо над ними?
Читал разное, единого мнения как-то нет.
Можно взять держатель без магнита, если переживаете :)
@SergeVilianov уже закуплен держатель с магнитом.
Отковыряю его.
@@kirillkarpenko6522 можно резинку наклеить, будет не хуже
@@SergeVilianov да, хорошая мысль, спасибо.
Попробую.
Месяц назад взял бу 3070. Надеюсь , будет долго меня радовать.
Глядя современные тенденции, 8 гб на долго такое себе хотя сам чип мощный
Не парься, у меня даже 1050ti и 1660ti до сих пор в компах есть, и нет мыслей их продать, 3070 тоже есть, осень и весну когда отопление отключают включаю по майнить на неё
2:00 - Да, сейчас AMD Ryzen 8000G в топовых процессорах встройки на уровне GTX 1650. Да, только там не только линии, но и кэш меньше по сравнению с процессорами без G.
Ну не, не 1650. Это только во влажных фантазиях AMD так
Если 4к 60 Монитор DEll Чото подобрать
На какую денег не жалко, та и лучшая
Процессоры живут долго, а видеокарты меняются сравнительно быстро - в отличие от мнения автора. Это во-первых.
Во вторых, с год назад взял RX 6600 для нормальной игры в Diablo II Resurrected. Карта всем лучше аналогичной в цене RTX 3050, до этого была карта от Nvidia, никаких претензий нет, просто рыкса производительней и холоднее конкурента, кстати. У всех свои задачи.
ага.. ага.. уже купил себе А770.. на всякий случай на замену ПЕЧи1080.. и да, я примерно представляю что мне надо и зачем ;)
про проф софт и видеокарты nvidia - бред. Всё зависит от конкретной программы. К примеру в siemens nx видеокарта amd rx6600 по производительности
в разы превосходит RTX4080. Но, зато, в компас 3d даже GTX 1050 "обгоняет" RX6600. Есть хороший проф бенчмарк - specviewperf, на основании которого
можно судить о приблизительной производительности видеокарты в той или иной проф задаче.
Думаю, профи разберутся - что им надо. Спросят у коллег. Но в среднем Nvidia запинывает AMD по полной
пруфы? @@SergeVilianov
Здравствуйте есть вопрос для меня сейчас очень важный.могу ли в устаревший компьютер порядка 10 лет (мать asus p8z77-v lx2 проц интэл 3570к бп 1000кв) вставить видеокарту 3060 12г?но это на время года на 2 ))пока остальное не докуплю.
Вставить можно, скорее всего, у вас на материнке PCI-E 3.0, а у них обратная совместимость есть, так что работать будет. При чём, если у вас топовый процессор того времени, то и современные игры должен потянуть, если, конечно, оперативы хватит. Но оперативу тоже недорого докупить.
@@MrLukinma благодарю вдохновляет
Как обладатель 7900 XTX (до этого были видеокарты только от nVidia), которую брал именно для игр без лучей (DCS, MSFS 2020/2024 & Elite Dangerous), в разрешении 3440x1440, в том числе и для VR (24Gb видеопамяти здесь не лишние), на крайних драйвеах от AMD, с нормально работающнё генерацией кадров в ЛЮБОЙ игре - очень доволен! Особенно если учесть её цену ~1000 EUR, я думаю, выбор очевиден (в пользу AMD). Все эти разговоры о глючных драйверах AMD, высоких температурах и вообще фу-фу-фу... я реально не понимамаю почему люди так говорят??? Переплачивать минимум +30% за RTX 4080, которая в большинстве случаев будет медленее 7900 XTX (в играх без лучей) - какой смысл??? Ну вот реально - какой? Да, в рабочих задачах nVidia будет лучше, не спорю. Но если я НЕ использую эти самые "рабочие радачи".
В общем канал с действительно реально-обоснованной информацией превращается в субъективное / личное мнение конкретного человека :)
А личный опыт у каждого может быть разный.
Этот канал, а до этого сайт в течение 25 лет был субъективным личным мнением конкретного человека. И будет таким, пока человек не помрет.
Другой вопрос, что в моей "субъективности" объективности сильно больше, чем в высоколобых размышлениях Очень Честных Блогеров
Помню в одном из моих первых ПК была установлена Riva TNT2 аж с 32 мб sdram. В те времена, когда ОЗУ в 128 мб было естественным явлением, сложно себе было вообразить видеокарту с 32 ГБ памяти. На данный момент в компе трудится 6870. Аж с целым гигом! Ему уж лет 12-13. Как-то странно наблюдать, когда сорокалетние мужики рассуждают об играх. Мне как раз сорокет и последнее во что играл, дай мне боженька памяти, это Wolfenstein: Enemy Territory и Doom 3 - 2004-2005 годы. ) Возможно, позже, ещё пробовал что-то из Farсry... Но это не точно ))) Даже не представляю себя сейчас играющим в какие-нибудь танчики, условно. )) Как раз планирую покупать новый ПК. От мышки до монитора. И 100 - 200 к за видеокарту - наверное перебор.
Вспоминаю времена своей GeForce FX 5200, где на радиаторе даже и кулера-то не было...
Для справки. На интегряшках от АМД, в процессорах Ryzen AI 9 HX 370, графика 890m неплохо тянет игры, на уровне rtx 3050. Даже более старая 780m в 7940hs ноутбуки и 8700g десктоп, давала поиграть в сетевые игры на средних настройках, только в путь, чуть хуже 1650.
Здравствуйте подскажите pci wi fi блутуз модуль который запустится без проблем и на хаккинтош ?
На броадкоме надо брать
@@SergeVilianov это какие из тп линка и меркусис к примеру ?
@@444STG никакие
@@SergeVilianov пипец хаккинтош капризный
То бишь если видеокарта с водоблоком то не важно какой вендер? Все тихо будет
Да. Но дорого
@@SergeVilianov 4080 super PNY 4699 PLN + ALphacool водоблок на эту карту 669 = 5368. AZsus TUF +/- 5700 PLN (Но это при учете что радики помпа вентиляторы емкость на воду есть)
Кстати, в комплекте с 4070 ti от палит уже есть подставка по видеокарту
Человек явно мало что понимает, просто решил по старой русской традиции лизнуть бесплатно на авось так сказать. Про проблемы нвидии ничего не сказал, проблемы только у АМД и интел. Сказал плохо что узкие шины и предложил решение покупать более дорогие нвидии с более толстыми шинами. И да молодец старообрядец во всём, даже в "палит хату спалит". Асус купил бы подешевле и тоже узнал бы что около него разговаривать нельзя. Молодец, разделил карты на HD, 2к и 4к, вот только жаль что брехня :) Очень смешной обзор :) Вот информация про подставку реальная, всё остальное........
Прости, зай
Так повелось у большинства техноблоггеров на ру ютубе ещё давно т.к амд за рекламу денег не заносили.
@@DmitryIsc199 Ну как это не заносили? Мне еще как AMD башлял
gigabyte тоже норм ! Сидел на асус всегда, собирал белую сборку и на тот момент не было белой RTX 4070Ti от АСУС,а была от Гигабит и других, взял гигабит другими побрезговал!
Топпа топа топа.. Берем то на что хватает.
У самого две 4090. на 5090 отложил денег.
ПС
Люлю железки. В реальности такие карты не нужны для игр. Ноя гамаю 4 К - 240 фпс. Потяное дело 240 в топ графике нет. Как было сказано облачный гейминг более выгодно. А для игр по проше можно купить карту с 12-16 гигами мамяти. Уровня 40(50)60(70)
На истории про палит ожидал услышать про дом спалит))))
Вы забыли еще кое-что, для работы всё-таки лучше взять RTX 6000 Ada Generation 😅
Сергей здравствуй! У меня проц 9700F он потянет 4070 серии сейчас у меня 2070 super
@@sashka76ps46 это интел?
Да@@SergeVilianov
i7
Хороший интересный ролик. Но я сторонник процессоров AMD и нравится производитель MSI.
Да лишь бы в радость
"выглядит как настоящая" 🤣🤣
Ха! S3! Помню помню. У меня морровинд отказывался корректно работатьна ней. Было капец как обидно
При этом карта стоила так-то немало.
@@DoctorrSonya да ну не. Около 30 долларов она стоила, это было не очень много
@@SergeVilianov У меня отложилось:
1) попробуй найди (не где-то на барахолке полудохлую)
2) ценник кусался, пусть и не сильно, но...
@@DoctorrSonya 64V+ стоила копейки. S3 Verge 50 стоила, но ее и не брал никто