как ты вообще смотришь того у кого разгон оперативки на 400 герц,даёт прирост почти во всех играх +30 фпс??? p.s. это я молчу про его чистку ВИНДЫ и прирост в тех же 30 фпс)))
У маркетологов другие соображения. Им нужна не беспристрастная оценка на старте продаж, им нужна завеса из "податливых" обзорщиков, высказывающих правильное, полезное для бизнеса, мнение.
Я уже на 5 минуте устаю слушать этот мла-мла-мла! Зачем мне всё это слушать про вентиляторы и т.д и т.п! Перемотал на конец и за две минуты узнал вердикт, ВСЁ!
@@КомментаторАбдульШуеПпш ну, от комментирования твоей авы я вообще воздержусь. А по поводу мушки, это ты так отсутствующим интеллектом блеснул? Сам то оружием владеешь?
Ну наконец-то нормальный обзор. Чёрт, жаль, что вам не в самом начале дали карту, хотя... Тогда бы другим обзорщикам нечего было бы добавить :D (вы лучшие)
но лучше 30 фпс на консоли чем никак на ПК )да и хз с чем связанно , на консоли играть в 30 кадров не очень приятно , но терпимо , а на ПК совсем не играбельно , а еще от игры зависит гири5 что 30 что 60 один фиг , а метро 45-50 уже неиграбельно
Спасибо за ожидаемый тест! Хотелось бы видеть в тестах RDR 2, как одну из самых красивых и требовательных игр. Но видимо там долгие загрузки для многих повторов тестов.
@@ДмитрийЛисицын-и8й ну в 4к она действильно быстрее, но это исключительно из-за доп памяти. Нвидиа могла с таким же успехом выпустить 2080 с доп. 2 гб памяти и ты бы видел тот же результат)
Ощущение как будто после Ани карта, следы оторванных термо пластин как у нее ))) Единственный обзор , что другие не говорят как по регламенту и сравнение с TI Молодцы ждал ваш обзор. Замучился другим в комментах писать про тех задание, все что о чем ты !!
Я хз, но для северных стран могли бы уже начать делать водянку для ЦПУ и ГПУ в виде батареи отопления встроенной в компьютерный стол, чтоб хату греть, а не вентиляторы крутить, почем зря!
А что, вентиляторы хату не греют? То же самое тепло рассеивается. Если у тебя проц выделяет 150 Вт тепла, видяха 200 Вт и всякая остальная мелочь типа vrm материнки, оперативки и дисков ещё ватт 50 суммарно, то у тебя эти 400 ватт в любом случае нагревают комнату, хоть у тебя кастомная сво с огромным внешним радиатором, хоть простые воздушные крутиляторы. Я когда стресс тесты 10700К на 4.8, 4,9 и 5ггц под dark rock pro 4 гонял, у меня температура в комнате за час поднялась градуса на 4-5 и там стало реально жарко, пришлось проветривать.
@@Максим-ц7з5щ Ключевое слово "ГУДЯТ"! Всех заботит уровень шума, а не потребляемая энергия карты за тонну денег. Да и в целом, это, в большей степени, шутка была, хоть и не лешенная здравого смысла!
@@ivanivanov7584 при чем тут машинное обучение и спекулятивные вычисления на борту карты? Хочешь побольше узнать как *правильно* должны работать спекулятивные вычисления - обрати свой взор на процессоры АМД сери FX на 6ххх серию например. А сколько толку от "великих" тензорных ядер в данной конкретной видяхе тебе продемонстрировали. Смотреть внимательней надо. Или владеть терминологией хотя бы. Чем ты недоволен, ламерюга?
Играть в игры -- это пустая трата времени, просто убивать своё время в пустоту. Да, кто-то любит играть, убивать своё время -- прекрасно, каждый имеет свободы выборы. Но некоторые интересуют не игрушки -- на это мне чихать, мне было бы интересны только тесты машинного обучение, то есть что полезного способна дать видеокарты, но здесь об этом ни слова, потому что обзорщику тяжело эти тесты запустить. Надо разбираться, надо устанавливать пакеты -- это большая интеллектуальная нагрузка для неподготовленного человека, то есть для обзорщика.
@@ivanivanov7584 у нихбыло видео на эту тему года два назад. Про нейросети (кажется) из видеокарт НВИДя, у которых ни одного нормального CUDА-ядра нет, они целиком из тензорных блоков состоят, и вот из этих видях образуется самообучающаяся нейросеть. Даже гугел тже делали подобное... Для автопилота на машину для езды по горорду тренировали сетку. Это всё - пройденый материал. Технологии два года. Просто она невостребована. И будет неостребована лет десять. Специалисты так говорят. (не Бородачи)))
В Израиле уже предзаказ на RTX 3090, с ценником в 2300$, свою RTX 2080 ti, покупал год назад с ценником в 1650$, так что походу это и будет цена этой карты у нас в стране, пожалуй, подожду 4000 серию )
Молодцы Palit. Не фанат их бренда, но рекламщики сработали как надо. Заслали всем, кому смогли чтобы первой картой на обзорах стала карта их производства. Дальше подкрутить цену у ретейлеров и всё.
@@blackredvortex267 Соглашусь, когда найдешь РТХ на 635. А если серьезно, то даже с РТХ на картах 30-й серии фпс будет более, чем заоблачный. Даже если лучи просадят его втрое.
Там в притык будет, я на 1080ти кучу игр перетестил, большинство игр в 4к жрет около 8.5 гб (после пары часов игры бывало, что до 10,5 догоняло), из-за этого собственно все карты с 8гб и задыхаются, добавь им 2 гига и они нормально будут работать.
По тестам в Adobe Premiere Pro. Очень прошу отключите "Наилучшее качество визуализации", оно не нужно в тестах и вообще не нужно, тестируйте на дефоте не надо никаких лишних галок ставить. Пресет "Match Source - Adaptive High Bitrate" не помню как в русской версии или "High Quality 2160p 4k" он на максимум качества все ставит (но лишних галок не ставит при этом). В буждущих тестах в проф. приложениях, показывайте пожалуйста Диспетчер задач, чтобы можно было видеть что у вас грузится CPU, dGPU или iGPU. Может у вас отрубилось аппаратное кодирование и вы по сути процессор тестируете. Настройки экспорта в Premere показывайте целиком, прокрутите вниз.
Gamers Nexus выпустил порядочное количество материалов по 30 серии - там и обзор архитектуры и сравнение версий pcie и разгон. Тест 3080 был еще дней 5 назад.
Спасибо за видео! Как всегда на высоте!) Единственное, лично я ожидал большего от карточки этой, но говорят версия на 20 гигов будет + может не разгонят сразу с завода и будет повеселее, 3090 все же избыточна, как я думаю, хотя посмотрим тесты от вас)
У меня монитор qhd 144гц. И не только у меня. А вы все, поголовно, как будто специально обходите этот режим. И мне бы хотелось так же узнать, на что способна 3080 в qhd 144 Я вижу подробный ролик с тестами и вы говорите "мы не будем проверять в квад эйчди с рт+длсс" (про батлу 5) да почему нет то? Зато в full hd проверяете. Рядовой человек не будет брать 3080 для full hd, а если найдется тот, кто будет, то и так понятно, что там фпс огромный и упор больше в процессор. Другое дело, что результаты для мониторов qhd 144 не совсем однозначные и хотелось бы знать эти нюансы, а вы просто их скипнули. Обидно (
Спасибо, ждал тестов именно от вас, вообщем теперь буду ждать остальных карт и тестов) Сергей, что то странное в этом выпуске со звуком, много каких то шумов, я не проверял, но на слух не очень
Как так получается что в блендер прироста нет, а в V-ray почти в 2 раза? Рендер идет на видеокартах с использованием cuda и там и там. Это сильно настораживает UPD. Сделайте в след. раз бенч блендер BMW
Может V-Ray использует RT ядра, а Blender нет. В Блендере правда есть экспериментальная поддержка OptiX (можно выбрать между OptiX и CUDA), он как раз использует RT ядра.
@@nazardidkovskyi С лисой явно что-то не так, или настройки неправильные. Я смотрел много тестов от разных каналов. Отрыв также в 2 раза, как и в V-ray. Если не использует RT ядра, то все равно отрыв должен быть. Так как cuda ядер у 3080 гораздо больше чем у 2080S
Зашел на Реддит Нвидии и ужаснулся тому что некоторые подключают 3080 одним шнуром PCI-E разведенным на два 8-Пин коннектора. У меня кстати в блоке питания такие же проводки (Seasonic Ultra Prime Gold), но мне бы никогда в голову не пришло подключать таким макаром видяху. Страшно представить как там провод греется.
Съемка с тепловизором - это гуд. И раз уж он есть и смотрится температура коннекторов на карте - то неплохо бы добавить и кадры с задницы модульного БП. Там же тоже разъемное соединение и будет нагрев. А новый коннектор - исходя из того что было показано - греться будет больше (потому как проводов столькоже, но контакты мельче), а еще велика вероятность что его будут выдирать из платы с мясом, т.к. он на боку, а точек крепления немного и они мелкие.
не кажется. Это еще давно люди заметили, кто смотрел внимательно. Особенно заметно на всяких спец.эффектах или траве. Возможно, дело в большем объеме памяти, куда можно пихать текстуры такими, какими они были задуманы без сжатия. Мониторинга объема врама нету тут, а жаль.
@@sheogh Нвидия с самого начала шаманит с настройками через драйвер, если замечали раньше, то в каждом драйвере они писали улучшена производительность а такойто игре на 20-40%, я поначалу искал в играх эти проценты но не нашёл, частично это полезно, нвидия исправляет графические косяки разработчиков игр, но при этом режет графон, очень страдает четкость, сейчас не так заметно потому что ютуб тоже сжимает видосы, но раньше часто сравнивал одну игру в сплитскрине на нвидии и радеоне, размытые текстуры отсутствие мелких и динамических теней, на нвидии, самое смешное они раньше полностью вырезали отражения, я офигел когда запустил сталкер на радеоне и увидел отражения на бинокле, и на других играх появились отражения, а на нвидии в этих местах каша из текстур, а теперь они ртх впаривают за дорого. А еще смешнее что с выходом нового поколения эта прибавка фпс за счет оптимизаций перестает поддерживаться на старых покалениях, например сейчас в новых играх 1000 поколение просядет.
Мне тоже так казалось,пока не включил в дровах нвидии цифровую интенсивность на 60-80%,и тогда все примерно тоже самое,по дефолту у амд цветопередача "сочнее".
@@atheris548 Даже для 4К не факт. Сомнительно, что кто-то будет делать игры, жрущие по 14-16Гб памяти, ориентируются-то на консоли и массовый сегмент, а там 6-8Гб.
@@useRUSSARB на консолях всегда средние или высокие текстуры, а иногда и низкие, вот им и хватает памяти, но на пк то никто не будет играть с таким качеством графики
можно вопрос? почему не тестите игры, где 8гб мало? например Колда Варзон в 2к ест всю память 1080ти, то есть 11гб и 11-12 озу и это на почти низких настройках. а что было бы на ультра да в 4к, хватило бы 10гб у 3080 или 2080ти в таком сценарии смотрелась бы выигрышнее, где бы плелась 2080(с) с её мизерными 8гб?
@@prohitec я вот жду, когда покажете, что 10гб не хватает 😉. а то меня тут уверяют что мне 8гб за глаза. уверен, что совсем скоро эту карту хором будут называть кастратом
Отличный обзор. Спасибо. Теперь понятно, что пока ещё можно подождать. Я думаю пока есть время обновить железо, ну и к этому времени можно и видяхи дождаться.
@@РоманПлишкин-х4ц нет это кот Шелеста, он на эту карту сначала обзор снимал. Такой блогер, конечно не особо информативные видео, но смотреть приятно, много рекламы, но она не агрессивная.
Ох, сколько я ждал этот обзор, не несколько раз в день на канал заходил)) Хорошо 2080 Ti продал за 65к, без потерь (а то и с прибылью если из США везти) перейду на новый флагман. Уж теперь точно на 2 поколения, а если intel внедрит pci-e 4 и microsoft реализует directStorage в теч 2 лет, то можно и 6 лет посидеть, бесплатный буст фпс)
Интересно увидеть разницу в рабочих приложениях у разных поколений Паскаль, Тьюринг и Ампер. Вроде как тьюринги на гпу рендеринге заметно лучше паскалей. Тогда амперы лучше паскалей раза в 3-4 в рендере на GPU?
19:40 непонятно как это средние кадры у 2080S из 39 превратились в 45? При этом у всех остальных карт такого прыжка с этого же момента не наблюдается. Это вообще как?
Потрясающе! Хуанг добился своего - красавчик. Palit прям вырос в моих глазах до неприличных размеров. Хороший обзор, хорошая видеокарта хороший обзорщик, что ещё нужно? Жду 3060))
Спасибо за ролик! Добавлю, что в Blender тест вышел не показательным. Сценка лишь одна и не показывающая истинную картину вещей. На самом деле прирос огромный, как и в том же V-ray. Может быть 100%, а то и более, в зависимости от сцены.
У меня вопрос. Почему Вы показывая тесты скоростей рендеринга на видеокартах, не показываете длительности проектов в минутах. Это ведь ключевая информация. Ведь таким образом можно соразмерять, насколько быстро видеокарта рендерит ролик по сравнению с его длительностью. Обратите на это внимание. Спасибо за годный ролик. Лайк поставил. Большая просьба, пролайкайте комментарий, чтобы его увидели. Спасибо.
Вы такую же разницу можете заметить с прошлыми тестами радеона 7, в одном из обзоров бородачи даже уделили этому отдельное внимание. Картинка выглядит действительно по другому, в основном цвета чуть более сухие, но бывает и так что какой-нибудь дым в пубге выглядт качественней в разы, собственно на нём и приводили пример
цветовая палитра у них различалась всегда... так что ничего удивительного, кому то больше нравится картинка нвидии а кому то радиков, по мне у АМД более насыщенные цвета получаются.
@@tenshizkadzuto3643 у АМД и Нвидии ВСЕГДА цветовые схемы были разные, можете спорить сколько вам угодно, но у меня были ВСЕ линейки карт начиная с первых ТНТ и Рэйджев, и с выходом первого Жирафа и Радика картинка у них сильно отличалась, так что этой теме уже больше 10 лет!
Говорите, что читаете комментарии, тогда надеюсь что увидите этот. Как владелец RTX2070, купленной на старте, очень бы хотелось увидеть сравнение с RTX3070, а не с 2070super. Пожалуйста! Хочу знать стоит ли обновляться.
Спасибо за тесты в рабочих задачах! Очень интересно было посмотреть увеличение производительности в Vray. Жду видео с 3090 и тестами в 3д пакетах, надеюсь тоже удивит (оправдает свою цену)!
900-1000р чисто за комп с 400W потреблением из розетки. Взял максимум 5 КВт за 12 часов в день. При условии что каждый день по 12 часов играть в течение 30 дней. Я за свою 2080Ti( за весь комп)в месяц плачу по сути 400-500 рублей.
@@RixLeeman Эпицентр на Байкале,это он трясет(Байкал как известно-это разлом плит тектанических).Что с населенными пунктами возле него неизвестно,инфы нет.
Добрый день. Возможно ли провести сравнение карт в RFO Benchmark. Или хотя бы сравнить FPS у карт при работе на стандартной сцене 3ds max или Revit. Если не хотите сильно растягивать ролик, можно добавить просто сслыку на результаты тестов. Жаль что вы не тестируете Quadro. Говорят они неплохо показывают себя в рабочих приложениях. Самостоятельно сравнивал Quadro M4000 - M5000 и игровые карты 10-ой серии, но космического прироста не заметил. Зарание спасибо от лица всех проектировщиков.
@@greengosha Пруфы этого есть? Или опять всё строится на том что "они это точно делают, потому что они плохие и вообще деньги с народа трясут" если бы так и было, то драйвера от nvidia уже давно бы разобрали на винтики, благо специалистов по reverse engenireeng'у в интернете достаточно. Всё это теории заговора беспочвенные, такие же как и про 5g и "чипирование" Биллом Гейтсом.
На FHD ждать младших карт не обязательно (если нет такой необходимости), ведь всегда можно использовать DSR на 4К это только улучшит качество, и будет чем нагрузить видеоосистему.
Вам надо было изначально первым засылать, а то всяким шелестам
Увы, это не от нас зависело.
как ты вообще смотришь того у кого разгон оперативки на 400 герц,даёт прирост почти во всех играх +30 фпс??? p.s. это я молчу про его чистку ВИНДЫ и прирост в тех же 30 фпс)))
@@LetsLiveinPeace-r3h ну справедливости ради у него своеобразная подача. У него так сказать более развлекательный контент, тут более информативно.
@@LetsLiveinPeace-r3h ты что забыл? Что он самым первым протестировал лучи Rtx на той карте где их нет и в той игре в которую их не завезли))
У маркетологов другие соображения. Им нужна не беспристрастная оценка на старте продаж, им нужна завеса из "податливых" обзорщиков, высказывающих правильное, полезное для бизнеса, мнение.
Ну наконец-то обзор от тех от кого действительно стоит ждать 👍
da
Без воды, чётко, наглядно
Hardware unboxed тоже топ ребята)
Профессионалы своего дела! 👍
Многие каналы как телевидение здорового человека. До чего продвинулись блоггеры за эти годы
Даже представить страшно, сколько нужно заготовить материала для такого сравнения, а потом все структурно собрать в кучу. Крутяк!
Я уже на 5 минуте устаю слушать этот мла-мла-мла! Зачем мне всё это слушать про вентиляторы и т.д и т.п! Перемотал на конец и за две минуты узнал вердикт, ВСЁ!
@@aliks2193 и чё? Флаг тебе
Эту инфу всю инвидия дала заранее ты чо думал. Это маркетинг.
@@Chokodoobi и то. Мушку спили...
@@КомментаторАбдульШуеПпш ну, от комментирования твоей авы я вообще воздержусь. А по поводу мушки, это ты так отсутствующим интеллектом блеснул? Сам то оружием владеешь?
5:34 battlefield
9:27 Lara croft
14:00 control
16:27 metro exodus
18:28 assassin's creed odyssey
19:28 ghost recon breakpoint
20:32 rainbow six siege
21:25 pubg
Спасибо большое
Спасибо, ещё бы тайминги на каждое разрешение, чтобы пропускать бессмысленные FHD и тесты с RT без DLSS
брейкпоинт же
@@Dmitriy88S ты ничего не видел (оби-ван.jpg)
Ну наконец-то нормальный обзор. Чёрт, жаль, что вам не в самом начале дали карту, хотя...
Тогда бы другим обзорщикам нечего было бы добавить :D (вы лучшие)
Сами написали комент и сами же лайкнули)))
16.09 у них была видеокарта
@@aliks2193 108 сами лайкнули :D
Наконец-то нормальные тесты, все по полочкам
Наконец-то тесты от авторитетного источника
От какого? Бочило вроде еще не выпускал тестов
@@timsdc0 Ловите наркомана.
когда борода говорит неиграбельно и это 30фпс то консольщики взрываются автоматом) 14:13
но лучше 30 фпс на консоли чем никак на ПК )да и хз с чем связанно , на консоли играть в 30 кадров не очень приятно , но терпимо , а на ПК совсем не играбельно , а еще от игры зависит гири5 что 30 что 60 один фиг , а метро 45-50 уже неиграбельно
@@faraonra2027 на ПК 60 ФПС на ультра лол)))
@@faraonra2027 алоу ты че я в метро на макс сложности проходил на 30-40фпс без проблем да я видел что подлагивает но это играбельно
@@faraonra2027 или ты из тех кому в кс го все что до 300фпс это не играбельнно
@@faraonra2027 как раз таки метро 45-50 вполне играбельно
Борода : нужно наращивать производительность процессора
10900k 5.1GHz : 🤔
Ognev Roman лучшего для игр пока нет, я лично удивился когда услышал про упор в cpu
@@deus3xmachina ага а ведь ещё 3090 есть ))
@@sonyloverp ждем уменьшение нм, а это прирост производительности
@@AVE10N. Возможно уменьшение толщины кристалла повысит производительность на ядро, но пока рано судить.
@@AVE10N. броадведвел на той же частоте мощнее хасвела на ~20%.
Не вижу смысла сравнивать санди 1366 6 ядер с скайлейком, кофелейком 6 ядер.
Спасибо за ожидаемый тест! Хотелось бы видеть в тестах RDR 2, как одну из самых красивых и требовательных игр. Но видимо там долгие загрузки для многих повторов тестов.
хоройзен зиро давн
Поддерживаю, RDR2 прям уничтожает именно видеокарты, а не всю систему.
@@nikitospaperos92 у меня при 3860х1600 на ультрах всего чего можно средня 58 фпс на такой же палит 3080
@@TopStopGame спойлер касательно хорайзена - 3080 на максималках 130+ фпс в фулхд.
@@animelore-music3409 доту 2 потянет на средних?
Вам не дали ее первым, так как знали, что только Вы докопаетесь до истины и покажете её пролетариату)
подлизал так подлизал
@@architech007 подлизали Nvidia остальные блогеры, у которых карта на 50-60% оказалась мощнее предыдущего поколения)
@@ДмитрийЛисицын-и8й ну в 4к она действильно быстрее, но это исключительно из-за доп памяти. Нвидиа могла с таким же успехом выпустить 2080 с доп. 2 гб памяти и ты бы видел тот же результат)
@@ДмитрийЛисицын-и8й так и здесь 50-60% с 2080, в чем проблема?...
@@blablabla4136 так у 2080ти памяти ещё больше и сливает все равно 30%...что ты несешь вообще
Ощущение как будто после Ани карта, следы оторванных термо пластин как у нее )))
Единственный обзор , что другие не говорят как по регламенту и сравнение с TI
Молодцы ждал ваш обзор. Замучился другим в комментах писать про тех задание, все что о чем ты !!
Да хоть и последние, но предыдущие обзоры все как один по методичке, дождался наконец полноценных тестов
полностью согласен про регламент и тех задание) такое себе)
А что за Аня? После какой Ани?
@@GenaGrom777 Аннет Костенко
@@mr.green001 у Ани тож ничего обзор получился. А так да, бородачи молодцы)
Я хз, но для северных стран могли бы уже начать делать водянку для ЦПУ и ГПУ в виде батареи отопления встроенной в компьютерный стол, чтоб хату греть, а не вентиляторы крутить, почем зря!
А что, вентиляторы хату не греют? То же самое тепло рассеивается.
Если у тебя проц выделяет 150 Вт тепла, видяха 200 Вт и всякая остальная мелочь типа vrm материнки, оперативки и дисков ещё ватт 50 суммарно, то у тебя эти 400 ватт в любом случае нагревают комнату, хоть у тебя кастомная сво с огромным внешним радиатором, хоть простые воздушные крутиляторы.
Я когда стресс тесты 10700К на 4.8, 4,9 и 5ггц под dark rock pro 4 гонял, у меня температура в комнате за час поднялась градуса на 4-5 и там стало реально жарко, пришлось проветривать.
Так холодно сейчас, что пришлось системником укрыться, пока смотрел видео.
@@Timur1602 Но вентиляторы гудят на высоких оборотах и тратят энергию. А так помпа тока воду гоняет и норм.
@@tangentsmith2961 а помпа от магии питается?)
@@Максим-ц7з5щ Ключевое слово "ГУДЯТ"! Всех заботит уровень шума, а не потребляемая энергия карты за тонну денег. Да и в целом, это, в большей степени, шутка была, хоть и не лешенная здравого смысла!
Огромное спасибо за тест в рендерах!) Всё постоянно проверяют игры, а мне очень важно было узнать баллы по октану!) Ждём тесты 3090
С какой целью тебе это нужно было узнать?
@@MegaChitman что за вопрос? Хочу обновить себе карту для работы в октане..
@@cmax241291 что за работа?
@@MegaChitman Моушн-дизайнер ;)
@@cmax241291 умный наверно
Тест ларки должен был проводить ваш друг, который умеет "шэдоу оф тоумрэйдер".
зе*
@@testing_hardware во точно
Тоумрэйда!)
Поправка тоумрэйд[эа]*)
тоумбрэйда,тогда уж)
За аквариум однозначно лайк!
Жду 3070 для 2К. Спасибо за видео.
жду 3050
@@NeuralAIM Да было бы неплохо увидеть LP 60-70Вт
@@affectiontv5585 в падлу покупать 4к моник просто)
NAIM Neural Aim dsr юзай
@@NeuralAIM И RTX 3030, первая затычка поддерживающая рейтрейсинг)
Обожаю Серёгину подачу информации. Годный ролик.
@@ivanivanov7584 при чем тут машинное обучение и спекулятивные вычисления на борту карты? Хочешь побольше узнать как *правильно* должны работать спекулятивные вычисления - обрати свой взор на процессоры АМД сери FX на 6ххх серию например.
А сколько толку от "великих" тензорных ядер в данной конкретной видяхе тебе продемонстрировали. Смотреть внимательней надо. Или владеть терминологией хотя бы.
Чем ты недоволен, ламерюга?
Играть в игры -- это пустая трата времени, просто убивать своё время в пустоту. Да, кто-то любит играть, убивать своё время -- прекрасно, каждый имеет свободы выборы. Но некоторые интересуют не игрушки -- на это мне чихать, мне было бы интересны только тесты машинного обучение, то есть что полезного способна дать видеокарты, но здесь об этом ни слова, потому что обзорщику тяжело эти тесты запустить. Надо разбираться, надо устанавливать пакеты -- это большая интеллектуальная нагрузка для неподготовленного человека, то есть для обзорщика.
@@ivanivanov7584 у нихбыло видео на эту тему года два назад. Про нейросети (кажется) из видеокарт НВИДя, у которых ни одного нормального CUDА-ядра нет, они целиком из тензорных блоков состоят, и вот из этих видях образуется самообучающаяся нейросеть. Даже гугел тже делали подобное... Для автопилота на машину для езды по горорду тренировали сетку. Это всё - пройденый материал. Технологии два года. Просто она невостребована. И будет неостребована лет десять. Специалисты так говорят. (не Бородачи)))
Хорошая видеокарта , покупать я её, конечно, не буду. Спасибо за тест, все по полочкам разложил.
В Израиле уже предзаказ на RTX 3090, с ценником в 2300$, свою RTX 2080 ti, покупал год назад с ценником в 1650$, так что походу это и будет цена этой карты у нас в стране, пожалуй, подожду 4000 серию )
одна и та же карта с дырочками от палит на всех каналах =)
А ты думаешь кто пишет все эти коментарии что я первый🤣
Значит эта карта лучшая по производительности и охлаждению?
@@Xalk444 нет, они первые начали рекламиться на ру-сегменте
Молодцы Palit. Не фанат их бренда, но рекламщики сработали как надо. Заслали всем, кому смогли чтобы первой картой на обзорах стала карта их производства. Дальше подкрутить цену у ретейлеров и всё.
@@rusTORK Это одна карта идёт по рукам, как и у всех брендов.
4:36 Интересно, провода при этом воняют? Если да, то это уже стрёмно. Потому, что изоляция на проводах будет постепенно слезать.
Не понял. А где тесты майнкрафта в 4к с ртх?
Учитывая, что майн на gt635 выдает 80-90 кадров.... или 60-70 с шейдерами, ну хз))
@@Kundysh_Channel Так RTX это не шейдеры. Minecraft c RTX нагружает систему очень сильно.
@@blackredvortex267 Соглашусь, когда найдешь РТХ на 635.
А если серьезно, то даже с РТХ на картах 30-й серии фпс будет более, чем заоблачный. Даже если лучи просадят его втрое.
Почему не включили отображение используемой видеопамяти, учитывая что в ней только 10гб, было бы интересно понаблюдать есть ли запас на будущее
Там в притык будет, я на 1080ти кучу игр перетестил, большинство игр в 4к жрет около 8.5 гб (после пары часов игры бывало, что до 10,5 догоняло), из-за этого собственно все карты с 8гб и задыхаются, добавь им 2 гига и они нормально будут работать.
@@blablabla4136 это очень печально, по сути искусственное занижение производительности от нвидиа (
По тестам в Adobe Premiere Pro. Очень прошу отключите "Наилучшее качество визуализации", оно не нужно в тестах и вообще не нужно, тестируйте на дефоте не надо никаких лишних галок ставить. Пресет "Match Source - Adaptive High Bitrate" не помню как в русской версии или "High Quality 2160p 4k" он на максимум качества все ставит (но лишних галок не ставит при этом).
В буждущих тестах в проф. приложениях, показывайте пожалуйста Диспетчер задач, чтобы можно было видеть что у вас грузится CPU, dGPU или iGPU. Может у вас отрубилось аппаратное кодирование и вы по сути процессор тестируете. Настройки экспорта в Premere показывайте целиком, прокрутите вниз.
Микрофон, что ли поменяли? Я не уверен , но в данном видео голос, звук просто шикарен
По сравнению с тобой другие обзорщики вообще молчали.
Gamers Nexus выпустил порядочное количество материалов по 30 серии - там и обзор архитектуры и сравнение версий pcie и разгон. Тест 3080 был еще дней 5 назад.
@@AVE10N. а кто делает?
@@AVE10N. откуда информация?)) Где вы все этот бред берете?
@@AVE10N. Сам придумал?
@@AVE10N. там где делает Олег, Сергей пишет в описании.
Да и слишком долго было бы, да и рабочие задачи только Сергей делает.
Так что, не тот тест)
Ждал именно этого обзора. Спасибо вам прохайтек!
Очень профессионально. Ждал этого теста. Спасибо за проделанную титаническую работу. Буду теперь ждать теста 3070.
Благодарю за видео. Очень ждал тестов новой карты. 👍
Radeon VII конечно хорош, держался молодцом. Лайк за обзор.
Угу, молодцом, последний в каждом тесте.
Для 4К слабовато, но в QHD ещё года 3 можно играть без проблем.
Всё же это король майнинга, для игр не лучшее решение.
Лично мне цвета больше нравятся на нём ))
@@78RSI не вижу причин заострять внимание на очевидных вещах, эти карты даже не из одного поколения.
по сравнению с Нвидиа "облезлые" цвета во всех прогонах. АМД ниЩьмогла.
Ура))) Ждал именно ваш обзор) полчаса кайфа)
Спасибо за видео! Как всегда на высоте!)
Единственное, лично я ожидал большего от карточки этой, но говорят версия на 20 гигов будет + может не разгонят сразу с завода и будет повеселее, 3090 все же избыточна, как я думаю, хотя посмотрим тесты от вас)
У меня монитор qhd 144гц. И не только у меня. А вы все, поголовно, как будто специально обходите этот режим. И мне бы хотелось так же узнать, на что способна 3080 в qhd 144
Я вижу подробный ролик с тестами и вы говорите "мы не будем проверять в квад эйчди с рт+длсс" (про батлу 5) да почему нет то? Зато в full hd проверяете. Рядовой человек не будет брать 3080 для full hd, а если найдется тот, кто будет, то и так понятно, что там фпс огромный и упор больше в процессор. Другое дело, что результаты для мониторов qhd 144 не совсем однозначные и хотелось бы знать эти нюансы, а вы просто их скипнули. Обидно (
Другие ведь игры проверяли в qhd
Думаю можно на них опереться и сделать вывод
@@bauyrzhankhassymov168 дело в том, что я очень много играю в батлу. Купил недавно Моник и жду 3080. И именно в этой игре они пропустили qhd(
@@clenbuterol4989 в каком магазине, какую именно 3080?
Спасибо, ждал тестов именно от вас, вообщем теперь буду ждать остальных карт и тестов)
Сергей, что то странное в этом выпуске со звуком, много каких то шумов, я не проверял, но на слух не очень
Очень информативный обзор!
Можно прийти к выводу, что аппаратная мощность растет, но, к сожалению, интересные проекты не выходят.
Прекрасная работа. Как раз то, чего я ждал. Однозначно, ВЫ - лучший канал в данной тематике на русскоязычном пространстве!
Единственные RU-техноблогеры, обзоры и тесты которых жду как обзоры и тесты от GamersNexus и HardwareUnboxed.
Спасибо за тесты, правда хотелось бы увидеть андервольтинг 3080 до 280 и 250 Вт
Полезный обзор, а что по нагреву коннектора питания? Так и не услышали.
дык показан этот момент на 4.25 - один 80 градусов , второй чутка меньше.
@@иванколобков-э7н Благодарю
Жду тест RTX 3090 в 4k и 8k
Борода, расставь темы, чтобы на таймлайне были видны разделы
Можно плашу с фпс в низ кинуть
А то смотрел на 0.1 % все время и думал то фпс
вооо...согласен!!! и ещё радеон 7 зеленит) болячка карты"
Как так получается что в блендер прироста нет, а в V-ray почти в 2 раза? Рендер идет на видеокартах с использованием cuda и там и там. Это сильно настораживает
UPD. Сделайте в след. раз бенч блендер BMW
Может V-Ray использует RT ядра, а Blender нет. В Блендере правда есть экспериментальная поддержка OptiX (можно выбрать между OptiX и CUDA), он как раз использует RT ядра.
@@nazardidkovskyi С лисой явно что-то не так, или настройки неправильные. Я смотрел много тестов от разных каналов. Отрыв также в 2 раза, как и в V-ray. Если не использует RT ядра, то все равно отрыв должен быть. Так как cuda ядер у 3080 гораздо больше чем у 2080S
Зашел на Реддит Нвидии и ужаснулся тому что некоторые подключают 3080 одним шнуром PCI-E разведенным на два 8-Пин коннектора. У меня кстати в блоке питания такие же проводки (Seasonic Ultra Prime Gold), но мне бы никогда в голову не пришло подключать таким макаром видяху. Страшно представить как там провод греется.
Провода греются только у супердешманских блоков типо аэрокула vx, с сисоником таких проблем точно не будет
Спасибо мужики, ждал обзора именно от вас, т.к. вы как обычно на все сто "отработали"!кому кому, а вам всегда можно было доверять, вы лучшие!
спасибо за тесты без DLSS, так как есть люди которые предпочитают нативное разрешение, плюс еще и со сглаживанием ;)
Наконец-то, ребята. Вот вашего обзора только и не хватало. Только вам и верю в этой помойке среди техноблогеров) спасибо за качество и скрупулезность!
А в Блендере вы использовали CUDA или OptiX? С OptiX у RTX 3080 преимущество должно быть ещё больше за счёт использования RT ядер для трассировки.
Съемка с тепловизором - это гуд. И раз уж он есть и смотрится температура коннекторов на карте - то неплохо бы добавить и кадры с задницы модульного БП. Там же тоже разъемное соединение и будет нагрев. А новый коннектор - исходя из того что было показано - греться будет больше (потому как проводов столькоже, но контакты мельче), а еще велика вероятность что его будут выдирать из платы с мясом, т.к. он на боку, а точек крепления немного и они мелкие.
Мне кажется, или на радеоне совсем другая цветопередача?🤔 И как-то приятнее картинка
не кажется. Это еще давно люди заметили, кто смотрел внимательно. Особенно заметно на всяких спец.эффектах или траве. Возможно, дело в большем объеме памяти, куда можно пихать текстуры такими, какими они были задуманы без сжатия. Мониторинга объема врама нету тут, а жаль.
Это просто наконец-то раскрыли потанцевал.
@@sheogh Нвидия с самого начала шаманит с настройками через драйвер, если замечали раньше, то в каждом драйвере они писали улучшена производительность а такойто игре на 20-40%, я поначалу искал в играх эти проценты но не нашёл, частично это полезно, нвидия исправляет графические косяки разработчиков игр, но при этом режет графон, очень страдает четкость, сейчас не так заметно потому что ютуб тоже сжимает видосы, но раньше часто сравнивал одну игру в сплитскрине на нвидии и радеоне, размытые текстуры отсутствие мелких и динамических теней, на нвидии, самое смешное они раньше полностью вырезали отражения, я офигел когда запустил сталкер на радеоне и увидел отражения на бинокле, и на других играх появились отражения, а на нвидии в этих местах каша из текстур, а теперь они ртх впаривают за дорого. А еще смешнее что с выходом нового поколения эта прибавка фпс за счет оптимизаций перестает поддерживаться на старых покалениях, например сейчас в новых играх 1000 поколение просядет.
она всегда отличалась так то!
Мне тоже так казалось,пока не включил в дровах нвидии цифровую интенсивность на 60-80%,и тогда все примерно тоже самое,по дефолту у амд цветопередача "сочнее".
Только подумал :"где тест от Бороды?"
Есть смысл ждать версии на 20 гб? Видеокарта вроде как мощная, но не будет ли упираться в 10 гб памяти, что не особо-то много на сегодняшний день?
Для 4к стоит, наверное. Для разрешений ниже - не факт.
мало конечно , да и 20гб маловато, надо 32гб минимум
@@retoxxx1 найс рофлы
@@atheris548 Даже для 4К не факт. Сомнительно, что кто-то будет делать игры, жрущие по 14-16Гб памяти, ориентируются-то на консоли и массовый сегмент, а там 6-8Гб.
@@useRUSSARB на консолях всегда средние или высокие текстуры, а иногда и низкие, вот им и хватает памяти, но на пк то никто не будет играть с таким качеством графики
можно вопрос? почему не тестите игры, где 8гб мало? например Колда Варзон в 2к ест всю память 1080ти, то есть 11гб и 11-12 озу и это на почти низких настройках. а что было бы на ультра да в 4к, хватило бы 10гб у 3080 или 2080ти в таком сценарии смотрелась бы выигрышнее, где бы плелась 2080(с) с её мизерными 8гб?
Показывал GRB там 8 гб в 4к не хватает
@@prohitec я вот жду, когда покажете, что 10гб не хватает 😉. а то меня тут уверяют что мне 8гб за глаза. уверен, что совсем скоро эту карту хором будут называть кастратом
Отличный обзор. Спасибо. Теперь понятно, что пока ещё можно подождать. Я думаю пока есть время обновить железо, ну и к этому времени можно и видяхи дождаться.
В коробке от видеокарты белой кошачей шерсти не было?
?
@@РоманПлишкин-х4ц шерсть от Алмазика.
@@user-DaniilDemin это видеоблогер такой?
@@РоманПлишкин-х4ц нет это кот Шелеста, он на эту карту сначала обзор снимал. Такой блогер, конечно не особо информативные видео, но смотреть приятно, много рекламы, но она не агрессивная.
а замеры температуры вы делали , до или после разбора видеокарты?
До, ну а после температура снизилась на 1 градус)
спасибо что без dlss есть тесты. Нужно без dlss сравнивать ещё с 1080)
Ох, сколько я ждал этот обзор, не несколько раз в день на канал заходил))
Хорошо 2080 Ti продал за 65к, без потерь (а то и с прибылью если из США везти) перейду на новый флагман.
Уж теперь точно на 2 поколения, а если intel внедрит pci-e 4 и microsoft реализует directStorage в теч 2 лет, то можно и 6 лет посидеть, бесплатный буст фпс)
Интересно увидеть разницу в рабочих приложениях у разных поколений Паскаль, Тьюринг и Ампер.
Вроде как тьюринги на гпу рендеринге заметно лучше паскалей. Тогда амперы лучше паскалей раза в 3-4 в рендере на GPU?
О, это я вовремя)))
Ребят, всем по 3080)
тзт вот не надо и так хочу себе 3080(
мне можно и 3070
MaxiZevs сколько будет стоить у нас в рф?
@@Mercurychka за фаундерс просят 63.5к на сайте Нвидиа. Рефы должны быть дешевле, но врядли ниже 55к будут.
Герцог Алемании цены демократичные )
У меня только один вопрос: электроподстанция в референсном исполнении поставляться будет?
Видео топ, просто очень качественно, спасибо большое, приятно всё
19:40 непонятно как это средние кадры у 2080S из 39 превратились в 45? При этом у всех остальных карт такого прыжка с этого же момента не наблюдается. Это вообще как?
Спасибо Серёга! Огромная работа проделана. Жду продолжение с новыми поступлениями.
У меня монитор FHD, и мне эта карта не интересна, я просто зашел посмотреть на тесты и поддержать PRO Hi-Tech
)
Сравните пожалуйста заодно сколько игры жрут видеопамяти. А то давно спор идёт про то сколько же нужно. С учётом RTХ + DLSS
у тебя компа ваще нету?
Браво! обзор с 2080ti, мое почтение)
Огромнейшее спасибо за тесты в монтажках и рендере!
Лучи добра от сердца!!!)
Потрясающе!
Хуанг добился своего - красавчик. Palit прям вырос в моих глазах до неприличных размеров.
Хороший обзор, хорошая видеокарта хороший обзорщик, что ещё нужно?
Жду 3060))
Как же приятно вас слушать . Очень грамотно и четко все . Респект !
Спасибо за рабочие тесты! Задолбало смотреть на игры!
6:50 3090 с 3080 тоже будет сравнение, надеюсь?)
Разница 10-15%
Спасибо за ролик! Добавлю, что в Blender тест вышел не показательным. Сценка лишь одна и не показывающая истинную картину вещей. На самом деле прирос огромный, как и в том же V-ray. Может быть 100%, а то и более, в зависимости от сцены.
почему PRO Hi-Tech не тестит железки в РДР2???
Лайк как всегда не глядя... Знаю что Интересно будет (ツ)
Ну вы поняли, лайк не глядя ;)
ждемс теперь 3090. На 3080 только в 800*600 играть....
Star RU какой? Сейчас все в гп упирается
@@НетопольЗвовтдуц ну с таким разрешением, что выше написали, все и правда упрется в проц))))
@@НетопольЗвовтдуц даже в FHD в процессор упирается, не видно?
У меня вопрос. Почему Вы показывая тесты скоростей рендеринга на видеокартах, не показываете длительности проектов в минутах. Это ведь ключевая информация. Ведь таким образом можно соразмерять, насколько быстро видеокарта рендерит ролик по сравнению с его длительностью. Обратите на это внимание. Спасибо за годный ролик. Лайк поставил.
Большая просьба, пролайкайте комментарий, чтобы его увидели. Спасибо.
Уважаемые бороды! Не могли бы вы к набору игр для сравнения производительности GPU добавить последний Doom?
17:05 с чем связана такая разница в цветах у карточек Nvidia и AMD?
вероятно забыли расширенный цветовой диапазон в драйверах на полный переключить
Вы такую же разницу можете заметить с прошлыми тестами радеона 7, в одном из обзоров бородачи даже уделили этому отдельное внимание. Картинка выглядит действительно по другому, в основном цвета чуть более сухие, но бывает и так что какой-нибудь дым в пубге выглядт качественней в разы, собственно на нём и приводили пример
цветовая палитра у них различалась всегда... так что ничего удивительного, кому то больше нравится картинка нвидии а кому то радиков, по мне у АМД более насыщенные цвета получаются.
@@Прохожий-е4ю на столько всегда что ещё никто ни разу не заметил эту разницу когда в тесте нет радеона 7
@@tenshizkadzuto3643 у АМД и Нвидии ВСЕГДА цветовые схемы были разные, можете спорить сколько вам угодно, но у меня были ВСЕ линейки карт начиная с первых ТНТ и Рэйджев, и с выходом первого Жирафа и Радика картинка у них сильно отличалась, так что этой теме уже больше 10 лет!
Вёз телегу лайков, но по дороге их расхватали боты, и теперь продают на ебее по 86 тысяч баксов... Но один я вам всё-таки донёс.
чтот в коментах не увидел полыхание - 5700 ХТ опустили ниже плинтуса....
Хотелось бы видеть информацию о использованной видеопамяти в каждом прогоне тестов.
Некоторые вякают что 10гб мало для 4к типа ждите карты с 20гб.
Говорите, что читаете комментарии, тогда надеюсь что увидите этот. Как владелец RTX2070, купленной на старте, очень бы хотелось увидеть сравнение с RTX3070, а не с 2070super. Пожалуйста! Хочу знать стоит ли обновляться.
Бороде респект!
Спасибо за обзор d:
20:07 Почему радеон выигрывает по тестам 2080s а в конечной таблице написано наоброт?
Спасибо за тесты в рабочих задачах! Очень интересно было посмотреть увеличение производительности в Vray. Жду видео с 3090 и тестами в 3д пакетах, надеюсь тоже удивит (оправдает свою цену)!
Да да да, даёшь тесты в рабочих приложениях. Сравнение паскаль, тюнинг и апмер
В свое время для QHD люди брали 2070(и super), при сравнении в этом разрешении было бы интересно увидеть сравнение именно с ними
Вся правда о RTX 3080 приходит в счете за электричество через месяц.
900-1000р чисто за комп с 400W потреблением из розетки. Взял максимум 5 КВт за 12 часов в день. При условии что каждый день по 12 часов играть в течение 30 дней.
Я за свою 2080Ti( за весь комп)в месяц плачу по сути 400-500 рублей.
Хах. Купить карточку за 60 штук и потом жалеть об увеличении расхода электроэнергии на 100 в месяц?
@@тов.Молотов Ты задротишь 12ч в сутки? Акуеть.
Виталий Сергеевич Lang это ещё лёгко) Когда отпуск дали и не так успевать будешь
@@vitalxbc чему ты удивляешься? 12ч это ещё по божески.
Blya, только видео включил и землетрясение началось 02:05 где-то(Иркутск).Пишу и руки трясутся,сыкотно как-то(не хило трясло)
Ничос, чё там живые все?
@@RixLeeman да вроде тихо стало.
@@RixLeeman Эпицентр на Байкале,это он трясет(Байкал как известно-это разлом плит тектанических).Что с населенными пунктами возле него неизвестно,инфы нет.
@@maxrusskiy2749 самое главное шоб пострадавших не было, спасибо за инфу
@@maxrusskiy2749 Это подгорело у тех, кто 2080ti купил накануне презентации Инвидиа. Ничего нового.
Доступные варианты... 1050ti - вставил и забыл, шобы ипать в каэс кго XD
"чувак тебе нужна другая карта" (C)
Ждал именно ваш тест, спасибо за вашу работу)
Добрый день. Возможно ли провести сравнение карт в RFO Benchmark. Или хотя бы сравнить FPS у карт при работе на стандартной сцене 3ds max или Revit. Если не хотите сильно растягивать ролик, можно добавить просто сслыку на результаты тестов. Жаль что вы не тестируете Quadro. Говорят они неплохо показывают себя в рабочих приложениях. Самостоятельно сравнивал Quadro M4000 - M5000 и игровые карты 10-ой серии, но космического прироста не заметил. Зарание спасибо от лица всех проектировщиков.
Первый нормальный тест на русскоязычном Ютубе. Спасибо.
Таким должен быть настоящий техноблогинг
"Мы оптимизировали работу вшитого в БИОС видеокарты майнера и этим достигли роста производительности в играх на треть." nVidia ))
Что за вздор? Какой еще майнер вшитый в биос? откуда вы это берёте, как в микрокод биоса зашить софтверный майнер???
@@mistershakur6306 тело майнера в драйвере, а контроллер в БИОС.
@@greengosha Пруфы этого есть? Или опять всё строится на том что "они это точно делают, потому что они плохие и вообще деньги с народа трясут" если бы так и было, то драйвера от nvidia уже давно бы разобрали на винтики, благо специалистов по reverse engenireeng'у в интернете достаточно. Всё это теории заговора беспочвенные, такие же как и про 5g и "чипирование" Биллом Гейтсом.
@@mistershakur6306 пруфов пока нет, голая конспирология. )
@@greengosha Понятно, ну это тогда вам на канал рен-тв, они подобным заниматься любят
Ждем обзор рефа, желательно с раскурочиванием СО. А то на ютубе никто не торопится что-то показывать, какой реф изнутри)
На FHD ждать младших карт не обязательно (если нет такой необходимости), ведь всегда можно использовать DSR на 4К это только улучшит качество, и будет чем нагрузить видеоосистему.