Короче, пацаны с FXами на 7Ггц - если лень смотреть все видео, то вам достаточно всего лишь знать, что ваши матери с PCIe 2.0 будут нормально работать с RTX 3080Ti
Ну как бы gen 4 на PCIe линиях рабочий, и он нужен, вот только не видеокартам, а ssd накопителям. А вообще и видеокартам полезен тоже, только когда их 3 штуки хотя бы. Линий на каждую карточку меньше, но скорость каждой линии выше. Тут вопрос не к маркетологам, а к покупателям, которые берут и не задумываются, а надо ли оно им.
@@MrBartalbi вот то-то и оно. народ, порой, рассуждает о компе в сферическом вакууме. А у меня, вот, на стареньком компе, во время игры утилитка (кривенькая, спору нет) к ИБП по юсб обращается - и хоп! - небольшой фриз. Мыши те же гемерские, с высокими скоростями "адаптивными оптическими датчиками" - тоже, по сути, жрут не только проц, но и от шинки откусывают. Вроде бы, чуть-чуть. А такого по чуть-чуть набрать можно - обалдеешь. ))
Вот буквально 3 дня назад искал информацию по такому сравнению, нашёл несколько роликов, преимущественно от англоязычных обзорщиков. Результаты у них получились такие же, разница между х16 и х8 близка к погрешности. Спасибо вам ребята, за актуальный контент, обзоры всегда информативные и интересные, с удовольствием смотрю ваши выпуски. Желаю дальнейшего процветания вашему каналу!
Всё верно, ведь шина в основном используется для подгрузок данных в видеопамять, она будет влиять только на скорость подгрузки текстур и геометрии в видеобуфер, на сам фпс она мало повлияет, если только не использовать устаревшие API, которые каждый кадр передавали геометрию видеокарте. Когда все данные уже в видеопамяти, процессор просто говорит видеокарте какие данные использовать. И собственно когда видеопамять полностью забита её часть будет храниться в оперативке и соответственно будет передаваться посредством шины, отсюда и разница в фпс. P.S. Как программист C++ и OpenGL
т.е. по сути надо мерить загрузку видеопамяти (насколько игра может заполнить видеопамять) и при переполнении следить есть ли фризы на экране? я так понимаю только во время перезаписи памяти возможен какой либо видимый эффект?
А есть ли материнки с несколькими полноценными x16 слотами? И может ли эта шина намного больше ролять, когда в видеобуфер будет загружено именно то, что мы видим и текстуры на следующий фрейм будут грузиться с ссд (как на новых консолях)?
@@xXxFearmenXxX а) если у тебя переполняется буфер памяти то нужно не на фризы смотреть, а снижать качество текстур, либо менять ВК, но это так, для справки)))))0 Яркий пример R9 FURY X: 1)бешеный чип, 2)мощное ПСП, 3)морально устаревший объем буфера на момент анонса ВК( 4гб ) . б) Если чип ВК слабый, то "какой либо видимый эффект" возможен и без заполнения буфера карты. Тут пример GTX 730 4гб. 1)слабый чип 2)слабое все 3)объем памяти как у бешаной фуры икс
@@xXxFearmenXxX Обычно чтобы шина значительно использовалась нужно одно из двух: 1) Видеопамять переполнена, и нужна информация которой в ней нет, но возможно есть в оперативной или постоянной памяти (в файле подкачки). 2) Во время загрузки игры или подгрузки объектов (в играх с открытым миром или сложными локациями). Во всех остальных случаях шина будет задействована только для запросов от CPU к GPU, которые незначительно её используют. Также не стоит забывать о том, что всё зависит от конкретной игры, кто знает, что там программисты начудили.
Ведь можно же посмотреть загрузку шины PCIe (PCIe Bandwidth Utilization:) и решить на сколько её хватает или нет. И было бы интересно увидеть в таком видео ещё и этот график.
зачем измерять когда можно прочитать: "В случае AMD Radeon R9 290X, вы смотрите до 320 ГБ / с. GeForce GTX 780 Ti от Nvidia рассчитан на скорость до 336 ГБ / с. Максимальная пропускная способность PCIe 3 15,75 ГБ с 16 линиями"
@@vgamzatov не понятно причем тут это. Видеокарта получает на такой скорости данные, и уж потом в своем буфере делает с ней что хочет на скорости 336 либо 120,80,40. На pci-e ей же пофиг. Другое дело, что с более быстрым pci-e есть смысл разгонять общую память ддр4, при нехватке видеопамяти.
Потому что пропускная способность линий PCIe x8 gen 3 на сегодняшний день избыточна для видеокарт, она способна пропускать больше, чем видеокарта способна обрабатывать информации. Никакой магии, только цифры. Спасибо за тест, очень полезно для тех, кто не любит читать и смотреть спецификации.
@@alastorcrow8355 у меня однажды 1080 в х2 работала именно. И я реально не почувствовал. Понятное дело, что разница наверняка была, но столь незначительная, что геймплей необходимых игр был по ощущениям идентичен=) Да-да, без шуток х2 работала карта. Это к вопросу о "необходимости" 4.0 поколения.
Бородатые красавчики! У самого возникала дилемма такого рода: установил GTX-1660Ti в слот PCI-ex 2.0 x8 ввиду конструктивных особенностей корпуса. Досадно было терять производительность. ПО грубым прикидкам разница с полноскоростным составляла до 7%, что похоже на правду, учитывая получившиеся ваши 6%. Благодарен за этот выпуск особо, ибо прямо-таки в кассу, что называется! P.S.: спасли корпус от ножовки по металлу)))
Спасибо, почему-то видеокарта работает х8, и биос обновлял , сокет и ножки на замятие смотрел , все чистил выдувал , а все равно х8 , дело скорее всего в матери , хотя мси х470 Ваше видео успокаивает, еще раз спасибо )
Не ожидал, что результаты будут именно такими, думал будет разница более заметна. Но нет, и это, честно говоря, даже порадовало. Спасибо за грамотный обзор!
Ширина/скорость канала скорее должна влиять на прогрузку/выгрузку данных в/из видеокарты. Т.е. разницу можно увидеть по скорости прогрузки уровней/локаций в играх. В условиях, когда все данные уже загружены или подгружаются небольшими порциями, неизменность результатов скорее ожидаемое событие, чем неожиданное.
Пробовал х8 ставить, в бенчмарке вроде почти не меняется фпс, но в игре местами (возможно когда подгружаются новые текстуры) заметны небольшие кратковременные падения фпс. Проверял на gtx 1070.
Большое спасибо за тест! Хотел взять себе NVME на 2ТБ под игры, но он порежет мой PCI-E x16 до х8. Переживал за производительность моей 2060. Оказалось зря)
Вот такие ролики показывают качество канала: когда результат предсказуем, то скучно. А тут не только интересно было узнать что получится, но еще и последнее решение с "ненормальными" настройками очень порадовал. Спасибо!
Спасибо! А ведь много народу думает что в Х8 карта в два раза менее производительнее. Еще бы хотелось увидеть как падает производительность *4х* в работе рендера.
Только в Редшифте будет разница. Но нужна сцена, которая в память видяхи не влазиет. В остальных GPU рендерах не будет разницы, если сцена внутри памяти видяхи помещается.
@@Afit4.5.0 Он своим неординарным комментом помог собрать еще 3 дополнительных комментария с переизбытком слов) Можно ли утверждать, что его 2 слова не помогли каналу?
Четыре! Четыре мать его года назад Паша с канала Этот Компьютер пояснил, что такое PCIe express и его влияние на ФПС в играх, но в 2020м мы все еще продолжаем слушать охренительные истории о том, что версии этого интерфейса ни на что не влияют при тестировании без упора в видеопамять. Так можно и процы в 50%-процентной нагрузке потестить и на недогруженные видеокарты посмотреть. Че нет то? У многих людей пооставались на руках видеокарты с 2 гигами видеопамяти, а во многих новых играх минимальное потребление видеопамяти 2,5 гига и думаю они заслуживают знать то, что пихая эти видеокарты в слоты с пропускной способностью ниже той, что поддерживает их карта, они теряют значительный кусок производительности. Но мы же все сидим на 3080, а кто вообще эти бичары с GTX 1050, про охренительность которой орали все техноканалы? "Нереалистичные настройки", ну попробуй выставить минималки в Metro Exodus, Doom Eternal, RDR2 так, чтобы потребляло меньше 2 Гб видеопамяти без шаманства в конфиг-файле. Уважаемые, PRO Hi-Tech, ваша аудитория не состоит исключительно из тех у кого видеокарты с 8Gb видеопамяти. Есть люди сидящие на флагманах былых времен вроде тех же GTX 770 и 780, которые в принципе еще что-то могут в играх, но наслушавшись таких вот историй про "нет разницы" эти люди начнут пихать свои пожилые видеокарты в слоты x4 или gen 2, и получат двухкратное падение производительности. Но разницы нет, ведь так? Прохайтек же пиздеть не будет.
Лучший из лучших во всех видео Ни одного слова паразита из числа эмоциональных субъективных только конкретные цифры и параметры в сравнении почти лабораторно научно академический технический уровень
блин спасибо за обзорю. буцквально пару дней назад когда хотел вытащить из фермы вторую 2080ти чтоб поиграть в 4к нашёл инфу что у моей материнки при задействовании второго писиайэкс на обоих активируется режим икс8. начал гуглить инфу а ненашёл) и тут вы как спасители)) просто мостик NVLINK стоит от 5к и покупать его для пары дней выходных и с перспективой неизменной происзводительности на двух картах как то не хотелось) спасибо ещё раз)
Difference in speed, only at 8:45 p.m. And that, it was specially done to force at least somehow, to show the load of lines. They increased the use of graphics, to such a level that the memory of the video card - was not enough. Because of what the video card, began to load data, from the RAM. And it turned out to be an 6% difference in speed. Bigger it was not possible
Некоторое время назад на моей материнке помер основной слот pci-e, и теперь моя gtx 1080 стоит во втором слоте pci-e, который максимально поддерживает лишь режим 2.0 х4. И, к сожалению, этого для неё категорически не хватает. Мало того, что во многих играх я заметил падение фпс, так еще и напряжение на видяхе пришлось поднять примерно на 0.080в, просто чтобы она продолжила работать на прежних частотах. К чему это я? Да просто болью поделился :D
Приветствую! Уже по сложившейся, доброй традицыи, видео вышло очень хорошим, понятным и познавательным! Если до просмотра я ещё сомневался ставить ли м2 вместо ссд, то теперь окончательно решил, и поставлю :) Спасибо Вам! Здоровья и добра!
@@Vadim_Andr. не определил, просто думал что 16х даст значительный прирост, так как у меня в одно слоте стоит ssd не мог проверить так это или нет. хотел уже Винду переставлять на другой ssd. Но теперь не буду.
Вывод памяти видеокарты должно хватать под поставленные задачи. Иначе получите снижение производительности из-за более медленных шины PCIe и оперативной памяти. Скорость работы: видеопамять 2080 ti - 616 Гбайт/с, PCI Express 4.0 на 16 линиях - 31,5 Гбайт/с, оперативная память DDR4-3200 - 25.6 Гбайт/с, на 1 планку. Получается PCI Express самое слабое звено. Спасибо за вашу работу на канале много интересной информации.
Спасибо, купил RX 6600XT оказалось у неё 8 линий. Запускается на Den3*8 на моей материнке, сначала расстроился, посмотрев несколько обзоров упокоился :) В тестах показатели в тех же диапазонах. Так что это так и есть, как у вас описано.
@Ycuko 3600, ну наверно на 4к и бывают фризы. пока играю в Киберпанк на которых предложила игра (ультра 1080р). всё нормально. ну будут фризы, прийдется что то менять. Из нескольких обзоров я понял, фризы могут появляться когда не хватает видеопамяти и видяха берет из оперативки, обмен данными же меньше из-за этого и фризы. Тут или нет я этот момент заметил, не помню.
Как итог - единственная видимая разница от этих переключателей скоростей, которую ты сможешь скорее всего и не заметить, если твоя видеокарта работает взахлеб. Спасибо. Возможно это видео поможет многим молодым людям понять, куда девать эти лозунги маркетологов - быстрее, шустрее, новее.
Наконец-то хоть кто-то догадался выйти за предел видеопамяти. Теперь я точно знаю, что четырёхканальный режим работы компьютера - очень полезная вещь. + пися экспресс 3 - 4 поколения очень сильно помогает в независимости. От частоты оперативной памяти.
Доброго времени суток. Комментарии читать конечно страшно, ну это собственно как и везде) Приведу свой пример касательно работы gen2 и gen3. У меня x79 платформа и 3930k в разгоне до 4,7, на ней без патча по умолчанию только gen2 , с патчем gen3 (nvidia) , так вот с одной видеокартой что ген2 что ген3 заметной разницы конечно нет, но зато она появляется если потестить sli (в моём случае из 2* 1070). Пример ведьмак 3 1440р: (gen2:загрузка обоих видеокарт ~60,65% и около 90 фпс,gen3: загрузка обоих видеокарт ~95% и 150-160 фпс , тоже самое во всех остальных играх где нормально работает sli, с ген2 не полная загрузка видео, с ген3 уже обе карты 90+ , мой вам совет потестите sli из 2 или более видеокарт с gen2 gen3 и gen4 , опять же может зависить от платформы, т к у меня без ген3 sli нормально не нагружается что в стоке что в разгоне)
Отлично ! Спасибо ! У меня gtx 980 ti погнатый в капец стоит на pcie 2.0 x8 во втором х8 стоит ocz revodrive. Я такое же иследование проводил когда мое древнее железо было еще актуальным. Pcie 2.0 - потому что проц больше не умеет, 2600к. Разницы у меня тоже было 2-3 фпс в замерах.
По идее пропускная способность шины должна влиять не на производительность построения кадра, а на загрузку полезных данных (текстур и т.п.) в видеопамять. Ну т.е. на скорость загрузки уровней в играх, а не на сам игровой процесс как таковой. Причём тут узким местом может стать и ОЗУ, и ПЗУ, и процессор. Всё же, спасибо за тест.
интересно было бы посмотреть на тот же тест для нейронных сетей и CUDA. там как раз копирование данных на карту и обратно является узким местом. хотя провести его будет тяжелей. в том плане, что нужно будет придумать честный эксперимент
Еще лет 10 назад, если не больше, выяснял для себя вопрос важности этих количества этих иксов (т.е линий) pci-e, и еще с тех пор запомнил, что, в целом, это все очень некритично и сильно заморачиваться по более низкой версии pci-e или о меньшем количестве линий не нужно. Поэтому, увидев название ролика, испытал сперва скепсис, а потом подумал, уж столько лет прошло, количество транзисторов на чипах выросло очень серьезно, скорости и объемы информации также возросли, вон в последних тестах скорость оперативной памяти значительно влияла на итоговую производительность. Но нет, время-то идет, ревизии pci-e все обновляют, хотя в пропускную способность тут ничего по-прежнему не упирается
РАЗНИЦА ЕСТЬ, КОГДА ДАННЫЕ НАДО ОБРАТНО НА МАТЕРИНКУ ГНАТЬ! Из практики: используется HTC Vive Pro wireless. Была проблема с контактом проца, и видеокарта работала на 8х. А так как с беспроводной системой данные с видеокарты передаются по PCI на беспроводной адаптер, эта система ужасно лагала. Потом снял, почистил проц и поставил обратно. Видеокарта заработала на 16х и пропускной способности хватило.
Скорость нужна не видеокарте, а задаче, которая на карте выполняется. Если на вашу карту активно будет подаваться большое к-во информации, то можно будет заметить существенную разницу между разными установками PCI-e. Как правильно было замечено, для добычи новых блоков в блокчейне картам не нужна высокая пропускная способность. С другой стороны, например, в задачах обучения нейронных сетей, количество активных линий играет важную роль и в таких случаях целесообразно строить системы на основе ThreadRipper или Intel Xeon, которые поддерживают большое к-во каналов PCI-e.
У Gecid был тест более большой. Там результаты весьма похожи. И все же новая версия с большой пропускной способностью нужна. Не у всех есть 8+ Гб под текстуры, а благодаря высокоскоростной ОЗУ можно значительно компенсировать разрыв между картами с разным количеством памяти. Так что прогресс и только прогресс.
Можно уменьшить количество линий на ГПУ и освободить их под накопители. А ещё более высокая пропускная способность повысит эффективность mGPU, если ее конечно будут реализовывать а играх
да пора признать что все эти карточки с 4 и 6 Гб видео уже пережиток прошлого. С выходом новых консолей с 16Гб памяти на борту подтянут текстуры в играх и никакой своп в ОЗУ уже не поможет
Короче, пацаны с FXами на 7Ггц - если лень смотреть все видео, то вам достаточно всего лишь знать, что ваши матери с PCIe 2.0 будут нормально работать с RTX 3080Ti
и 4080Ti и не перегреются =))
Я думаю владельцы в курсе и без видео об этом факте...
@@robak904 верёвку возьмите за 8 лет фикус вырастет так просто не слезть 😁
7герц...фх???ну ты ваще)
ЗОЖ1922[PROТанки] FX можно разогнать практически до 9 ГГц
Hello from California, I dont understand the language but the charts helped!
use subs Luke!
Борода - гроза маркетологов! 😁👌
Ну как бы gen 4 на PCIe линиях рабочий, и он нужен, вот только не видеокартам, а ssd накопителям. А вообще и видеокартам полезен тоже, только когда их 3 штуки хотя бы. Линий на каждую карточку меньше, но скорость каждой линии выше. Тут вопрос не к маркетологам, а к покупателям, которые берут и не задумываются, а надо ли оно им.
@@MrBartalbi вот то-то и оно. народ, порой, рассуждает о компе в сферическом вакууме.
А у меня, вот, на стареньком компе, во время игры утилитка (кривенькая, спору нет) к ИБП по юсб обращается - и хоп! - небольшой фриз.
Мыши те же гемерские, с высокими скоростями "адаптивными оптическими датчиками" - тоже, по сути, жрут не только проц, но и от шинки откусывают. Вроде бы, чуть-чуть. А такого по чуть-чуть набрать можно - обалдеешь. ))
Вот буквально 3 дня назад искал информацию по такому сравнению, нашёл несколько роликов, преимущественно от англоязычных обзорщиков. Результаты у них получились такие же, разница между х16 и х8 близка к погрешности. Спасибо вам ребята, за актуальный контент, обзоры всегда информативные и интересные, с удовольствием смотрю ваши выпуски. Желаю дальнейшего процветания вашему каналу!
Всё верно, ведь шина в основном используется для подгрузок данных в видеопамять, она будет влиять только на скорость подгрузки текстур и геометрии в видеобуфер, на сам фпс она мало повлияет, если только не использовать устаревшие API, которые каждый кадр передавали геометрию видеокарте. Когда все данные уже в видеопамяти, процессор просто говорит видеокарте какие данные использовать. И собственно когда видеопамять полностью забита её часть будет храниться в оперативке и соответственно будет передаваться посредством шины, отсюда и разница в фпс.
P.S. Как программист C++ и OpenGL
т.е. по сути надо мерить загрузку видеопамяти (насколько игра может заполнить видеопамять) и при переполнении следить есть ли фризы на экране? я так понимаю только во время перезаписи памяти возможен какой либо видимый эффект?
@@xXxFearmenXxX да эффект будет заметен когда памяти не будет хватать, но не фризы а просто падение производительности
А есть ли материнки с несколькими полноценными x16 слотами? И может ли эта шина намного больше ролять, когда в видеобуфер будет загружено именно то, что мы видим и текстуры на следующий фрейм будут грузиться с ссд (как на новых консолях)?
@@xXxFearmenXxX а) если у тебя переполняется буфер памяти то нужно не на фризы смотреть, а снижать качество текстур, либо менять ВК, но это так, для справки)))))0
Яркий пример R9 FURY X:
1)бешеный чип,
2)мощное ПСП,
3)морально устаревший объем буфера на момент анонса ВК( 4гб )
.
б) Если чип ВК слабый, то "какой либо видимый эффект" возможен и без заполнения буфера карты.
Тут пример GTX 730 4гб.
1)слабый чип
2)слабое все
3)объем памяти как у бешаной фуры икс
@@xXxFearmenXxX Обычно чтобы шина значительно использовалась нужно одно из двух:
1) Видеопамять переполнена, и нужна информация которой в ней нет, но возможно есть в оперативной или постоянной памяти (в файле подкачки).
2) Во время загрузки игры или подгрузки объектов (в играх с открытым миром или сложными локациями).
Во всех остальных случаях шина будет задействована только для запросов от CPU к GPU, которые незначительно её используют.
Также не стоит забывать о том, что всё зависит от конкретной игры, кто знает, что там программисты начудили.
Как хорошо, что есть те, кто делает все эти тесты!😄спасибо вам, ребята!👍🏼
Ведь можно же посмотреть загрузку шины PCIe (PCIe Bandwidth Utilization:) и решить на сколько её хватает или нет.
И было бы интересно увидеть в таком видео ещё и этот график.
зачем измерять когда можно прочитать: "В случае AMD Radeon R9 290X, вы смотрите до 320 ГБ / с. GeForce GTX 780 Ti от Nvidia рассчитан на скорость до 336 ГБ / с. Максимальная пропускная способность PCIe 3 15,75 ГБ с 16 линиями"
Подскажите пожалуйста где посмотреть этот банк свечи утилизация
@@ДимаДракон-ш8з в gpu-z есть датчик контроллера памяти, но эт не то.
да что ее смотреть когда тут 1660s уже максимальная разница 11%
@@vgamzatov не понятно причем тут это. Видеокарта получает на такой скорости данные, и уж потом в своем буфере делает с ней что хочет на скорости 336 либо 120,80,40. На pci-e ей же пофиг. Другое дело, что с более быстрым pci-e есть смысл разгонять общую память ддр4, при нехватке видеопамяти.
Потому что пропускная способность линий PCIe x8 gen 3 на сегодняшний день избыточна для видеокарт, она способна пропускать больше, чем видеокарта способна обрабатывать информации. Никакой магии, только цифры. Спасибо за тест, очень полезно для тех, кто не любит читать и смотреть спецификации.
Вот это качество качество подачи информации! Спасибо, только недавно искал данные по этой теме.
Какое качество?
@@Vadim_Andr. Высший сорт
Круто)спасибо)
Вега 56 два месяца работала в pcie3x2, пока не впомнил и не вернул в слот16.. Разницы особо не чувствовал
Pci-E 3.0 x2? Уж там бы ты разницу точно почувствовал.
@@alastorcrow8355 возможно Леонид имел в виду второй слот, т.к. делитель x2 обычно в SSD используется
@@alastorcrow8355 да, ошибся х4, конечно же
@@alastorcrow8355 у меня однажды 1080 в х2 работала именно. И я реально не почувствовал. Понятное дело, что разница наверняка была, но столь незначительная, что геймплей необходимых игр был по ощущениям идентичен=) Да-да, без шуток х2 работала карта. Это к вопросу о "необходимости" 4.0 поколения.
@@NCGamesRU подожди а как это проверить не понял
Бородатые красавчики! У самого возникала дилемма такого рода: установил GTX-1660Ti в слот PCI-ex 2.0 x8 ввиду конструктивных особенностей корпуса. Досадно было терять производительность. ПО грубым прикидкам разница с полноскоростным составляла до 7%, что похоже на правду, учитывая получившиеся ваши 6%. Благодарен за этот выпуск особо, ибо прямо-таки в кассу, что называется! P.S.: спасли корпус от ножовки по металлу)))
Спасибо, почему-то видеокарта работает х8, и биос обновлял , сокет и ножки на замятие смотрел , все чистил выдувал , а все равно х8 , дело скорее всего в матери , хотя мси х470
Ваше видео успокаивает, еще раз спасибо )
Не ожидал, что результаты будут именно такими, думал будет разница более заметна. Но нет, и это, честно говоря, даже порадовало. Спасибо за грамотный обзор!
Чуть-чут не успели с с видео, подобное видео сделал другой канал днём ранее.) Но у вас как всегда, все на высшем...!)
Ширина/скорость канала скорее должна влиять на прогрузку/выгрузку данных в/из видеокарты. Т.е. разницу можно увидеть по скорости прогрузки уровней/локаций в играх.
В условиях, когда все данные уже загружены или подгружаются небольшими порциями, неизменность результатов скорее ожидаемое событие, чем неожиданное.
Наконец-то я дождался подобного видео, спасибо за проделанную работу.
в 2022году нашёл ответ на свой вопрос с вашем ролике. Лучшие
Молодцы! Топ обзор. Благодарю за труды. Лукас поставил и перешёл по ссылке) Продолжайте, с удовольствием смотрю ваши видео.
Привет, Сергей! Ты лучший видеолблогер. Спасибо за видео!
Всего 10 минут видео,а сколько труда и времени потрачено,красавчики
Вот это поворот! Красавец, самая актуальная инфа, как обычно) спасибо за тесты
Пробовал х8 ставить, в бенчмарке вроде почти не меняется фпс, но в игре местами (возможно когда подгружаются новые текстуры) заметны небольшие кратковременные падения фпс.
Проверял на gtx 1070.
на сколько падал фпс?
Большое спасибо за тест! Хотел взять себе NVME на 2ТБ под игры, но он порежет мой PCI-E x16 до х8. Переживал за производительность моей 2060. Оказалось зря)
Спасибо , давно мучил этот вопрос но руки не доходили узнать )
Вот такие ролики показывают качество канала: когда результат предсказуем, то скучно. А тут не только интересно было узнать что получится, но еще и последнее решение с "ненормальными" настройками очень порадовал. Спасибо!
Спасибо! А ведь много народу думает что в Х8 карта в два раза менее производительнее.
Еще бы хотелось увидеть как падает производительность *4х* в работе рендера.
Скорее всего никак. Если при рендере всё влезает в видеопамять одним куском, то этап загрузки обычно далеко не самая затратная по времени операция.
мне тоже х 4 интересна
Только в Редшифте будет разница. Но нужна сцена, которая в память видяхи не влазиет. В остальных GPU рендерах не будет разницы, если сцена внутри памяти видяхи помещается.
зашел, чтобы перейти по ссылкам. ну и заодно посмотрел обзор. как всегда полезная инфа
Отличный день!
отсыпь
Как же 5 тысяч рублей в месяц получай ка посмотрим сколько радостей будет 🤔😱😯☹️
@@Afit4.5.0 Он своим неординарным комментом помог собрать еще 3 дополнительных комментария с переизбытком слов) Можно ли утверждать, что его 2 слова не помогли каналу?
Спасибо сэры за качественный техно-блоггинг)
Спасиб. Давно хотел получить ответ на этот вопрос не тратя время.
Четыре! Четыре мать его года назад Паша с канала Этот Компьютер пояснил, что такое PCIe express и его влияние на ФПС в играх, но в 2020м мы все еще продолжаем слушать охренительные истории о том, что версии этого интерфейса ни на что не влияют при тестировании без упора в видеопамять. Так можно и процы в 50%-процентной нагрузке потестить и на недогруженные видеокарты посмотреть. Че нет то? У многих людей пооставались на руках видеокарты с 2 гигами видеопамяти, а во многих новых играх минимальное потребление видеопамяти 2,5 гига и думаю они заслуживают знать то, что пихая эти видеокарты в слоты с пропускной способностью ниже той, что поддерживает их карта, они теряют значительный кусок производительности. Но мы же все сидим на 3080, а кто вообще эти бичары с GTX 1050, про охренительность которой орали все техноканалы? "Нереалистичные настройки", ну попробуй выставить минималки в Metro Exodus, Doom Eternal, RDR2 так, чтобы потребляло меньше 2 Гб видеопамяти без шаманства в конфиг-файле. Уважаемые, PRO Hi-Tech,
ваша аудитория не состоит исключительно из тех у кого видеокарты с 8Gb видеопамяти. Есть люди сидящие на флагманах былых времен вроде тех же GTX 770 и 780, которые в принципе еще что-то могут в играх, но наслушавшись таких вот историй про "нет разницы" эти люди начнут пихать свои пожилые видеокарты в слоты x4 или gen 2, и получат двухкратное падение производительности. Но разницы нет, ведь так? Прохайтек же пиздеть не будет.
Лучший из лучших во всех видео Ни одного слова паразита из числа эмоциональных субъективных только конкретные цифры и параметры в сравнении почти лабораторно научно академический технический уровень
И тут не поспоришь .Речь на высоте и качество .Молодцы
Здравствуйте! Спасибо за ваш контент - очень полезный и познавательный.
Оч интересно. Давно искал данные тесты. Спасибо
блин спасибо за обзорю. буцквально пару дней назад когда хотел вытащить из фермы вторую 2080ти чтоб поиграть в 4к нашёл инфу что у моей материнки при задействовании второго писиайэкс на обоих активируется режим икс8. начал гуглить инфу а ненашёл) и тут вы как спасители)) просто мостик NVLINK стоит от 5к и покупать его для пары дней выходных и с перспективой неизменной происзводительности на двух картах как то не хотелось) спасибо ещё раз)
насчёт 3 ВИНТЕЛЯТОРОВ старших картах подтверждаю) лето двух куллерки 2080ти очень сильно греются) открытый корпус или нет неважно
Эх! немножко поздно для меня тест прошел) Месяц назад боялся просадки из-за установки М2 на доп линии pci... выяснил то-же что и Вы)))
Все благодарю, я это и так знал просто надо было подтверждение. Оставлю старую для рендера стримов, и записи
Thanks, great test. I was looking for such long time :)
Difference in speed, only at 8:45 p.m. And that, it was specially done to force at least somehow, to show the load of lines. They increased the use of graphics, to such a level that the memory of the video card - was not enough. Because of what the video card, began to load data, from the RAM. And it turned out to be an 6% difference in speed. Bigger it was not possible
Спасибо за тесты! Чётко и ясно показали!))
Прям к обеду на работе. Спасибо!
Некоторое время назад на моей материнке помер основной слот pci-e, и теперь моя gtx 1080 стоит во втором слоте pci-e, который максимально поддерживает лишь режим 2.0 х4. И, к сожалению, этого для неё категорически не хватает. Мало того, что во многих играх я заметил падение фпс, так еще и напряжение на видяхе пришлось поднять примерно на 0.080в, просто чтобы она продолжила работать на прежних частотах. К чему это я? Да просто болью поделился :D
Спасибо за тесты! Это очень круто!
люблю ваш контент Бородачи!!!♥
Приветствую! Уже по сложившейся, доброй традицыи, видео вышло очень хорошим, понятным и познавательным! Если до просмотра я ещё сомневался ставить ли м2 вместо ссд, то теперь окончательно решил, и поставлю :) Спасибо Вам! Здоровья и добра!
Привет, тоже думаю поставить, но проц только одну линию x16 даёт. У меня gtx 1060 3gb и как работает у вас всё нормально ? Ничего не глючит ?
@@markkmithen8203 приветствую! Всё работает отлично. Материнская карта asrock b 365 pro, процессор i5 9400f, видео inno 3d 1070
Сержик молодца, спс за обзор он был чудесный:))++
Спасибо! Как раз на днях задумался об этом, а вот и ответ!
с детства мучал этот вопрос - сильно ли плохо pci 8x. спасибо за исследование.
Спасибо! А то я переживал что у меня видеокарта на 8x работает в половину мощности.
Хз как ты определил половину..
@@Vadim_Andr. не определил, просто думал что 16х даст значительный прирост, так как у меня в одно слоте стоит ssd не мог проверить так это или нет. хотел уже Винду переставлять на другой ssd. Но теперь не буду.
Аналогично - купил ssd с слотом pci-e. Gpuz говорил что карта в режиме х8. Тоже переживал. Теперь успокоился. Спасибо автору.
Обожаю ваш канал :)
Офигенно сыграл, красава) Я бы не додумался до такого и топил бы до талого уже)))
Спасибо! отличный материал. Успехов!
Коротко и ясно! Спасибо большое за проделанную работу. По тестам ясно, что надо брать 2080ti )))
100к за одну только карту. У меня вся пекарня стоит 60 KEKW.
Вывод памяти видеокарты должно хватать под поставленные задачи. Иначе получите снижение производительности из-за более медленных шины PCIe и оперативной памяти. Скорость работы: видеопамять 2080 ti - 616 Гбайт/с, PCI Express 4.0 на 16 линиях - 31,5 Гбайт/с, оперативная память DDR4-3200 - 25.6 Гбайт/с, на 1 планку. Получается PCI Express самое слабое звено. Спасибо за вашу работу на канале много интересной информации.
Спасибо, купил RX 6600XT оказалось у неё 8 линий. Запускается на Den3*8 на моей материнке, сначала расстроился, посмотрев несколько обзоров упокоился :) В тестах показатели в тех же диапазонах. Так что это так и есть, как у вас описано.
@Ycuko 3600, ну наверно на 4к и бывают фризы. пока играю в Киберпанк на которых предложила игра (ультра 1080р). всё нормально. ну будут фризы, прийдется что то менять. Из нескольких обзоров я понял, фризы могут появляться когда не хватает видеопамяти и видяха берет из оперативки, обмен данными же меньше из-за этого и фризы. Тут или нет я этот момент заметил, не помню.
Приятный голос у мужика, да и видео полезное, успокоил. ))
Как же я люблю ваш канал 👍
Как итог - единственная видимая разница от этих переключателей скоростей, которую ты сможешь скорее всего и не заметить, если твоя видеокарта работает взахлеб. Спасибо. Возможно это видео поможет многим молодым людям понять, куда девать эти лозунги маркетологов - быстрее, шустрее, новее.
как всегда на высшем уровне!!!
Лайк не глядя!:) ну и заморочились!:)
Спасибо за тест! Сразу всё стало понятно)
отличная передача огромное спасибо
Наконец-то хоть кто-то догадался выйти за предел видеопамяти. Теперь я точно знаю, что четырёхканальный режим работы компьютера - очень полезная вещь. + пися экспресс 3 - 4 поколения очень сильно помогает в независимости. От частоты оперативной памяти.
Спасибо за данный тест, интересовал этот вопрос.
Как всегда лучшие!
Хороший тест и сравнение. Буду знать.
Спасибо за ваш канал!
Спасибище за этот ролик!
Доброго времени суток. Комментарии читать конечно страшно, ну это собственно как и везде) Приведу свой пример касательно работы gen2 и gen3. У меня x79 платформа и 3930k в разгоне до 4,7, на ней без патча по умолчанию только gen2 , с патчем gen3 (nvidia) , так вот с одной видеокартой что ген2 что ген3 заметной разницы конечно нет, но зато она появляется если потестить sli (в моём случае из 2* 1070). Пример ведьмак 3 1440р: (gen2:загрузка обоих видеокарт ~60,65% и около 90 фпс,gen3: загрузка обоих видеокарт ~95% и 150-160 фпс , тоже самое во всех остальных играх где нормально работает sli, с ген2 не полная загрузка видео, с ген3 уже обе карты 90+ , мой вам совет потестите sli из 2 или более видеокарт с gen2 gen3 и gen4 , опять же может зависить от платформы, т к у меня без ген3 sli нормально не нагружается что в стоке что в разгоне)
Я вот жду теста 10700к( НО и за это видео отдельное спасибо!
Отлично ! Спасибо ! У меня gtx 980 ti погнатый в капец стоит на pcie 2.0 x8 во втором х8 стоит ocz revodrive. Я такое же иследование проводил когда мое древнее железо было еще актуальным. Pcie 2.0 - потому что проц больше не умеет, 2600к. Разницы у меня тоже было 2-3 фпс в замерах.
Как всегда годно! Так держать!
Прическа модная, а борода на месте) за рооик спс.
Интересно, интересно?! Класс :) 💪👌👍
Спасибо за вашу работу!!!!!!!
Ты лучший техноблогер!
По идее пропускная способность шины должна влиять не на производительность построения кадра, а на загрузку полезных данных (текстур и т.п.) в видеопамять. Ну т.е. на скорость загрузки уровней в играх, а не на сам игровой процесс как таковой. Причём тут узким местом может стать и ОЗУ, и ПЗУ, и процессор.
Всё же, спасибо за тест.
ну так то да, но по какой то причине разница в 1% есть
Спасибо за выпуск, коротко и ясно
По превью подумал,что будет видос про лаборатории x16 и x8 из сталкера )
Самый лучший канал по железу и т.д
только вчера гуглил эту тему, спасибо)
Мне очень понравился на этот счёт комментарий Кирилла Юдинцева: "Нечем просто нагрузить".
Зачем?
@@Vadim_Andr. попробовали бы огромную нейросеть обучить, сразу бы увидели зачем эта шина нужна.
@@SergeyMetallica зачем?
интересно было бы посмотреть на тот же тест для нейронных сетей и CUDA. там как раз копирование данных на карту и обратно является узким местом. хотя провести его будет тяжелей. в том плане, что нужно будет придумать честный эксперимент
Отличный контент!
Результат немного ожидаем, но спасибо за работу теперь можно официально забивать на маркетологов)
Благодарю за труд.
Качественный контент от профи.
Видео реально нужное и развеет мифы!!!!!
Гесиды успели раньше, результаты уже знаю, но не могу пропустить бородатый видос)
Еще лет 10 назад, если не больше, выяснял для себя вопрос важности этих количества этих иксов (т.е линий) pci-e, и еще с тех пор запомнил, что, в целом, это все очень некритично и сильно заморачиваться по более низкой версии pci-e или о меньшем количестве линий не нужно. Поэтому, увидев название ролика, испытал сперва скепсис, а потом подумал, уж столько лет прошло, количество транзисторов на чипах выросло очень серьезно, скорости и объемы информации также возросли, вон в последних тестах скорость оперативной памяти значительно влияла на итоговую производительность. Но нет, время-то идет, ревизии pci-e все обновляют, хотя в пропускную способность тут ничего по-прежнему не упирается
Наконец-то Ситилинк в Иркутске появился, теперь тоже есть смысл по ссылкам гуляться.
Крутой тест!!!! Побольше таких!
Спасибо, секасный выпуск, то что надо!
РАЗНИЦА ЕСТЬ, КОГДА ДАННЫЕ НАДО ОБРАТНО НА МАТЕРИНКУ ГНАТЬ! Из практики: используется HTC Vive Pro wireless. Была проблема с контактом проца, и видеокарта работала на 8х. А так как с беспроводной системой данные с видеокарты передаются по PCI на беспроводной адаптер, эта система ужасно лагала. Потом снял, почистил проц и поставил обратно. Видеокарта заработала на 16х и пропускной способности хватило.
Очень интересно было бы посмотреть в подобном тестирование на Thunderbolt. Хоть вроде там x4 но все же другой интерфейс
Скорость нужна не видеокарте, а задаче, которая на карте выполняется. Если на вашу карту активно будет подаваться большое к-во информации, то можно будет заметить существенную разницу между разными установками PCI-e.
Как правильно было замечено, для добычи новых блоков в блокчейне картам не нужна высокая пропускная способность. С другой стороны, например, в задачах обучения нейронных сетей, количество активных линий играет важную роль и в таких случаях целесообразно строить системы на основе ThreadRipper или Intel Xeon, которые поддерживают большое к-во каналов PCI-e.
Отличный видос , спасибо .
Огонь!Теперь спокойно беру 10900К для 2080 Ti SLI
О, пора освежить на 5-4-3, сейчас точно такая хайповая история)
У Gecid был тест более большой. Там результаты весьма похожи. И все же новая версия с большой пропускной способностью нужна. Не у всех есть 8+ Гб под текстуры, а благодаря высокоскоростной ОЗУ можно значительно компенсировать разрыв между картами с разным количеством памяти. Так что прогресс и только прогресс.
Можно уменьшить количество линий на ГПУ и освободить их под накопители. А ещё более высокая пропускная способность повысит эффективность mGPU, если ее конечно будут реализовывать а играх
Да, со слабой видеокартой с маленьким объёмом памяти разница сразу будет видна
да пора признать что все эти карточки с 4 и 6 Гб видео уже пережиток прошлого. С выходом новых консолей с 16Гб памяти на борту подтянут текстуры в играх и никакой своп в ОЗУ уже не поможет
@@borzsch с выходом новый соснолей будет такое же мыльное кинцо с мыльными текстурками.просто теперь сосноли смогут в 4к 30fps
Вот только скорость памяти даже у 1030 48 Гб/с
А у PCI-e 4.0 16x - 32 Гб/с
Что тоже скажется на производительности не самым лучшим образом..