@@Svejiy_Tihiy_Veter Благодаря блокам предсказателей переходов компания Intel все ещё здесь и живёт и здравствует на протяжении 20 лет. ходила байка что в каком-то core 2 quad лет 10-15 назад был кривой микрокод без подписи в котором они отключались превращая проц в аналог Pentium I/II
По-сути сейчас все х64 процы на самом деле построены на RISC архитектуре (один из вариантов RISC- ARM) с блоком декодирования инструкций CISC, т.е всё различие в слое совместимости с CISC
Спасибо тебе огромное за работу. Смотрю тебя уже несколько лет и ни разу не жалею. Хотел рассказать, что мне попался ужасный преподаватель по "методам эмпирических исследований", который просто приходил утром, и молча сидел до конца рабочего для, вообще ничего не объясняя, а задания давал. Каково же было мое удивление, когда до меня дошло, что все графики и распределения оттуда я видел в твоих видео! В общем, я один из немногих, кто со всего направления закрыл это предмет на 5, и всё это благодаря тебе! История, кстати, полугодовалой давности)
Напоминает как 20 лет назад учась в 8 классе я покупал "Компьютерную газету", прочитывал от корки до корки но понимал максимум 30 процентов. Ничего не изменилось =) Радует количество людей в комментариях которые пишут что ничего не поняли, адекватная реакция заслуживает уважения.
Чувак в видео просто хочет показаться умным. Особого ума не нужно переводить с английского даташиты и подавать их под унылым монотонным типа умным голосом.
есть подозрение, что автор и сам то не особо понимает.) выше уже написали. всего лишь озвучивание чужих статей. уж если восхищаться, то труду программистов. которые реальные вещи делают.
Каждая твоя работа - кладезь информации для диплома. Благодаря тебе выбор тем резко сужается. Дважды уже беру у тебя информацию для курсовой и диплома (конечно же указывая тебя как источник).
аналогия, которая сразу пришла в голову: видеокарта - китайская фабрика рабочих, процессор - коллцентр, приём звонков. даже если заставить одних заниматься другим и наоборот, какой вы будете ожидать результат?))
Мда смотрю на эти картинки и завидую тем людям что работают с процессорами и видеокартами. Ну и плюс те люди которые работают с API и SDK. Они для меня боги :)
@@keerpeech1 как то лет 10 назад попробовал я поработать с API, как писалось элементарно для новичков... запихал бы я этот API тому кто их придумал, одно сраное окно ох как было не легко нарисовать... а что бы еще и вывести в него текст, так по мне проще было ДВС собрать по книги с нуля, чем текст отобразить хотя бы как блокноте.
Тебе говорили, что ты гений? И это не преувеличение или желание польстить. Это факт. Просто ты пока не проявил свой талант на 100%. Судя по видео, только на 70% максимум. Тебе есть куда стремиться. Я тебе очень благодарен за твои рассуждения и подачу материала в видео. Это прекрасная пища для определённого рода раздумий, позволяющая под совершенно другим углом взглянуть на некоторые вещи. БЛАГОДАРЮ!
Кстати о Larrabee - интересно то, что продукт не вышел в задуманном виде не из-за технических проблем, а из-за плохого менеджмента Intel (кто бы сомневался). Люди знающие английский и смотрящие Linus Tech Tips, скорее всего, знают эту историю. Гении менеджмента проектов решили заставить драться отдел проекта Larrabee с отделом, который разрабатывал мобильные решения (не помню, графические или CPU), за один и тот же бюджет. Ну, как вы уже поняли, Larrabee проиграл. В целом, довольно интересная вычислительная единица погибла под напором более востребованного товара.
@@schwarzfuchs4410 Но при этом нет некоторых магазинов, которые есть в Яндекс Макркете. И в о обоих отсутствуют магазины типа М.Видео (хоть у них и редко бывает дешево). Хотелось бы один большой всеобъемлющий агрегатор...
Если вы имеете ввиду социальный вопрос - узкие спецалисты или разносторонне образованные, то ответ такой: Человеческий скот/быдляк должен иметь узкую специализацию и знания, быть заточенным винтиком, по развитию походить на насекомое, уметь хорошо решать узкий спектр, строго специализированных задач. А управляющие скотом, имеют разностороннее развитие, и они решают на какие задачи (и в каких количествах) бросать насекомых, а так же - каковы первопречины действий, и на достижение каких целей, будет направлен труд насекомых. Можете продолжать радоваться своей узкой специализации, и говорить -" Это нормально. Везде так.". Возможно вы всю жизнь трудитесь на достижение цели - сокращения населения и установления мирового цифрового концентрационного лагеря. Счастье в неведении, будьте счастливы )))
Единственный путь развития - создание новой универсальной архитектуры + ОС под них, чтобы машинный код в бинарных файлах содержал уже именно понятный процессору код с учетом всех расширений без требования оптимизации и перестроения. А CPU, GPU и память размещать на одной плате как можно ближе друг к другу дабы выиграть в синхронизации
11:14 - такие решения уже есть: 1. MultiClet - советую изучить данный отечественный проц. и вообще клеточную архитектуру, которую родили ещё в 1997г., 2. MISC архитектура, с некоторыми оговорками. Такие решения уже есть, но есть так-же большой "инерционный ход" технологии, когда просто нельзя взять и сделать с чистого листа, ибо весь отлаженный тех.процесс литографии пойдёт по бороде, и нужно будет вложить ещё несколько лярдов и несколько лет, на перестройку всего тех.процесса, что недопустимо в условиях рыночной экономики, когда нельзя давать спуска конкурентам. Поэтому производители тягают кота за хвост, и трясутся вводить координальные изменения :)
Поправлю автора канала, AMD не в след intel-у стала использовать RISC ядро в нутрях, а за долго до них. начиная с Amd k6 процессоров еще в 1997 году. вот статья en.wikipedia.org/wiki/AMD_K6, использовались наработки NexGen. И штеуд в данном случае был в роли догоняющих, как и многие другие разы, о которых интелбои предпочитают не вспоминать
@@СергійЦвик-ц4ж искал подобный коммент. Есть еще думающие люди. Скажу, что причин две: говнокод, который немаловажную роль играет. Огромные вычисления тратятся впустую лишь ради быстрой разработки, но главная причина это архитектура. В ЭВМ с другой архитектурой - распределенной у которой будет огромное количество простых равносильных вычислительных блоков, не будет нуждаться в видеокарте вовсе. Вычислительные блоки должны быть как можно проще и универсальнее.
Проблема в том, что специализированные процессоры ТОЖЕ делали (были транпьютеры, риск, мипс и прочее. Даже процессоры для баз данных). Но ничего хорошего не получилось. На мой взгляд большинство предварительной подготовки программ и данных НУЖНО делать на этапе компиляции кода, а не выдумывать блоки предсказания )). Я уж не говорю про "ручную" и "алгоритмическую" оптимизацию (сейчас программеры достаточно поленились для этого). Но помню времена, когда располагая на два порядка меньшей, чем американцы вычислительной мощностью, наши системы наведения, РЭБ и прочие как минимум НЕ уступали американским за счет качества программирования.
Надеюсь, после этого будет меньше людей с охренительными историями в духе "когда поднимаешь разрешение - нагрузка перемещается с процессора на видеочип".
Коммент не совсем в тему, но очень хотелось бы увидеть ролик на тему lucid Hydra, и тому подобных технологий объединения графики разных производителей) Спасибо за жирный контент)
гидра труп уже давно, сам щупал эту штуку когдато, если повезло и игра не крашится (а там все было завязано на драйверах + если игра распозналась люсидой) то прирост был в районе 20-30% от 2 видях реально, но били также иногда и жосткые фризы, в общем это не играбельно, труп похоронен причем уже давно. Материнка моя еще жива, даже диск люсиды гдето лежит, могу продать если с Украины, сами убедитесь)))
Давно соединяют в SoC мобильных телефонов - процессор, видеокарта и даже со-процессор для нейронных сетей; все работают с данными в общей памяти без копирования. Пробовал программировать на Swift у эппла - программа работает на процессоре а для умножения матриц впрягается видеокарта. Объединяет лучшие элементы обоих устройств.
То есть, я правильно понял, что корень зла по сути именно в архитектуре х86, которая сейчас слишком превалирует над остальными и всем приходится под нее подстраиваться на куче костылей? И типо если вдруг выдумают новые компы на новой архитектуре, естественно с совершенно новым ОС и софтом, то оно теоретически будет прямо таки на порядки быстрее текущих компов? Было бы круто рендерить сотнигиговые ролики в около реалтайм скоростях))
@@easytanksgaming3238 нет ничего лучше чем x86 если тебе надо максимум производительности здесь и сейчас,в реалтайме, любая другая архетектура слишком немощьна при выполнении математических расчетов, единственный не достаток x86 непомерный жор,и как следствие низкий кпд
У меня есть другой вопрос, не могу понять, что изменили в VRM у новых плат, говорят, что там разделена линия питания на 2 без даблера, но после этой линии идут те же самые драйверы, так в чем плюс и каким вообще образом происходит разделения одной линии? Как я понял, это просто бесполезный маркетинг.
Уважаемый автор канала, не мог бы ты раскрыть тему по обработке PhysX процессором на видеокарте от AMD, чтобы получить приемлимый FPS. Думаю тема будет интересна всем обладателям графики от AMD?
Если х86 архитектура такая не эфективная (что нужно делать внутри преобразования, как на видеоилюстрации), тогда почему до сих пор делают на ней процессоры?
Предположу, что просто под эту архитектуру весь софт уже давно более нормально работает, если создавать новую архитектуру, то все придется переписывать заного
@@mojavecour1er единственное в чем не эфективна x86 это в энергоэффективности,тоесть в кпд,расчетов,но если ты не ограничен в питании,а тебе нужна максимум производительности здесь и сейчас, ничего лучше чем x86 нет
@@ОлегМ-г6з Действительно, только всплывают сотни других проблем. Архитектурам, ос и некоторым важным программам уже десятки лет и чтобы все это придумать заново, учитывая предыдущие ошибки и наверстать, понадобиться еще лет 10-20 непрерывных разработок и кучи денег. За это время конкуренты вперед далеко уйдут и вы опять останетесь с устаревшими технологиями. И вначале все это выйдет без софта, а кому нужен комп без софта? Привет линукс, который 30 лет не набирает даже 10-20% пользователей, хотя софта там куча. А пользователям пофиг, винда ведь тоже работает, зачем что то менять. Но ладно это, отдельная каста и новая проблема, пользователи, которые крайне неохотно пытаются пробовать что то новое, и тратить на это деньги, если у них и так все работает. Даже если они заценят новшества, чтобы перейти и купить оборудование опять же лет 10 понадобиться. Нужны будут тысячи программистов которые последующие года будут писать хороший и качественный софт за бесплатно, ибо пользователей, то нет. Ну и кому это нужно? Сейчас даже новую ОС не имеет смысла разрабатывать, не говоря уже о всей архитектуре компа.
Видео полезное, но отличия в инструкциях и архитектурах не раскрыты. На мой взгляд, может создасться ложное ощущение понимания. Процессор умеет считать последовательно много очень разных математических задач, а графический ускоритель много одинаковых и одновременно. Это да. Но дело не только в этом. Некоторые нематические задачи на видеокарте вообще никак не решаются. Например, виртуальная память, аппаратное переключение между контекстами, работа с прерываниями от устройств и шинами, т.д., т.п. Вообще, как решить задачу когерентности памяти для нескольких тысяч ядер? Что делать с этими ядрами с точки зрения обычных процессов? Ведь далеко не все алгоритмы параллелятся хорошо.
Xeon phi умер. После knl стало понятно что MPP даже с учётом особенностей внутренней шины не взлетел, ибо получалось что на большинстве задач было эффективнее писать на numa кластерах чем на knl. Недавно у них был ещё продукт с Xeon+Altera FPGA на одном чипе, тоже кажется не взлетел
@@АлександрКовалёв-ц5л4щ TLDR Xeon phi пиарившиймя интелои как замена видеокартам с CUDA для вычислений с удобной моделью для разработки не взлетел. Т.к. даже половину пиковой производительности на реальных задачах(аэродинамика/гидродинамика/обсчет графов) на нем получить не удавалось. Последним стало что нейросетевые пакеты не стали делать у себя поддержку для него. После этого "неофициального закрытия" Intel ещё выпустил процессоры совмещённых с программируемыми логическими схемами(ПЛИС) Xeon scalable gold 6138P. Где тоже позиционировалась что с библиотеками от Интела можно будет многократно ускорится, но вот про лёгкость разработки(как было на Xeon Phi) уже никто не говорил
Какова разница между процессорами для смартфонов и компьютеров, кроме архитектурных различий? Если смартфон набирает больше баллов в GeekBench чем ноутбук, значит ли это что смартфон мощнее?
Мой I5-2400 с интегрированной графикой: "подержи мои электроны" Да и видеокарты слышал начинают выполнять простенькие выселения, так что полноценно они друг друга не заменят, но вот как временное решение ещё могут подойти
смысл? в сети можно найти картинки. где в высоком разрешении сделано фото "оголенного" кристалла. на котором видно физически блоки. В парктически каждый блок состояит из типовых элементарных блоков. выполняюющих одну функцию .которые уже состоят из простеших элементов. Что вам даст рассмотрение одного из регистров памяти или транзистор? ничего.
ARM намного ближе к видеокартам, и универсальности там заметно меньше, раньше вот например на старых андроидах даже синус с косинусом посчитать нельзя было
pc-01.tech/CPU_GPU/ - текстовая версия
@Этот компьютер как ты думаеш будет ли рейтресинг карты? ведь есть cpu, есть gpu, а должен быть еще что-то больше! то-что мог бы вычислять лучи.
@@OctoTip Чтобы вычислять лучи достаточно простой видеокарты
Вот такого рода видео очень полезны и интересны. Своеобразный ликбез. Спасибо!
Спасибо за материал, хотелось бы посмотреть видео о различиях arm и x86
@@Димас_под_пивас на самом деле это будет так слабо что приходится делать кастыли))) на подобие ртх) для большинство игр он будет не нужен :/
*Не сложно сделать вычисления. Сложно сделать вычисления, которые покажут, какие вычисления, делать дальше.*
Это же те "магические блоки" в процессоре, которые предсказывают будущее)) Такие себе гадалки на кофейной гуще на минималках)))
Ну что за спекуляции)
Или делать первыми, чтобы не задерживать другие вычисления, которые вычислять вычисления которые нужно делать дальше...
@@Svejiy_Tihiy_Veter Благодаря блокам предсказателей переходов компания Intel все ещё здесь и живёт и здравствует на протяжении 20 лет. ходила байка что в каком-то core 2 quad лет 10-15 назад был кривой микрокод без подписи в котором они отключались превращая проц в аналог Pentium I/II
@@Svejiy_Tihiy_Veter гадалки не эффективны
Тяжелый контент в массы!
Это же не твои ,,сложные,, объяснения и простой вывод ...
Не, ну тут уже куда деваться (с)
Действительно
Хобв ты тоже здесь !!!!
Разбань меня в чате в тг пожалуйста
Мои любимые AVX ИНСТРУКЦИИ!!!
ПАКАЖЫ ТКНИ
AVX ИНСТРУКЦИИ AVX ИНСТРУКЦИИ AVX ИНСТРУКЦИИ !!!!!!!!!!!!!!!1111111111111
К К .. К ЛЮБОЙ СОБАКЕ ПОДОЙДИ НА УЛИЦЕ СПРОСИ ГДЕ АВЫИКССС
вызываю дух технокухни!!!1
Покажи ткни пальцем =).
Спасибо за материал, хотелось бы посмотреть видео о различиях arm и x86
Насколько я помню архитектура arm работает с 32 разрядными системами , а x86 позволяет расширить до 64 разрядной и увеличить объём ОЗУ .
По-сути сейчас все х64 процы на самом деле построены на RISC архитектуре (один из вариантов RISC- ARM) с блоком декодирования инструкций CISC, т.е всё различие в слое совместимости с CISC
Да, как мне запустить Винду на STM32?
@@ВалентинБоев-ы8ъ совершенно разная архитектура и подход risc процессоры поищи ,историю глянь в Ютубе полно
@@ВалентинБоев-ы8ъ
ARM есть обоих вариантов:
arm - 32 бит
aarch64 - 64 -бит
На современных телефонах уже только aarch64
Единственный блогер по железу, который рассказывает почему это работает так, а это эдак! Просто топ! Спасибо за видос!
Спасибо тебе огромное за работу. Смотрю тебя уже несколько лет и ни разу не жалею. Хотел рассказать, что мне попался ужасный преподаватель по "методам эмпирических исследований", который просто приходил утром, и молча сидел до конца рабочего для, вообще ничего не объясняя, а задания давал. Каково же было мое удивление, когда до меня дошло, что все графики и распределения оттуда я видел в твоих видео! В общем, я один из немногих, кто со всего направления закрыл это предмет на 5, и всё это благодаря тебе!
История, кстати, полугодовалой давности)
Я тоже могу приходить на работу в пиджаке и с умным видом сидеть до конца раб.дня😂🤡
Коротко о том, как я сдавал сапромат и теорию ДВС. Тоже самое было, только ещё хуже.
По крайне мере, он давал вам хорошие учебные материалы :)
Если не секрет, расскажите пожалуйста, на какую специальность вы учились?
@@bluxis5315 я инженер на транспорте.
в двух словах: ЦП-сложные аппарации но медленно, видеокарта-простые, но быстро, подходит для игр и видео.
Не сложные, а разные
Универсальность - враг оптимальности. И наоборот (это все, что я понял) ;)
Лежу смотря видосики с телефона, печатаю через экран и мне норм.
@@albertkaraev4686 молодец
Ну сентенция выведена вами верна.Во всем остальном все тоже самое лучшее-враг хорошего.
Ничего не понятно, но очень интересно)
Тоже самое
Спасибо! Все просто и понятно. Никто больше на ютубе так не разжевывает для обывателя.
Напоминает как 20 лет назад учась в 8 классе я покупал "Компьютерную газету", прочитывал от корки до корки но понимал максимум 30 процентов. Ничего не изменилось =) Радует количество людей в комментариях которые пишут что ничего не поняли, адекватная реакция заслуживает уважения.
Мне кажется тут более менее все понятнее, просто хочется разбивки видео или ссылки на место где отвечая на вопрос коротко :)
Те, кто смотрят этот канал давно, думаю, понимают здесь может и не всë, но большую часть так точно
Чувак в видео просто хочет показаться умным. Особого ума не нужно переводить с английского даташиты и подавать их под унылым монотонным типа умным голосом.
есть подозрение, что автор и сам то не особо понимает.)
выше уже написали. всего лишь озвучивание чужих статей.
уж если восхищаться, то труду программистов.
которые реальные вещи делают.
Вычислитель - лучшее слово для описания работы процессора/видеокарты, как и всей машины в сборе! Ласкает слух!
Я в начале подумал что видео лагает 😁
Я даже качество видео пытался изменить, пока не дошло :D
На фпс смотрел?
А оказалось, лагает мозг, да?
От картинки с парой 8800ultra аж потеплело на душе) вот было прорывное поколение (впервые с cuda), можно сказать - легенда
Каждая твоя работа - кладезь информации для диплома. Благодаря тебе выбор тем резко сужается. Дважды уже беру у тебя информацию для курсовой и диплома (конечно же указывая тебя как источник).
аналогия, которая сразу пришла в голову:
видеокарта - китайская фабрика рабочих,
процессор - коллцентр, приём звонков.
даже если заставить одних заниматься другим и наоборот, какой вы будете ожидать результат?))
Процессор - дроуколлцентр)))))
Хотел бы видос об истории ЭВМ. В особенности 3е поколение и выше. Какие были первые програмы и как дошли до графического интерфеса. Спасибо.
Есть такие готовые видосы , только тебе лень- матушка набрать запрос в поисковой строке этого сайта ...
Мда смотрю на эти картинки и завидую тем людям что работают с процессорами и видеокартами. Ну и плюс те люди которые работают с API и SDK. Они для меня боги :)
@@Hav1K Люблю свою работу отчасти из-за этого.
"Работа с API" - классная шутка :)
Как бы "API" сделаны для упрощения процессов разработки.
Бери жизнь в свои руки, учись и через года 2-3 сможеш достичь того, что казалось тебе невообразимым до недавнего времени)
@@keerpeech1 как то лет 10 назад попробовал я поработать с API, как писалось элементарно для новичков... запихал бы я этот API тому кто их придумал, одно сраное окно ох как было не легко нарисовать... а что бы еще и вывести в него текст, так по мне проще было ДВС собрать по книги с нуля, чем текст отобразить хотя бы как блокноте.
@@КриволаповАлександр-д7ж ну так потому что на чистом API сейчас рисовать окна не имеет смысла, когда есть куча легковесных библиотек
Технокнязу к просмотру, AVX - что ты и для чего)) Лайк конечно как всегда, очень жду каждый раз новые видосы
Офигеть, я почти всё понял!
Для себя 10:04
Тебе говорили, что ты гений? И это не преувеличение или желание польстить. Это факт. Просто ты пока не проявил свой талант на 100%. Судя по видео, только на 70% максимум. Тебе есть куда стремиться. Я тебе очень благодарен за твои рассуждения и подачу материала в видео. Это прекрасная пища для определённого рода раздумий, позволяющая под совершенно другим углом взглянуть на некоторые вещи. БЛАГОДАРЮ!
Всего за 5 первых минут становится понятно, почему майнят на видеокартах а не процах. годнота
Давненько не заглядывал сюда, а тут годнота по-прежнему выходит. Респектую, Павел! )
Спасибо за интересные видосы!!!
И полезные)
В жизни, мало одних знаний о науке, их еще нужно уметь приподносить. Создателям Ютуб и автору видео, очередной лайк.
Кстати о Larrabee - интересно то, что продукт не вышел в задуманном виде не из-за технических проблем, а из-за плохого менеджмента Intel (кто бы сомневался). Люди знающие английский и смотрящие Linus Tech Tips, скорее всего, знают эту историю. Гении менеджмента проектов решили заставить драться отдел проекта Larrabee с отделом, который разрабатывал мобильные решения (не помню, графические или CPU), за один и тот же бюджет. Ну, как вы уже поняли, Larrabee проиграл. В целом, довольно интересная вычислительная единица погибла под напором более востребованного товара.
жалко, конечно, что не вышли. Даже если бы и был бы не успешный продукт - всё равно штука очень интересная.
Вау! Интересная история. Спасибо!
Да этот канал мне Бог послал! Огромное спасибище!
Спасибо! Как всегда хорошо и полезно! Лайк из Одессы!
екаталог очень агрессивно продвигается, очень. Скоро раздражать начнет) а видео класс как всегда!
Но ведь удобно . Правда ? И откуда ток деньги им ? Походу там ток те компании , что сумели заплатить рекламу
@@Fight-Santario я не из россии, но пару раз пользовался, на яндекс маркет похоже)
@@mistar-t в каталоге гораздо больше фильтров.
@@schwarzfuchs4410 Но при этом нет некоторых магазинов, которые есть в Яндекс Макркете. И в о обоих отсутствуют магазины типа М.Видео (хоть у них и редко бывает дешево).
Хотелось бы один большой всеобъемлющий агрегатор...
Не будет рекламы не будет видосов
Было бы интересно посмотреть работу пк без процессора, но с видеокартой
Весьма интересно. Главное очень простым языком
Огромное спасибо за материал. Успехов вам в дальнейших изысканиях!
Очень просто объясняете сложные вещи! Спасибо! Большой талант
Этот Компьютер - это энциклопедия в мир ПК! Это как Discovery в мире природы!
Юран, как всегда красавчик! Спасибо за работу!
Универсальность уступает место узким знаниям. Это нормально. Везде так.
абсолютно согласен
Так вот о чем говорил Брюс Ли, когда рассказывал про бойца, тренирующего один прием 1000 раз!
Разделение труда дает большую продуктивность
НО НЕ В ШКОЛЕ
Если вы имеете ввиду социальный вопрос - узкие спецалисты или разносторонне образованные, то ответ такой: Человеческий скот/быдляк должен иметь узкую специализацию и знания, быть заточенным винтиком, по развитию походить на насекомое, уметь хорошо решать узкий спектр, строго специализированных задач. А управляющие скотом, имеют разностороннее развитие, и они решают на какие задачи (и в каких количествах) бросать насекомых, а так же - каковы первопречины действий, и на достижение каких целей, будет направлен труд насекомых. Можете продолжать радоваться своей узкой специализации, и говорить -" Это нормально. Везде так.". Возможно вы всю жизнь трудитесь на достижение цели - сокращения населения и установления мирового цифрового концентрационного лагеря. Счастье в неведении, будьте счастливы )))
Единственный путь развития - создание новой универсальной архитектуры + ОС под них, чтобы машинный код в бинарных файлах содержал уже именно понятный процессору код с учетом всех расширений без требования оптимизации и перестроения. А CPU, GPU и память размещать на одной плате как можно ближе друг к другу дабы выиграть в синхронизации
Глуперский вопрос конечно, для тех кто уже разбирается. Но это видео все равно очень ценное.
Вставка екаталога всегда улыбает)
@@alexpi123 ?
@@alexpi123 в каком году эти казино в последний раз рекламили?) сейчас обычно только в сериалах озвученых на русский
Хм,а если пересмотреть раза 4, может всё-таки смогу понять,что он рассказал,но чувствую ооочень познавательное видео)
11:14 - такие решения уже есть: 1. MultiClet - советую изучить данный отечественный проц. и вообще клеточную архитектуру, которую родили ещё в 1997г., 2. MISC архитектура, с некоторыми оговорками. Такие решения уже есть, но есть так-же большой "инерционный ход" технологии, когда просто нельзя взять и сделать с чистого листа, ибо весь отлаженный тех.процесс литографии пойдёт по бороде, и нужно будет вложить ещё несколько лярдов и несколько лет, на перестройку всего тех.процесса, что недопустимо в условиях рыночной экономики, когда нельзя давать спуска конкурентам. Поэтому производители тягают кота за хвост, и трясутся вводить координальные изменения :)
доходчиво, интересно, без лишней воды, лайк
В очередной раз я успел уснуть в середине ролика. И я в очередной раз не шучу)
Можно ещё видео про звуковые карты.
Там не так интересно. Да и незачем особо. Ты особо отличия хорошей карты от реалтека не услышишь
Очень информативный канал))
Однозначно подписка и лайк.
Великолепно! Большое спасибо за наглядное красочное объяснение!
Крутые видео, ни у кого вроде таких больше не встречал
Отличное видео.Смотрю канал регулярно,хотя местами сильно буксую.)
Поправлю автора канала, AMD не в след intel-у стала использовать RISC ядро в нутрях, а за долго до них. начиная с Amd k6 процессоров еще в 1997 году.
вот статья en.wikipedia.org/wiki/AMD_K6, использовались наработки NexGen.
И штеуд в данном случае был в роли догоняющих, как и многие другие разы, о которых интелбои предпочитают не вспоминать
Тем временем процы со встроеным видеоядром: существуют
-Почему процессоры не заменят видеокарты?
-Потому что говнокод!
Утрируешь)
Потому что страшно бросить х86.
@@СергійЦвик-ц4ж Бредятину сказанул.
@@Ygorij Утрируешь)
@@СергійЦвик-ц4ж искал подобный коммент. Есть еще думающие люди. Скажу, что причин две: говнокод, который немаловажную роль играет. Огромные вычисления тратятся впустую лишь ради быстрой разработки, но главная причина это архитектура. В ЭВМ с другой архитектурой - распределенной у которой будет огромное количество простых равносильных вычислительных блоков, не будет нуждаться в видеокарте вовсе. Вычислительные блоки должны быть как можно проще и универсальнее.
Спасибо за видео, было интересно и полезно посмотреть!
Одно видео убило сто зайцев ах да и мозг зашевелился все как обычно на этом канале приятно смотреть глазам а вот мозгу нет ему приходится страдать
Почему от разных инструкций разный тдп? (при исполнение например авх тдп значительно выше)
Проблема в том, что специализированные процессоры ТОЖЕ делали (были транпьютеры, риск, мипс и прочее. Даже процессоры для баз данных). Но ничего хорошего не получилось. На мой взгляд большинство предварительной подготовки программ и данных НУЖНО делать на этапе компиляции кода, а не выдумывать блоки предсказания )). Я уж не говорю про "ручную" и "алгоритмическую" оптимизацию (сейчас программеры достаточно поленились для этого). Но помню времена, когда располагая на два порядка меньшей, чем американцы вычислительной мощностью, наши системы наведения, РЭБ и прочие как минимум НЕ уступали американским за счет качества программирования.
8:20 Планироващик.
Спасибо, разжевал как надо.
Надеюсь, после этого будет меньше людей с охренительными историями в духе "когда поднимаешь разрешение - нагрузка перемещается с процессора на видеочип".
Коммент не совсем в тему, но очень хотелось бы увидеть ролик на тему lucid Hydra, и тому подобных технологий объединения графики разных производителей)
Спасибо за жирный контент)
гидра труп уже давно, сам щупал эту штуку когдато, если повезло и игра не крашится (а там все было завязано на драйверах + если игра распозналась люсидой) то прирост был в районе 20-30% от 2 видях реально, но били также иногда и жосткые фризы, в общем это не играбельно, труп похоронен причем уже давно. Материнка моя еще жива, даже диск люсиды гдето лежит, могу продать если с Украины, сами убедитесь)))
Ничего не понял, но очень интересно.
Следующее видео запуск пк без процессора, только на видеокарте
Позаследуюшее видео запуск пк на материнской плате.
Давно соединяют в SoC мобильных телефонов - процессор, видеокарта и даже со-процессор для нейронных сетей; все работают с данными в общей памяти без копирования. Пробовал программировать на Swift у эппла - программа работает на процессоре а для умножения матриц впрягается видеокарта. Объединяет лучшие элементы обоих устройств.
Скажите пожалуйста где вы учились, если не секрет. Хорошо поставленные фундаментальные похнания у вас.
Я один слышу нотки саундтрека из Mass Effect в эндинге? )
Музыка в конце топ. Делай музыкальное сопровождение на протяжении всего видео, думаю будет круто
"думаю будет круто"
О чём думает💤👎
Не надо. Фон будешь в развлекательных видео слушать
У любого существа есть головной и спинной мозг.
Нет. Только у хордовых.
Что думаете насчёт arm архитектуру? И насчёт перехода Apple на arm процессоры? Рынок теперь изменится? Хотелось бы услышать ваши мнение)
Нам нужно видео про комп без процессора, но с видеокартой!
У Бочи вскользь упоминался такой аппарат, что- то с CUDA связанное вроде. Но да, подробностей не хватает.
очень познавательно и интересно , спасибо за труд
Спасибо за информацию) интересно
вот блин, теперь ещё и устройство процессора изучать)
8:00 - справа "планироващик" :)
помнится, раньше хотели блоки FPU заменить ядрами видеокарты, но что-то пошло не так и задумку свернули.
То есть, я правильно понял, что корень зла по сути именно в архитектуре х86, которая сейчас слишком превалирует над остальными и всем приходится под нее подстраиваться на куче костылей?
И типо если вдруг выдумают новые компы на новой архитектуре, естественно с совершенно новым ОС и софтом, то оно теоретически будет прямо таки на порядки быстрее текущих компов? Было бы круто рендерить сотнигиговые ролики в около реалтайм скоростях))
Нет.
Да, но уже есть ARM
@@b5931 как... Однозначно.
@@easytanksgaming3238 нет ничего лучше чем x86 если тебе надо максимум производительности здесь и сейчас,в реалтайме, любая другая архетектура слишком немощьна при выполнении математических расчетов, единственный не достаток x86 непомерный жор,и как следствие низкий кпд
У меня есть другой вопрос, не могу понять, что изменили в VRM у новых плат, говорят, что там разделена линия питания на 2 без даблера, но после этой линии идут те же самые драйверы, так в чем плюс и каким вообще образом происходит разделения одной линии? Как я понял, это просто бесполезный маркетинг.
Мне кажется или тесты нужно было на серверных камнях(топовых) или топовых тредриперах проводить?
было бы неплохо, чтобы видеопамять можно было использовать как оперативную, если её не хватает )
Вроде такое есть. Только наоборот
пошёл оперативу купил. В чём проблема? Она копеешная
Уважаемый автор канала, не мог бы ты раскрыть тему по обработке PhysX процессором на видеокарте от AMD, чтобы получить приемлимый FPS. Думаю тема будет интересна всем обладателям графики от AMD?
А есть источники информации? Хорошое видео, лайк!
Класс! Большое спасибо за видео!)))
Откуда ты взялся с таким годным контентом, если бы мог ставил бы несколько лайков
Бабки кинь ему тогда
Если х86 архитектура такая не эфективная (что нужно делать внутри преобразования, как на видеоилюстрации), тогда почему до сих пор делают на ней процессоры?
Предположу, что просто под эту архитектуру весь софт уже давно более нормально работает, если создавать новую архитектуру, то все придется переписывать заного
@@mojavecour1er единственное в чем не эфективна x86 это в энергоэффективности,тоесть в кпд,расчетов,но если ты не ограничен в питании,а тебе нужна максимум производительности здесь и сейчас, ничего лучше чем x86 нет
@@СтасБели, абсолютно верно
Очень интересно, спасибо автору!
Совместимость со старым.. тормозит прогресс...🤔
Да
лол без этой совместимости не будет работать огромная куча софта, поэтому х86 до сих пор и доят.
@@ghostsevenriddler Значит надо начать с ноля,новая архитектура,новая ОС и новый софт... Забить на прошлое и двигаться вперёд )))
@@ОлегМ-г6з а хрен млрды людей пересядут на новое железо и по за год
@@ОлегМ-г6з Действительно, только всплывают сотни других проблем. Архитектурам, ос и некоторым важным программам уже десятки лет и чтобы все это придумать заново, учитывая предыдущие ошибки и наверстать, понадобиться еще лет 10-20 непрерывных разработок и кучи денег. За это время конкуренты вперед далеко уйдут и вы опять останетесь с устаревшими технологиями. И вначале все это выйдет без софта, а кому нужен комп без софта? Привет линукс, который 30 лет не набирает даже 10-20% пользователей, хотя софта там куча. А пользователям пофиг, винда ведь тоже работает, зачем что то менять. Но ладно это, отдельная каста и новая проблема, пользователи, которые крайне неохотно пытаются пробовать что то новое, и тратить на это деньги, если у них и так все работает. Даже если они заценят новшества, чтобы перейти и купить оборудование опять же лет 10 понадобиться. Нужны будут тысячи программистов которые последующие года будут писать хороший и качественный софт за бесплатно, ибо пользователей, то нет. Ну и кому это нужно? Сейчас даже новую ОС не имеет смысла разрабатывать, не говоря уже о всей архитектуре компа.
интересно было бы послушать, про то, как с нуля создать архитектуру процессора сегодня, который не нуждается в костылях. Какой бы она была?
риск 5😂
Ни хрена не понятно но понятно что видеокарты это будущее развитие технологий в области компьютерных систем
AVX инструкции- услышав это один Князь, умер в параллельной вселенной 😃. Я ждал, ждал пока вагончик врежется ! А этого не случилось!! Атписка:))
Видео полезное, но отличия в инструкциях и архитектурах не раскрыты. На мой взгляд, может создасться ложное ощущение понимания. Процессор умеет считать последовательно много очень разных математических задач, а графический ускоритель много одинаковых и одновременно. Это да. Но дело не только в этом. Некоторые нематические задачи на видеокарте вообще никак не решаются. Например, виртуальная память, аппаратное переключение между контекстами, работа с прерываниями от устройств и шинами, т.д., т.п. Вообще, как решить задачу когерентности памяти для нескольких тысяч ядер? Что делать с этими ядрами с точки зрения обычных процессов? Ведь далеко не все алгоритмы параллелятся хорошо.
Спасибо за понятное объяснение!
Xeon phi умер. После knl стало понятно что MPP даже с учётом особенностей внутренней шины не взлетел, ибо получалось что на большинстве задач было эффективнее писать на numa кластерах чем на knl. Недавно у них был ещё продукт с Xeon+Altera FPGA на одном чипе, тоже кажется не взлетел
А по человечески, пожалуйста, можно?
@@АлександрКовалёв-ц5л4щ TLDR Xeon phi пиарившиймя интелои как замена видеокартам с CUDA для вычислений с удобной моделью для разработки не взлетел. Т.к. даже половину пиковой производительности на реальных задачах(аэродинамика/гидродинамика/обсчет графов) на нем получить не удавалось. Последним стало что нейросетевые пакеты не стали делать у себя поддержку для него. После этого "неофициального закрытия" Intel ещё выпустил процессоры совмещённых с программируемыми логическими схемами(ПЛИС) Xeon scalable gold 6138P. Где тоже позиционировалась что с библиотеками от Интела можно будет многократно ускорится, но вот про лёгкость разработки(как было на Xeon Phi) уже никто не говорил
6:42 сэкономлю ваше время
Какова разница между процессорами для смартфонов и компьютеров, кроме архитектурных различий? Если смартфон набирает больше баллов в GeekBench чем ноутбук, значит ли это что смартфон мощнее?
хороший, но слишком тяжелый контент для среднестатистического обывателя
при всём уважении, автор, можно чуток попроще плз(для домохозяек)?)
Мой I5-2400 с интегрированной графикой:
"подержи мои электроны"
Да и видеокарты слышал начинают выполнять простенькие выселения, так что полноценно они друг друга не заменят, но вот как временное решение ещё могут подойти
Это действительно полезно и интересно!
0:06 о это прям как мой ноут) пытается))))
Аапэаэсжпжп, бедняга
Ставим комент чтобы в топ вывести)
А теперь надо разобрать процессор и видеокарты под микроскопом! И разобраться за что отвечает тот или иной транзистор/полупроводник или как там его!
смысл? в сети можно найти картинки. где в высоком разрешении сделано фото "оголенного" кристалла. на котором видно физически блоки. В парктически каждый блок состояит из типовых элементарных блоков. выполняюющих одну функцию .которые уже состоят из простеших элементов. Что вам даст рассмотрение одного из регистров памяти или транзистор? ничего.
@@91Zahor я по приколу сказал! Ну типо чтоб он про каждую нано деталь рассказал!
С x86 все ясно, а что с arm?
Арм это как слабый гибрид phi, и то даже там решили делать отдельную графику
ARM намного ближе к видеокартам, и универсальности там заметно меньше, раньше вот например на старых андроидах даже синус с косинусом посчитать нельзя было
@@spect6861 что за бред. посчитать можно было.
синус и косинус хоть на счетах считай.
другой вопрос что не так эффективно как на х86
@@vrodeden синус и косинус можно и в голове подсчитать.
SPECT Apple анонсировала переход на ARM процессоры на десктопных PC.