Огромнейшее Вам спасибо, начинаю потихоньку вьезжать в ML, надо признать это четь сложнее чем програмирование и высшая математика по отдельности. Но чем сложнее тем интереснее)
Спасибо! Этот алгоритм называется перцептрон, и впервые описан Розенблаттом в 1958-м в работе The Perceptron: A Probabilistic Model for Information Storage and Organization. Позже было строго доказано, что если данные линейно разделимы, перцептрон сойдётся всегда.
вопрс может и не совсем по теме, но мы нашли вектор параметров W, c помошью которых мы можем классифицировать обьекты. Но вот формулу самой прямой мы то не нашли (или я что то не понял)? в данной задаче это может быть и не совсем важно, но для общего развития.... я понимаю, что формула прямой y=kx +b, куда здесь надо подставлять w1 и w2, и не забываем про коэффициент b, в нашей задаче он равен коэффициет b=0, но могут быть задачи, в которых он тоже принимает участие. как я понял в формуле y=kx +b коэффициент k=1,6 (это наше w1), получаем y=1,6x куда в данной ситуации мы должна подставлять w2 = -1?
Спасибо за ваш труд. Но у меня возникает вопрос, как эти модели использовать. Я примерно представляю. что мы должны сохранить эти коэффициенты, и потом их уже подставлять. Но цельной картины пока нет, как это на практике применяется.
Здравствуйте, не могли бы вы пожалуйста объяснить зачем нам в программе количество итераций N, можно ли в 18 строке заменить if на while и обойтись без кол-ва итераций
@@andrew-6294 это настраиваемые коэффициенты, которые определяют ориентацию гиперплоскости в признаковом пространстве, коэффициенты выбираем сами так, чтобы решалась поставленная задача
Очень круто! Спасибо вам за ваш труд! ❤ Хотя иногда приходится переслушивать еще раз, чтобы нормально разобраться, впечатляет четкая и структурированная подача информации.
@@selfedu_rus Не совсем понятно, как выбираются знаки классов и начального вектора. Если назначить наоборот (гусеницы +1) или перевернуть вектор w (w=[0,1]), то придется менять знак корректировки веса w1=w1-n*yi. Как не запутаться? Я так понял, что в данной задаче начальный вектор параметров должен смотреть в сторону класса +1. Но как обобщить на случай если признаки не только положительные и линия разделения может произвольно располагаться? И еще если параметров не один w1, а несколько (wn), то что делать? Свой цикл по каждому параметру и находить минимальное число ошибок?
Блин, зачем так сложно о простом. Зачем эти формулы, емае, речь идет о двумерной функции, да говори ты проще без этих Q(a,x) и нотаций Айзерсона. У тебя же цель объяснить на простом примере, какого лешего ты запутываешь сложными формулами и определениями, ты сам себе противоречишь и свою цель обучения делишь на ноль.
Мне наоборот нравится, что подробно. В интернете масса материалов, где обьясняют то же самое максимально просто, но и весьма поверхностно. В результате, когда читаешь документацию в Sklearn потом, там ничего не понятно, что за формулы и откуда ноги растут. Мозги мгновенно начинают кипеть. А Сергей хоть и сложно обьясняет, но зато подробно, и можно напрячься и вникнуть. Надеюсь, что хоть после этого курса станет проще с документацией общаться.
@@catgarfield1007 новичку надо объяснять как можно проще, надо идти от простого к сложному, а он сразу формулами закидывает и сложными опредеоенмями. Как обычно учит тех кто и так уже это знает. Типичный плохой учитель
кстати, можно сказать, что я маркер для учителей - если я понял, то учитель хороший, если я не понял, то учитель плохой. И весь вопрос пойму ли или не пойму ли. И моя фамилия говорит о том, что я есть маркер учителей.@@catgarfield1007
спасибо вам благодаря вам я в депрессии уже 2 дня
Огромнейшее Вам спасибо, начинаю потихоньку вьезжать в ML, надо признать это четь сложнее чем програмирование и высшая математика по отдельности. Но чем сложнее тем интереснее)
Сергей, спасибо, благодаря вашей проделанной работе, я становлюсь ближе к своей цели.
Автору спасибо!! Сложно, но возможно!
все предельно понятно и доступно! не понятно только одно: почему божьи коровки синие а гусеницы красные, хотя должно быть наоборот!
Класс ❤
Очень красиво, благодарю.
Спасибо! Этот алгоритм называется перцептрон, и впервые описан Розенблаттом в 1958-м в работе The Perceptron: A Probabilistic Model for Information Storage and Organization. Позже было строго доказано, что если данные линейно разделимы, перцептрон сойдётся всегда.
К чему сойдётся?
С уважение.
Планируете ли ролик: Многокласовой бинарной класификации?
Многопараметрической*
этот вопрос озвучивается в разных роликах, смотрите просто этот курс
вопрс может и не совсем по теме, но мы нашли вектор параметров W, c помошью которых мы можем классифицировать обьекты. Но вот формулу самой прямой мы то не нашли (или я что то не понял)? в данной задаче это может быть и не совсем важно, но для общего развития.... я понимаю, что формула прямой y=kx +b, куда здесь надо подставлять w1 и w2, и не забываем про коэффициент b, в нашей задаче он равен коэффициет b=0, но могут быть задачи, в которых он тоже принимает участие. как я понял в формуле y=kx +b коэффициент k=1,6 (это наше w1), получаем y=1,6x куда в данной ситуации мы должна подставлять w2 = -1?
касательно w1=-1 понял
Спасибо за ваш труд. Но у меня возникает вопрос, как эти модели использовать. Я примерно представляю. что мы должны сохранить эти коэффициенты, и потом их уже подставлять. Но цельной картины пока нет, как это на практике применяется.
Это идеи. Решение каждой конкретной задачи - творческий процесс с использованием этих знаний.
Можно было бы и фотку Розенблатта корректную поставить тогда... 😁
А так спасибо за труд... Ролики очень классные!!!🤓
так вот, вроде он ru.wikipedia.org/wiki/Розенблатт,_Фрэнк
У кого-то из нас полетели свертки в сетях распознавания 😂
Я вижу совсем другого человека, а именно, Джерарда Солтона…
@@tomasanderson42 Гугл объектив использовали?)
Здравствуйте, не могли бы вы пожалуйста объяснить зачем нам в программе количество итераций N, можно ли в 18 строке заменить if на while и обойтись без кол-ва итераций
Зависнет
Не понял переход на 1:58, почему мы w2 приравняли к -1?
уравнение гиперплоскости:
w2*x2 + w1*x1 + w0 = 0
откуда
x2 = -w1/w2 * x1 - w0/w2
если приравнять w2 = -1, то все упрощается до:
x2 = w1*x1 + w0
@@selfedu_rus это я и не понимаю, на каком основании мы приравниваем w2 к -1?
@@andrew-6294 это настраиваемые коэффициенты, которые определяют ориентацию гиперплоскости в признаковом пространстве, коэффициенты выбираем сами так, чтобы решалась поставленная задача
Очень круто!
Спасибо вам за ваш труд! ❤
Хотя иногда приходится переслушивать еще раз, чтобы нормально разобраться, впечатляет четкая и структурированная подача информации.
@@selfedu_rus Не совсем понятно, как выбираются знаки классов и начального вектора. Если назначить наоборот (гусеницы +1) или перевернуть вектор w (w=[0,1]), то придется менять знак корректировки веса w1=w1-n*yi. Как не запутаться? Я так понял, что в данной задаче начальный вектор параметров должен смотреть в сторону класса +1. Но как обобщить на случай если признаки не только положительные и линия разделения может произвольно располагаться?
И еще если параметров не один w1, а несколько (wn), то что делать? Свой цикл по каждому параметру и находить минимальное число ошибок?
Ужас. Очень сложно. С четвёртого просмотра более-менее разобрался. А впереди ещё 40 уроков по этой теме... Автору спасибо за видео.
И это еще сильно упрощенный материал! Может, математику подтянуть нужно?
В каких моментах правки?
Вместо Айзерсона - Айверсон, остальное то же самое
Нотация Айверсона?
Почему нумерация №6 а до этого было 46?
перезалив, зафиксил ошибку написал Айзерсон, а надо Айверсон
это логистическая регрессия же?
нет, про логистическую здесь th-cam.com/video/c69XemLz4mY/w-d-xo.html
@@selfedu_rus спасибо!
Блин, зачем так сложно о простом. Зачем эти формулы, емае, речь идет о двумерной функции, да говори ты проще без этих Q(a,x) и нотаций Айзерсона. У тебя же цель объяснить на простом примере, какого лешего ты запутываешь сложными формулами и определениями, ты сам себе противоречишь и свою цель обучения делишь на ноль.
Мне наоборот нравится, что подробно. В интернете масса материалов, где обьясняют то же самое максимально просто, но и весьма поверхностно. В результате, когда читаешь документацию в Sklearn потом, там ничего не понятно, что за формулы и откуда ноги растут. Мозги мгновенно начинают кипеть. А Сергей хоть и сложно обьясняет, но зато подробно, и можно напрячься и вникнуть. Надеюсь, что хоть после этого курса станет проще с документацией общаться.
@@catgarfield1007 новичку надо объяснять как можно проще, надо идти от простого к сложному, а он сразу формулами закидывает и сложными опредеоенмями. Как обычно учит тех кто и так уже это знает. Типичный плохой учитель
кстати, можно сказать, что я маркер для учителей - если я понял, то учитель хороший, если я не понял, то учитель плохой. И весь вопрос пойму ли или не пойму ли. И моя фамилия говорит о том, что я есть маркер учителей.@@catgarfield1007
вопрос сам себе задай, зачем тебе это все, бедолага. если тебе не нравится - не слушай
@@narezonnetv4734 лучше сам себе задай вопрос зачем ты мне это написал