Спасибо за лекции. Я сам юрист, начал сначала читать учебники по обычной логике, а потом перешёл к математической. Но честно сказать, пока не совсем понял, где мне в решении обычных логических задач поможет СДНФ, например. Пытаюсь решать задачи Смаллиана, и для этого найти что-нибудь универсальное, а не обычные таблицы истинности или синтаксические решения.
Спасибо за отзыв! СДНФ и прочие радости жизненно необходимы, например, при разработке логических схем, при работе с триггерами в подобных задачах. А применимо к нашему курсу - это тренажёр для мозга, помогающий настроиться на нужный лад мышления :)
Спасибо огромное за материал, но у меня вопрос по поводу кода грэя. мы поменяли 00, 01,10, 11 на 00, 01, 11, 10, но мы же получается наврали) Ну то есть взяли и подставили другие значения, вместо тех которые были, разве это не сломает нашу модель?
Спасибо за отзыв! Нет, мы не наврали :) Мы просто переставили числа местами так, чтобы они отличались от соседей только одним разрядом. Столбец Y тоже переставился.
@@dudvstud9081 Ааа... дошло) спасибо, а всегда удаётся найти такую комбинацию, где значения будут меняться только на 1 знак? А если нет, тогда что? Вот допустим куб очень многомерный и значения сильно отличаются?
@@АлексейМолодан-з3ф так код Грея же! Это такая кодировка чисел, при которой соседние значения отличаются одним разрядом. Пусть у нас N переменных, тогда у нас куб будет N- мерным, у него будет 2^N вершин. Строки кода Грея для всех чисел до 2^N и формируем куб.
@@dudvstud9081 Простите гуманитария за глупый вопрос). До меня вроде дошло, это же как в кубе всегда можно найти грань, которая отличается только одним значением. Значит, как я понял, всегда будет возможность переставить результаты так, чтобы сформировался код Грея.
Здравствуйте! Не знаю правильно ли я определил ячейки с нулями, но я попытался в Excel сделать такую же карту Карно, как и у вас, с такими же значениями в таблице и вывести теперь уже конъюнктивную нормальную форму и у меня получилось: F = ( !x1 + x2 + !x3 + x4) * ( !x2 + !x3 + !x4 + !x5) * ( !x1 + x2 + !x4 ) * ( !x2 + x4 ) * ( x1 + x2 ) Если что, ! - это инвертирование. Не знаю правильно ли определил, может проверите и скажите. А так спасибо за ваши лекции!
@@dudvstud9081 В конце урока 34:30 вы говорите про конъюнктивную нормальную форму, я на вашем примере попытался, как вы и говорите, брать максимально большие области с нулём размером 2^n и построить конъюнктивную нормальную форму
7:28 "сочетания этих элементов" - вы имеете ввиду сочетания из комбинаторики или в обыденном смысле? Это же размещения с повторением, извиняюсь что придираюсь к словам)
@@anzarsh , если я правильно понимаю, то Вы говорите о представимости булевой функции как нейрона с линейной пороговой активацией. Я не знаю примеров использования для этой задачи карт Карно. Но точно знаю, любая функция может быть представлена двуслойной нейросетью (по теореме Цибенко).
@@dudvstud9081 да, именно, явным примером является проблема xor, когда исключающее или не может быть представимо в виде одиночного нейрона, очевидно потому что две вершины по диагонали должны иметь разные значения. О теореме Цибенко не знал, спасибо. Хотя в случае с булевыми функциями вроде как и очевидно что ДНФ и КНФ могут быть интерпретированы как нейросети и так как с помощью ДНФ и КНФ можно выразить любую булеву функцию то теорема доказана))
Спасибо за материал, Слава скажите где в МЛ используются методы СДНФ СКНФ, если используются) С удовольствием посмотрел все видео, знаю что раньше уже спрашивали порекомендовать книги и доп материалы , будет очень к стати)
Я не астречал примеров использования СКНФ и СДНФ непосредственно в машинном обучении. Но их используют в оптимизации сложных алгоритмов. Можно, например упростить реалищацию обученного классифицирующего дерева используя методы, схожие с методом Квайна.
Вы крутой!
Спасибо! Постараюсь и в будущем не разочаровать.
Лучший!
Спасибо :)
Спасибо, очень хорошо объясняете. Вы мне напомнили Трушина только с более серьёзной математикой
Спасибо :)
учусь в германии на айтишника, эти видео мне очень помогли понять материал) спасибо, было бы здорово, если бы Вы рассказали еще и про автоматы
Спасибо за отзыв! Я, не имею, к сожалению, достаточного опыта в автоматах...
Спасибо за лекции. Я сам юрист, начал сначала читать учебники по обычной логике, а потом перешёл к математической. Но честно сказать, пока не совсем понял, где мне в решении обычных логических задач поможет СДНФ, например. Пытаюсь решать задачи Смаллиана, и для этого найти что-нибудь универсальное, а не обычные таблицы истинности или синтаксические решения.
Спасибо за отзыв! СДНФ и прочие радости жизненно необходимы, например, при разработке логических схем, при работе с триггерами в подобных задачах. А применимо к нашему курсу - это тренажёр для мозга, помогающий настроиться на нужный лад мышления :)
Спасибо за урок!
Спасибо за отзывы! Работаю над новыми уроками.
Спасибо за видео))
Спасибо за отзыв :)
Спасибо)
И Вам спасибо за комментарий :)
Спасибо огромное за материал, но у меня вопрос по поводу кода грэя. мы поменяли 00, 01,10, 11 на 00, 01, 11, 10, но мы же получается наврали) Ну то есть взяли и подставили другие значения, вместо тех которые были, разве это не сломает нашу модель?
Спасибо за отзыв!
Нет, мы не наврали :) Мы просто переставили числа местами так, чтобы они отличались от соседей только одним разрядом. Столбец Y тоже переставился.
@@dudvstud9081 Ааа... дошло) спасибо, а всегда удаётся найти такую комбинацию, где значения будут меняться только на 1 знак? А если нет, тогда что? Вот допустим куб очень многомерный и значения сильно отличаются?
@@АлексейМолодан-з3ф так код Грея же! Это такая кодировка чисел, при которой соседние значения отличаются одним разрядом. Пусть у нас N переменных, тогда у нас куб будет N- мерным, у него будет 2^N вершин. Строки кода Грея для всех чисел до 2^N и формируем куб.
@@dudvstud9081 Простите гуманитария за глупый вопрос). До меня вроде дошло, это же как в кубе всегда можно найти грань, которая отличается только одним значением. Значит, как я понял, всегда будет возможность переставить результаты так, чтобы сформировался код Грея.
@@АлексейМолодан-з3ф да, все верно!
Большое спасибо за материал!
Подскажите, пожалуйста, почему в примере ДНФ из 2 области (32:29) мы берем х3? там ведь x3 имеет разные значения(1| 0).
Да нет вроде бы, вторая область занимает 1 значение по х3, х4 и х5: 1, 1, 0 соответственно
@@dudvstud9081 Все, разобрался! Спасибо!
Очень интересные и полезные уроки!
Здравствуйте! Не знаю правильно ли я определил ячейки с нулями, но я попытался в Excel сделать такую же карту Карно, как и у вас, с такими же значениями в таблице и вывести теперь уже конъюнктивную нормальную форму и у меня получилось:
F = ( !x1 + x2 + !x3 + x4) * ( !x2 + !x3 + !x4 + !x5) * ( !x1 + x2 + !x4 ) * ( !x2 + x4 ) * ( x1 + x2 )
Если что, ! - это инвертирование. Не знаю правильно ли определил, может проверите и скажите. А так спасибо за ваши лекции!
Напомните, пожалуйста, на каком моменте времени моя карта Карно, с чем сравнивать? :)
@@dudvstud9081 В конце урока 34:30 вы говорите про конъюнктивную нормальную форму, я на вашем примере попытался, как вы и говорите, брать максимально большие области с нулём размером 2^n и построить конъюнктивную нормальную форму
Мне кажется, Вам надо добавить множитель (!Х1+!Х2+Х4):
F = ( !x1 + x2 + !x3 + x4) * ( !x2 + !x3 + !x4 + !x5) * ( !x1 + x2 + !x4 ) * ( !x2 + x4 ) * ( x1 + x2 ) * (!Х1+!Х2+Х4)@@Никита-т8у6н
А, нет! Был не прав :) Ваш вариант абсолютно верный!
F = ( !x1 + x2 + !x3 + x4) * ( !x2 + !x3 + !x4 + !x5) * ( !x1 + x2 + !x4 ) * ( !x2 + x4 ) * ( x1 + x2 ) @user-zy6bw5uo3g
7:28 "сочетания этих элементов" - вы имеете ввиду сочетания из комбинаторики или в обыденном смысле? Это же размещения с повторением, извиняюсь что придираюсь к словам)
Тут сочетания в бытовом смысле :)
А с помощью карты Карно можно определить представимость конкретной булевой функции через ЛПФ?
А расшифруйте, пожалуйста, ЛПФ :)
@@dudvstud9081 сорри, линейная пороговая функция)
@@anzarsh , если я правильно понимаю, то Вы говорите о представимости булевой функции как нейрона с линейной пороговой активацией. Я не знаю примеров использования для этой задачи карт Карно. Но точно знаю, любая функция может быть представлена двуслойной нейросетью (по теореме Цибенко).
Я правильно понял Ваш вопрос или нет?
@@dudvstud9081 да, именно, явным примером является проблема xor, когда исключающее или не может быть представимо в виде одиночного нейрона, очевидно потому что две вершины по диагонали должны иметь разные значения. О теореме Цибенко не знал, спасибо. Хотя в случае с булевыми функциями вроде как и очевидно что ДНФ и КНФ могут быть интерпретированы как нейросети и так как с помощью ДНФ и КНФ можно выразить любую булеву функцию то теорема доказана))
Спасибо за материал, Слава скажите где в МЛ используются методы СДНФ СКНФ, если используются) С удовольствием посмотрел все видео, знаю что раньше уже спрашивали порекомендовать книги и доп материалы , будет очень к стати)
Я не астречал примеров использования СКНФ и СДНФ непосредственно в машинном обучении.
Но их используют в оптимизации сложных алгоритмов. Можно, например упростить реалищацию обученного классифицирующего дерева используя методы, схожие с методом Квайна.
ничего не понял, но очень интересно) большое спасибо за урок)
Спасибо за отзыв! Жаль, что не понятно. Задавайте уточняющие вопросы ;)
😂😅😢 на всех каналах пытаются объяснить по разному карты карно и ни один нормально не может объяснить и тут также.
Еси что-то конкретное не понятно, то можно задать вопрос.