Таймкоды: 3:12 Условная вероятность 6:31 Перерыв 11:22 Продолжение 16:12 Независимость событий 19:38 Перерыв, проблемы с микрофоном 21:42 Продолжение 25:15 Примеры независимой вероятности 40:28 Перерыв, снова обсуждаем звук 45:05 Продолжение 45:25 Формула полной вероятности 46:18 Перерыв, и снова звук 49:11 Продолжение 52:27 Перерыв, снова звук 53:30 Продолжение 59:29 Формула Байеса 1:08:23 Размышления о названии видео Теория Вероятности 1:09:00 Схема испытаний Бернулли 1:22:10 Смотрите в следующей серии Схема испытаний Бернулли даётся уже сложно, наверное если ты не студент МФТИ, то лучше дополнительно почитать Колмогорова )
Разгадал эффект жу-жу. Райгородский ходит вдоль доски, доски крепятся на алюминиевой раме, что является рамочной антенной. Данная антенна включается в систему приемопередачи и слегка меняет полосу канала. Приемник подстраивает свой канал под передачик при подстройке возникает шум.
Для вольных слушателей с ютуба, кто 20 лет назад прогуливал лекции по предметам и у которых "дежавю", скиньте ссылку на задачник для закрепления материала
[1] Гнеденко, Б. В. Курс теории вероятностей: URSS, 2022. [2] Гнеденко Б. В., Хинчин А. Я. Элементарное введение в теорию вероятностей: URSS, 2022. [3] Ширяев, А. Н. Вероятность: МЦНМО, 2021. [4] Севастьянов Б. А., Курс теории вероятностей и математической статистики: URSS, 2022. [5] Севастьянов, Б. А., Чистяков, В. П, Зубков, А. М. Сборник задач по теории вероятностей: Наука, 1986. [6] Шабанов Д. А. Теория вероятностей.
С точки зрения интуиции - утверждение почти очевидно. У вас есть два множества A и B, допустим, они пересекаются по нескольким элементам (больше одного). Тогда, если происходит событие A, мы точно знаем, что вот эти несколько элементов, что и в множестве A, и в множестве B одновременно, имеют одинаковый цвет, а значит событие B становится более вероятным. Таким образом, если происходит событие A, то условная вероятность события B увеличивается, P(B) < P(B|A), т.е. события A и B зависимы. Этого не происходит, если множества A и B пересекаются по одному элементу. В этом случае, даже если происходит событие A, мы всё равно ничего не знаем про единственный элемент, что входит в оба множества. Он может быть любого цвета (событие A нам здесь не помогает), а больше мы ничего про него узнать не можем, поэтому вероятность события B остаётся такой же. P(B) = P(B|A). НО!!! Это остаётся так, только если вероятность выпадения каждого цвета p = 0.5 (классическая вероятность). В ином случае, если происходит событие A, то у нас сильно возрастает шанс выпадания более популярного цвета для элемента, который и в A и в B, и тут уже нет независимости событий A и B. Теперь формально. Определим p как вероятность выпадения первого цвета, соответсвенно (1-p) как вероятность второго цвета. Также определим количество элементов в множествах |A|=|B|=k и количество пересекающихся элементов r. Очевидно, что P(A)=P(B) = p^k + (1-p)^k. Теперь нам надо посчитвть P(B|A). Для этого введём новые события, A1 - все элементы множества A окрашены в первый цвет, A2 - все элементы множества A окрашены во второй цвет, B1' - все элементы множества B (кроме тех r элементов, что и в A и в B) окрашены в первый цвет, B2' - все элементы множества B (кроме тех r элементов, что и в A и в B) окрашены во второй цвет. Важно заметить, что события A1 и A2, B1' и B2' попарно несовместны, а события A1 и B1', A2 и B2' попарно независимы, также заметим, что события B1' и B2' не зависят от A. Нетрудно увидеть, что P(B|A) = P( ((A1 и B1' ) или (A2 и B2')) | A). Теперь следите за руками: P(B|A) = P( ((A1 и B1' ) или (A2 и B2')) | A) = P(A1 и B1' | A) + P(A2 и B2' | A) = P(A1|A) * P(B1') + P(A2|A) * P(B2') (Последние два перехода требуют обоснования, расписывать тут очень долго, просто отмечу что в ДАННОМ конкретном случае эти переходы верны засчёт того, что я писал выше - "Важно заметить...") . Итого, мы имеем P(B|A) = P(A1|A) * P(B1') + P(A2|A) * P(B2'). P(B1') и P(B2') считаются просто - P(B1') = p^(k-r) и P(B2') = (1-p)^(k-r). А вот P(A1|A) и P(A2|A) можно посчитать по Байесу, засчёт того, что P(A|A1) = P(A|A2) = 1. Итак, P(A1|A) = P(A1)/P(A) и P(A2|A) = P(A2)/P(A). Считаем P(A1) и P(A2) и далее P(A1|A) = p^k/(p^k + (1-p)^k) и P(A2|A) = (1-p)^k/(p^k + (1-p)^k). Ну и всё вместе, P(B|A) = p^k/(p^k + (1-p)^k) * p^(k-r) + (1-p)^k/(p^k + (1-p)^k) * (1-p)^(k-r) = (p^k * p^(k-r) + (1-p)^k * (1-p)^(k-r))/(p^k + (1-p)^k). Ну а дальше надо решить уравнение P(B) = P(B|A). Т.е. p^k+(1-p)^k = (p^k * p^(k-r) + (1-p)^k * (1-p)^(k-r))/(p^k + (1-p)^k). Уравнение с тремя неизвестными, причём одно неизвестное (p) вообще принимает действительные значения, так что решать тяжело. Можно попробовать аналитически порешать, м.б. получится доказать что P(B|A) > P(B) для каких-то значений p,k,r. Если, к примеру, зафиксировать p, то можно найти значения, при которых r даёт равенство P(B) и P(B|A) для всех k. Это можно сделать численно, при помощи WolframAlpha и подобных систем. При p=0.5, r=1 является единственным решением. Для всех других p, которые я проверял, решений нет, что соответсвует нашим интуитивным предположениям.
Фантастический преподаватель.
Бог с ним со звуком. Можно и потерпеть.
Таймкоды:
3:12 Условная вероятность
6:31 Перерыв
11:22 Продолжение
16:12 Независимость событий
19:38 Перерыв, проблемы с микрофоном
21:42 Продолжение
25:15 Примеры независимой вероятности
40:28 Перерыв, снова обсуждаем звук
45:05 Продолжение
45:25 Формула полной вероятности
46:18 Перерыв, и снова звук
49:11 Продолжение
52:27 Перерыв, снова звук
53:30 Продолжение
59:29 Формула Байеса
1:08:23 Размышления о названии видео Теория Вероятности
1:09:00 Схема испытаний Бернулли
1:22:10 Смотрите в следующей серии
Схема испытаний Бернулли даётся уже сложно, наверное если ты не студент МФТИ, то лучше дополнительно почитать Колмогорова )
Спасибо за детство, легенда
классные лекции) даже трудности со звуком не такое уж препятствие, когда лектор так увлекательно рассказывает)
Разгадал эффект жу-жу. Райгородский ходит вдоль доски, доски крепятся на алюминиевой раме, что является рамочной антенной. Данная антенна включается в систему приемопередачи и слегка меняет полосу канала. Приемник подстраивает свой канал под передачик при подстройке возникает шум.
Звуки возникают когда он рукой машет на уровне пояса.(а там передатчик с антенной) Возможно часы имеют что-то электромагнитное что влияет на сигнал
Офигенные лекции! Пофиг на шум, каждое слово , фразу ловлю!)
Для вольных слушателей с ютуба, кто 20 лет назад прогуливал лекции по предметам и у которых "дежавю", скиньте ссылку на задачник для закрепления материала
[1] Гнеденко, Б. В. Курс теории вероятностей: URSS, 2022.
[2] Гнеденко Б. В., Хинчин А. Я. Элементарное введение в теорию вероятностей:
URSS, 2022.
[3] Ширяев, А. Н. Вероятность: МЦНМО, 2021.
[4] Севастьянов Б. А., Курс теории вероятностей и математической статистики:
URSS, 2022.
[5] Севастьянов, Б. А., Чистяков, В. П, Зубков, А. М. Сборник задач по теории вероятностей:
Наука, 1986.
[6] Шабанов Д. А. Теория вероятностей.
Андрей Михайлович: переживает, что мало людей в аудитории и на стриме
Спустя 3 года: 19к просмотров
Спасибо за интересную лекцию
Шум не зависит от микрофона. Это плохая связь передатчика и базы.
В контактах скорее всего дело.
1:08 конечная формула p/(p + 0.5) странно получается, если задачу все обычно решают т.е. p = 1 , то 100% не получается...
Кто-нибудь может поделиться тем, как подойти к решению той задачи про раскраску?
@@prologenjoyer7092 Лучше бы ты нормально ответил если знаешь
С точки зрения интуиции - утверждение почти очевидно. У вас есть два множества A и B, допустим, они пересекаются по нескольким элементам (больше одного). Тогда, если происходит событие A, мы точно знаем, что вот эти несколько элементов, что и в множестве A, и в множестве B одновременно, имеют одинаковый цвет, а значит событие B становится более вероятным. Таким образом, если происходит событие A, то условная вероятность события B увеличивается, P(B) < P(B|A), т.е. события A и B зависимы. Этого не происходит, если множества A и B пересекаются по одному элементу. В этом случае, даже если происходит событие A, мы всё равно ничего не знаем про единственный элемент, что входит в оба множества. Он может быть любого цвета (событие A нам здесь не помогает), а больше мы ничего про него узнать не можем, поэтому вероятность события B остаётся такой же. P(B) = P(B|A). НО!!! Это остаётся так, только если вероятность выпадения каждого цвета p = 0.5 (классическая вероятность). В ином случае, если происходит событие A, то у нас сильно возрастает шанс выпадания более популярного цвета для элемента, который и в A и в B, и тут уже нет независимости событий A и B.
Теперь формально. Определим p как вероятность выпадения первого цвета, соответсвенно (1-p) как вероятность второго цвета. Также определим количество элементов в множествах |A|=|B|=k и количество пересекающихся элементов r. Очевидно, что P(A)=P(B) = p^k + (1-p)^k. Теперь нам надо посчитвть P(B|A). Для этого введём новые события, A1 - все элементы множества A окрашены в первый цвет, A2 - все элементы множества A окрашены во второй цвет, B1' - все элементы множества B (кроме тех r элементов, что и в A и в B) окрашены в первый цвет, B2' - все элементы множества B (кроме тех r элементов, что и в A и в B) окрашены во второй цвет. Важно заметить, что события A1 и A2, B1' и B2' попарно несовместны, а события A1 и B1', A2 и B2' попарно независимы, также заметим, что события B1' и B2' не зависят от A. Нетрудно увидеть, что P(B|A) = P( ((A1 и B1' ) или (A2 и B2')) | A). Теперь следите за руками: P(B|A) = P( ((A1 и B1' ) или (A2 и B2')) | A) = P(A1 и B1' | A) + P(A2 и B2' | A) = P(A1|A) * P(B1') + P(A2|A) * P(B2') (Последние два перехода требуют обоснования, расписывать тут очень долго, просто отмечу что в ДАННОМ конкретном случае эти переходы верны засчёт того, что я писал выше - "Важно заметить...") . Итого, мы имеем P(B|A) = P(A1|A) * P(B1') + P(A2|A) * P(B2'). P(B1') и P(B2') считаются просто - P(B1') = p^(k-r) и P(B2') = (1-p)^(k-r). А вот P(A1|A) и P(A2|A) можно посчитать по Байесу, засчёт того, что P(A|A1) = P(A|A2) = 1. Итак, P(A1|A) = P(A1)/P(A) и P(A2|A) = P(A2)/P(A). Считаем P(A1) и P(A2) и далее P(A1|A) = p^k/(p^k + (1-p)^k) и P(A2|A) = (1-p)^k/(p^k + (1-p)^k). Ну и всё вместе, P(B|A) = p^k/(p^k + (1-p)^k) * p^(k-r) + (1-p)^k/(p^k + (1-p)^k) * (1-p)^(k-r) = (p^k * p^(k-r) + (1-p)^k * (1-p)^(k-r))/(p^k + (1-p)^k).
Ну а дальше надо решить уравнение P(B) = P(B|A). Т.е. p^k+(1-p)^k = (p^k * p^(k-r) + (1-p)^k * (1-p)^(k-r))/(p^k + (1-p)^k). Уравнение с тремя неизвестными, причём одно неизвестное (p) вообще принимает действительные значения, так что решать тяжело. Можно попробовать аналитически порешать, м.б. получится доказать что P(B|A) > P(B) для каких-то значений p,k,r. Если, к примеру, зафиксировать p, то можно найти значения, при которых r даёт равенство P(B) и P(B|A) для всех k. Это можно сделать численно, при помощи WolframAlpha и подобных систем. При p=0.5, r=1 является единственным решением. Для всех других p, которые я проверял, решений нет, что соответсвует нашим интуитивным предположениям.
елки иголки