Метод максимального правдоподобия | Теория вероятностей | Умскул

แชร์
ฝัง
  • เผยแพร่เมื่อ 5 ก.ย. 2024
  • Чтобы узнать подробнее о вузовских курсах или записаться, пиши кодовое слово в сообщения группы - vk.me/umschoolvuz

ความคิดเห็น • 2

  • @eduardtsuranov712
    @eduardtsuranov712 ปีที่แล้ว +13

    В интернете кто-то не прав! Это не допустимо:)
    6:24 - дисперсия равна квадрату среднеквадратического отклонения
    14:18 - "что я получил?" - ерунду! сумма не может быть внутри квадрата, там должна быть сумма квадратов
    15:48 - боже мой :) весь смысл логарифмирования извращен до безобразия ))) Все проще: L = П(f(xi) => Ln(L)=Сумма(Ln(f(xi))), что дает возможность взять производную от логарифма функции и ПОТОМ(что очень удобно, в отличие от того что в видео) просуммировать функцию(производную от логарифма функции плотности вероятности) для всех х
    17:41 - боже ж ты мой, откуда там второй квадрат-то взялся?
    18:15 - ))))))))))))))) ахахахаха! Таких вольных математических преобразований за всю свою(никчемную) жизнь не видел:): фантомные квадраты, сумма легко заходит внутрь квадрата и так же из под него выходит.
    20:13 - и как следствие откуда не возьмись у отдельно стоящей "мю" появляется сумма! (брюки превращаются...)
    Автору спасибо за старания. Но, вероятно, опыта мало и невнимательность(или волнение или не знаю что это). И классическая ошибка - давать материал сложно и запутанно. Имхо нужно сначала подумать как донести так, чтобы ребенку было понятно. Но на это нужно время, возможно, у автора его не было. Так же спасибо огромное - было очень весело, чутка потешил свое самолюбие(что не один я делаю глупые ошибки) :)
    Ну и суть правдоподобия можно было бы привести на более простом доступном примере, а не через страшные для многих людей формулы(функцию Гаусса).
    Суть(как я это вижу): у нас есть выборка, если наблюдения не зависимы, то вероятность пронаблюдать всю выборку целиком равна произведению вероятностей отдельных наблюдений. А теперь нюанс. У нас может быть какой-то параметр/много параметров, который влияет на вероятность(вычисленную, прогнозируемую) наблюдения(события). Например, монетку подкинули и изначально у нас 50 на 50(вероятность принимаем 0.5) и допустим выборка 0 1 0 1. Тогда функция правдоподобия(вероятность увидеть выборку) будет 0.5^4 = 0.0625. Но если мы зафиксируем физические характеристики (скорость ускорение, координаты в пространстве и тд - все не обходимое для расчетов) и сможем посчитать точно результат, то правдоподобие будет равно 1*1*1*1 = 1. Но это пока без параметров, просто смысл правдоподобия. Но можем и переменные параметры(если такие есть, например, для заданного распределения) подбирать такие, чтобы это правдоподобие максимизировать. И для этого можем применять фишку логарифмирования для перевода произведения в сумму.

  • @alexeydolgov6292
    @alexeydolgov6292 2 ปีที่แล้ว

    7:11 у нормального распределения, возможно, перепутали сигму с дисперсией, сама дисперсия равна сигме в квадрате