В интернете кто-то не прав! Это не допустимо:) 6:24 - дисперсия равна квадрату среднеквадратического отклонения 14:18 - "что я получил?" - ерунду! сумма не может быть внутри квадрата, там должна быть сумма квадратов 15:48 - боже мой :) весь смысл логарифмирования извращен до безобразия ))) Все проще: L = П(f(xi) => Ln(L)=Сумма(Ln(f(xi))), что дает возможность взять производную от логарифма функции и ПОТОМ(что очень удобно, в отличие от того что в видео) просуммировать функцию(производную от логарифма функции плотности вероятности) для всех х 17:41 - боже ж ты мой, откуда там второй квадрат-то взялся? 18:15 - ))))))))))))))) ахахахаха! Таких вольных математических преобразований за всю свою(никчемную) жизнь не видел:): фантомные квадраты, сумма легко заходит внутрь квадрата и так же из под него выходит. 20:13 - и как следствие откуда не возьмись у отдельно стоящей "мю" появляется сумма! (брюки превращаются...) Автору спасибо за старания. Но, вероятно, опыта мало и невнимательность(или волнение или не знаю что это). И классическая ошибка - давать материал сложно и запутанно. Имхо нужно сначала подумать как донести так, чтобы ребенку было понятно. Но на это нужно время, возможно, у автора его не было. Так же спасибо огромное - было очень весело, чутка потешил свое самолюбие(что не один я делаю глупые ошибки) :) Ну и суть правдоподобия можно было бы привести на более простом доступном примере, а не через страшные для многих людей формулы(функцию Гаусса). Суть(как я это вижу): у нас есть выборка, если наблюдения не зависимы, то вероятность пронаблюдать всю выборку целиком равна произведению вероятностей отдельных наблюдений. А теперь нюанс. У нас может быть какой-то параметр/много параметров, который влияет на вероятность(вычисленную, прогнозируемую) наблюдения(события). Например, монетку подкинули и изначально у нас 50 на 50(вероятность принимаем 0.5) и допустим выборка 0 1 0 1. Тогда функция правдоподобия(вероятность увидеть выборку) будет 0.5^4 = 0.0625. Но если мы зафиксируем физические характеристики (скорость ускорение, координаты в пространстве и тд - все не обходимое для расчетов) и сможем посчитать точно результат, то правдоподобие будет равно 1*1*1*1 = 1. Но это пока без параметров, просто смысл правдоподобия. Но можем и переменные параметры(если такие есть, например, для заданного распределения) подбирать такие, чтобы это правдоподобие максимизировать. И для этого можем применять фишку логарифмирования для перевода произведения в сумму.
В интернете кто-то не прав! Это не допустимо:)
6:24 - дисперсия равна квадрату среднеквадратического отклонения
14:18 - "что я получил?" - ерунду! сумма не может быть внутри квадрата, там должна быть сумма квадратов
15:48 - боже мой :) весь смысл логарифмирования извращен до безобразия ))) Все проще: L = П(f(xi) => Ln(L)=Сумма(Ln(f(xi))), что дает возможность взять производную от логарифма функции и ПОТОМ(что очень удобно, в отличие от того что в видео) просуммировать функцию(производную от логарифма функции плотности вероятности) для всех х
17:41 - боже ж ты мой, откуда там второй квадрат-то взялся?
18:15 - ))))))))))))))) ахахахаха! Таких вольных математических преобразований за всю свою(никчемную) жизнь не видел:): фантомные квадраты, сумма легко заходит внутрь квадрата и так же из под него выходит.
20:13 - и как следствие откуда не возьмись у отдельно стоящей "мю" появляется сумма! (брюки превращаются...)
Автору спасибо за старания. Но, вероятно, опыта мало и невнимательность(или волнение или не знаю что это). И классическая ошибка - давать материал сложно и запутанно. Имхо нужно сначала подумать как донести так, чтобы ребенку было понятно. Но на это нужно время, возможно, у автора его не было. Так же спасибо огромное - было очень весело, чутка потешил свое самолюбие(что не один я делаю глупые ошибки) :)
Ну и суть правдоподобия можно было бы привести на более простом доступном примере, а не через страшные для многих людей формулы(функцию Гаусса).
Суть(как я это вижу): у нас есть выборка, если наблюдения не зависимы, то вероятность пронаблюдать всю выборку целиком равна произведению вероятностей отдельных наблюдений. А теперь нюанс. У нас может быть какой-то параметр/много параметров, который влияет на вероятность(вычисленную, прогнозируемую) наблюдения(события). Например, монетку подкинули и изначально у нас 50 на 50(вероятность принимаем 0.5) и допустим выборка 0 1 0 1. Тогда функция правдоподобия(вероятность увидеть выборку) будет 0.5^4 = 0.0625. Но если мы зафиксируем физические характеристики (скорость ускорение, координаты в пространстве и тд - все не обходимое для расчетов) и сможем посчитать точно результат, то правдоподобие будет равно 1*1*1*1 = 1. Но это пока без параметров, просто смысл правдоподобия. Но можем и переменные параметры(если такие есть, например, для заданного распределения) подбирать такие, чтобы это правдоподобие максимизировать. И для этого можем применять фишку логарифмирования для перевода произведения в сумму.
7:11 у нормального распределения, возможно, перепутали сигму с дисперсией, сама дисперсия равна сигме в квадрате