ЦОС Python #9: Байесовское построение оценок, метод максимального правдоподобия

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 ธ.ค. 2024

ความคิดเห็น • 20

  • @g.s1849
    @g.s1849 11 หลายเดือนก่อน +1

    Сергей, я правильно понимаю, что в контексте минимизации не имеет значение минимизируем ли мы случайную величину [θ−\frac{1}{n}(y_1+…+y_n)] или же случайной величину R([θ−\frac{1}{n}(y_1+…+y_n)]) где R это функция которая ведет к значению зависящей от θ−\frac{1}{n}(y_1+…+y_n), все равно минимизация одного мат ожидания приведет к минимизации другой, и в контексте минимизации использование θ−\frac{1}{n}(y_1+…+y_n) случайного распределения или R([θ−\frac{1}{n}(y_1+…+y_n)]) не имеет значения?

  • @СарматПересветов
    @СарматПересветов 9 หลายเดือนก่อน +1

    Очень полезный урок, но было бы лучше, если бы мы еще рассмотрели конкретный пример нахождения, закрепили бы так сказать на практике, то было бы еще лучше))

  • @impellergimpeller5133
    @impellergimpeller5133 2 ปีที่แล้ว +1

    👍👍👍👍👍

  • @barosfpv
    @barosfpv 2 ปีที่แล้ว +1

    Здравствуйте! На моменте 5:21 нет ошибки? Вроде дифференцирование должно быть по тета с крышкой?

    • @selfedu_rus
      @selfedu_rus  2 ปีที่แล้ว

      нет, тета, т.к. это переменная, тета с крышкой - оценка параметра, ее мы должны в итоге найти

    • @barosfpv
      @barosfpv 2 ปีที่แล้ว

      @@selfedu_rus Тета без крышки в данной записи - переменная интегрирования, весь интеграл же - функция от Тета с крыкой, его нельзя дифференциировать по тета.

    • @selfedu_rus
      @selfedu_rus  2 ปีที่แล้ว

      Здесь следует воспринимать тета с крышкой, как целевое (оптимальное) значение параметра тета, которое мы хотим найти в соответствии с квадратической функцией потерь. Поэтому единственная переменная, которая здесь есть - это параметр тета.

    • @barosfpv
      @barosfpv 2 ปีที่แล้ว +1

      @@selfedu_rus Да, всё верно, мы ищем тету с крышкой - оптимальную оценку параметра тета для всех возможных значений самого тета и результатов измерений тета. Для этого нужно минимизировать функцию потерь по параметру тета с крышкой. И производную на 5:30 нужно брать по тета с крышкой, иначе это математически не верно - мы уже проинтегрировали по всем возможным значениям тета на бесконечном интервале, интеграл больше от неё не зависит. На слайде все выкладки правильно записаны, кроме того, что надо крышку добавить к переменной, по которой берётся производная.

    • @selfedu_rus
      @selfedu_rus  2 ปีที่แล้ว +1

      ​@@barosfpv да, лажанулся немного, вы правы по тета с крышкой!

  • @RockstarAlexander
    @RockstarAlexander 4 ปีที่แล้ว +1

    👍

  • @ГерманКалашников-л7д
    @ГерманКалашников-л7д 2 ปีที่แล้ว +1

    Здравствуйте на 11:46 говорится о том,что точка максимума будет достигаться ,когда степень exp минимальна,почему так ?

    • @selfedu_rus
      @selfedu_rus  2 ปีที่แล้ว

      Да, например, exp(-x) максимум при x=0. Постройте график и убедитесь.

    • @YbisZX
      @YbisZX 9 หลายเดือนก่อน

      @@selfedu_rusУ exp(-x) максимум не при x=0, а при y=0, если x=y^2. Вообще, не всякий зритель на зубок знает теорию вероятности. Что эта за формула с интегралами на 2:55?

  • @РональдУизли5198
    @РональдУизли5198 4 ปีที่แล้ว

    Добрый день, можете сделать ролик о том, где применяется питон и как именно? Не очень понятно как на нем реализуются задачи и какого плана эти самые задачи. Пытался найти ответ на это в интернете, но ответ всегда общий - питон везде применяется и очень полезен, но вот как именно никто не говорит. Будьте добры пожалуйста.

    • @selfedu_rus
      @selfedu_rus  4 ปีที่แล้ว +1

      у вас общий вопрос, поэтому и получаете общий ответ, питон в нейронных сетях, в бэкендах сайтов, в научных исследованиях, и т.п.

  • @АндрейПомысов
    @АндрейПомысов 4 ปีที่แล้ว +3

    Вообще хорошие ролики, но этот не очень коррелирует по доступности с предыдущими. Может ссылок на теорему Байеса дать и пару примеров из реальной жизни закинуть? А то без базовых знаний про Байеса тяжеловато будет воспринимать...