[Коллоквиум]: Математика больших данных: тензоры, нейросети, байесовский вывод - Ветров Д.П.

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 พ.ย. 2024

ความคิดเห็น • 17

  • @themachine9329
    @themachine9329 8 ปีที่แล้ว +33

    Жаль что торопили лектора, на такую интересную тему дали несчастный час, могли бы и побольше. Ветров отлично рассказывает.

  • @aurelia_lepida
    @aurelia_lepida 6 ปีที่แล้ว +1

    Шикарный лектор! Спасибо огромное))

  • @OlegBezverhii
    @OlegBezverhii 9 ปีที่แล้ว +1

    Мне понравилось, жалко не успели всё рассказать, но слушать было интересно. Нам бы такого преподавателя в университет)

  • @vitaliivostotskyi9855
    @vitaliivostotskyi9855 9 ปีที่แล้ว +2

    Я тоже на вводной лекции по системам и методам принятия решений рассказываю пример о кредитном эксперте. Но скрытые переменные это не из той оперы. прежде всего есть такое понятие как образ, или паттерн. и машинное обучение сводится к задаче распознавания образов, где первоначально идет обучение-то есть обобщение признаков путем их описания поверхностью в некотором пространстве, либо другим способом. далее идет классификация, когда для текущего состояния некоторого объекта , зафиксированного в определенный момент времени , нужно оценить принадлежность к тому или иному образу. образ по сути есть совокупность данных, описывающих типичное проявление некоторого устойчивого во времени поведения объекта. например, для банка, у объекта кредитора есть 2 устойчивых состояния -надежный кредитор и ненадежный(неспособный отдать средства). каждая точка на том графике не есть объект, а всего лишь проявление определенного абстрактного объекта в виде совокупности его характеристик, зафиксированных в момент времени, когда он пребывал в одном из таких устойчивых состояний.
    относительно признаков.
    с точки зрения оптимальности, мы можем построить такие решающие правила, которые позволят нам четко разделить данные для разных паттернов. тогда наш классификатор будет безошибочным(по обучающей выборке). так вот, правильно подобранные признаки влияют на эту самую оптимальность. если рассматривать такие признаки, которые, например , будут принимать разные значения, когда наш объект управления будет находится в разных состояниях. признаки принято делить на 3 типа.
    1. информативные- удалив их из числа признаков(назовем его словарем признаков), мы ухудшим результаты обучения. то есть эти признаки несут ИНФОРМАЦИЮ о РАЗНООБРАЗИИ состояний объекта.
    2. неинформативные или мешающие. если убрать из словаря признаков качество обучения улучшиться.
    3. латентные признаки-это признаки , которые несут информацию о разнообразии проявления объектов, либо же простыми словами-имеют полезные ведомости о состояниях объекта, но эти ведомости нельзя оценить, пока в словаре присутствуют другие, как правило, неинформативные признаки. сокращая словарь признаков по определенному алгоритму, можно добиться, что в определенный момент времени значение критерия качества обучения может вырасти. и это несмотря на принцип аддитивности в теории информации(чем больше элементов имеет сообщение, тем более ценности оно может иметь.) но в то же время семантический подход к оценке количества информации говорит о том, что разные елементы сообщения могут иметь разный вес, то есть информативность.

  • @ac12484
    @ac12484 9 ปีที่แล้ว +1

    Первый слайд: уже путаница между hidden variable и target variable. Обучающая выборка, это где известны значения target variable. А в модели могут быть еще и hidden variables, которые не известны ни в одной выборке, и являются чисто частью модели, например топики в LDA...

    • @quickD11
      @quickD11 9 ปีที่แล้ว

      avaku вопрос терминологии. А первый слайд на то и первый, чтобы эту самую терминологию установить. К тому же у вас не вызывает возмущение, что hidden переменные еще и latent могут называться. Вообще указанная терминология имеет непосредственное отношение к скрытым марковским цепям, где задача стоит ровно такая же, по наблюдаемым величинам (observable) построить распределение скрытых (hidden).

  • @programmer78
    @programmer78 7 ปีที่แล้ว

    Здравствуйте, не могли бы вы выложить слайды где-нибудь ещё (например, на Гугл-диске расшарить), потому что на slide share какие-то проблемы... не получается их там посмотреть.

  • @gleleylo
    @gleleylo 9 ปีที่แล้ว +1

    Интересно, но слайды с формулами я не смог понять.

  • @user-KXAxoe66vg12g
    @user-KXAxoe66vg12g 7 ปีที่แล้ว +2

    В любом большом объеме данных есть закономерности, даже если они сгенерированы случайно. Это доказали Семереди и Рамсей. ;)

    • @wugu42
      @wugu42 7 ปีที่แล้ว +1

      Безусловно, есть. Но на них абстракций не построишь же.

  • @СпартакЩёлоков
    @СпартакЩёлоков 7 ปีที่แล้ว +1

    Название ролика напугало страшно..:-\ Думал, мне 'ваааще не понять'
    Оказалось - лекция 'для продвинутых домохозяек', количество 'многабукафф' в пределах нужного и не более.
    Рекомендую всем, кто сам не в теме (как я), но хочет разобраться.

  • @АлександрСавостицкий
    @АлександрСавостицкий 3 ปีที่แล้ว

    Приглашаем в группу по методам
    машинного обучения и Data Science - без формул: vk.com/dm_azforus

  • @romulspb76
    @romulspb76 4 ปีที่แล้ว

    2020!!!

  • @dmitriykorotaev8649
    @dmitriykorotaev8649 4 ปีที่แล้ว

    Как бесят люди, которые прерывают расказчика, чтобы выебнуться своими знаниями - а вот тут вы ошиблись... а позвольте дополню... главное, что дополняют какие-то несущественные вещи.

  • @robertkatz240
    @robertkatz240 7 ปีที่แล้ว +2

    Как же раздражают "умники", постоянно перебивающие лектора!