Лекция. Контестные эмбеддинги. Word2Vec.

แชร์
ฝัง
  • เผยแพร่เมื่อ 13 พ.ค. 2023
  • Занятие ведёт Татьяна Гайнцева.
    ---
    Deep Learning School при ФПМИ МФТИ
    Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
    За нашими новостями можно следить здесь:
    Наш канал в TG: t.me/deep_learning_school_news
    Официальный сайт: dls.samcs.ru/ru/
    Официальная группа ВК: dlschool_mipt
    Github-репозиторий: github.com/DLSchool/dlschool
    Поддержать канал можно на Boosty: boosty.to/deeplearningschool
    ФПМИ МФТИ
    Официальный сайт: mipt.ru/education/departments...
    Магистратура: mipt.ru/education/departments...
    Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
    Онлайн-магистратура "Цифровая экономика": digec.online/
    Лаборатории ФПМИ: mipt.ru/education/departments...

ความคิดเห็น • 21

  • @ilona7051
    @ilona7051 7 หลายเดือนก่อน +13

    Какое мастерство!! Кристально ясная подача материала. Столько роликов просмотрела, но только после Вашего объяснения все стало на свои места. Спасибо!

  • @user-yv5st3jp7u
    @user-yv5st3jp7u ปีที่แล้ว +10

    Прекрасный лектор, прекрасное объяснение и прекрасная презентация. Спасибо!

  • @Enerdzizer
    @Enerdzizer หลายเดือนก่อน +1

    Отличное объяснение, структурированно и лаконично🎉 ну и естественно приятный лектор) пс в 16:01 все таки не вектор столбец умножается а вектор строка..

  • @AskoLd1ee
    @AskoLd1ee ปีที่แล้ว +8

    Татьяна - вы прекрасны! Спасибо!

  • @user-jd2if9mg8m
    @user-jd2if9mg8m 5 หลายเดือนก่อน +6

    Очень хороший материал, но лектор слишком красивый.

  • @user-kw1ye8so9n
    @user-kw1ye8so9n 5 หลายเดือนก่อน

    лекция огонь! на одном дыхании!😃

  • @EsinaViwn9
    @EsinaViwn9 4 หลายเดือนก่อน

    Очень хорошо объяснили

  • @jewgenijmoldawski3306
    @jewgenijmoldawski3306 6 หลายเดือนก่อน +5

    Почему-то в playlist "Deep Learning: часть 2. Обработка естественного языка. 2023 год" этот ролик на 4-й позиции, хотя должен быть на второй.

  • @Arseny150
    @Arseny150 ปีที่แล้ว +2

    У машины бывает рама, только она мало кому видна и уж тем более мало кто красит ее в красивый белый цвет :)

  • @artem5753
    @artem5753 5 หลายเดือนก่อน

    Было сказано, что i-тая строка матрицы А является эмбеддингом входного слова, а j-тый столбец матрицы B эмбеддингом контекстоного слова, но как получаются то сами эти эмбеддинги? Как они расчитывается?

  • @user-danche
    @user-danche 10 หลายเดือนก่อน +1

    А что из себя представляют матрицы A и B, как определяются значения в строках, столбцах?

    • @user-fe5lg3dw3q
      @user-fe5lg3dw3q 9 หลายเดือนก่อน

      они выучиваются с помощью градиентного спуска

  • @user-bj2yn8mp4r
    @user-bj2yn8mp4r หลายเดือนก่อน

    Поясните, пожалуйста, почему на эмбеддингах работает векторная арифметика (например, королева = король - мужчина + женщина)?
    Из того, как мы их получили, следует, что в них закодирован их контекст, поэтому эмбединги похожих слов будут похожи, т.е. их косинусное расстояние будет большим.
    А вот то что на данных эмбеддингах будет работать векторная арифметика, мне не совсем понятно.

    • @user-bj2yn8mp4r
      @user-bj2yn8mp4r หลายเดือนก่อน

      Нашел объяснение:
      Alex Gittens, Dimitris Achlioptas, and Michael W. Mahoney. 2017. Skip-Gram − Zipf + Uniform = Vector Additivity. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 69-76, Vancouver, Canada. Association for Computational Linguistics.

  • @Enerdzizer
    @Enerdzizer หลายเดือนก่อน

    А кто может пояснить почему работает арифметика сложения и вычитания с эмбедингами и при этом смысл слов соответствует ? Король женщина королева

  • @damirtenishev6874
    @damirtenishev6874 ปีที่แล้ว +1

    Не совсем верно (21:50), что чем больше embedding, тем больше смысла он может содержать. До какой-то степени - да, потом - скорее всего, полезность будет расти медленно с ростом k. Интуиция подсказывает, что - логарифмически ассимптотически приближаясь к какому-то пределу. Либо при k равном размеру словаря, либо, при более сложной обработке при исчерпании информации в тексте.
    Интересно, есть ли исследования, показывающие на реальных текстах зависимость результативности и правильности обучения от величины k? Было бы интересно изучить.
    Всё-таки k сильно влияет на ресурсы на больших текстах.

  • @damirtenishev6874
    @damirtenishev6874 ปีที่แล้ว +1

    Спасибо. Толковое и последовательное изложение.
    Хорошо бы добавить к этой лекции объяснение, какую именно практическую задачу мы решаем в данном случае, как это сделано у Вас в целом в th-cam.com/video/StZaHBNWiOs/w-d-xo.html. Там - перечислено множество задач, но в этом уроке хотелось бы знать, какую задачу мы решаем в данном случае.
    Инструмент описан очень хорошо, но без описания цели сложно понять, зачем выбирать именно его при наличии более простых, хорошо отлаживаемых и пресказуемых механизмов. Вопрос не праздный. К примеру, если речь идёт о предсказании текста, то возникает вопрос, чем метод цепей Маркова хуже или чем не подходит та же таблица с 3:13 ?
    Вы показываете сложные алгоритмы, подключаете использование нейронных сетей, которые достаточно сложно отлаживать - это должно оправдываться задачей. Если они работают лучше, чем цепи Маркова - было бы здорово показать задачу, на которой это так.
    Я не спорю, что Вы правы - у этого подхода много преимуществ, в том числе - в возможности расширения и гибкости, но это - абстрактные слова. Сильно поможет, если будет показана задача и объяснено, чем такой подход лучше детерминированного подхода цепей Маркова и таблицы, которую Вы предложили.

  • @user-rs7iv9te2y
    @user-rs7iv9te2y 6 หลายเดือนก่อน

    привет красивая женщина

  • @Perfffffffect
    @Perfffffffect 3 หลายเดือนก่อน

    Обыскал весь интернет в поисках нормального объяснения word2vec. Ничего не нашел кроме статьей шарлатанов, которые сами не понимают, как оно работает (аля «ну я кнопку нажал и получил эмбединг»).
    А здесь ультрасуперское объяснение с понятной логикой и смыслом того, как это устроено!!!