Word Embeddings: Word2Vec

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 พ.ย. 2024

ความคิดเห็น • 18

  • @nayanradadiya3288
    @nayanradadiya3288 หลายเดือนก่อน +7

    Top notch explanation with amazing animations!!

    • @_hex_tech
      @_hex_tech  หลายเดือนก่อน

      Appreciate it 🙏🏾

  • @infomaax_yt
    @infomaax_yt หลายเดือนก่อน +4

    New Achievement Unlocked: Found another awesome channel to subscribe and watch grow 🌟🌟

  • @tmjthabethe
    @tmjthabethe หลายเดือนก่อน +1

    Loving the motion graphics!

  • @IbrahimSowunmi
    @IbrahimSowunmi หลายเดือนก่อน

    Fantastic breakdown

  • @geforex28
    @geforex28 หลายเดือนก่อน +1

    This really was a high quality video thank you

  • @harrydawitch
    @harrydawitch หลายเดือนก่อน +1

    Keep going what are you doing my friend. i'll always be here supporting you.

  • @sankhuz
    @sankhuz หลายเดือนก่อน

    What a great video, Loved it ❤

  • @gorangagrawal
    @gorangagrawal หลายเดือนก่อน +1

    Too the point and Simple. Thanks a lot.
    Do you mind sharing tools used to make this beautiful piece of art? Looking to learn making videos and share with students.

    • @_hex_tech
      @_hex_tech  หลายเดือนก่อน

      🙏🏾. My tools are just adobe premiere, Hex, and notion

  • @pablosanzo5584
    @pablosanzo5584 2 วันที่ผ่านมา

    Cool vid! What is that tool to do the word analogies and visualizations?

  • @billbond2682
    @billbond2682 หลายเดือนก่อน

    what the fug , did this awesome video just popped up in my algorithm ?

    • @_hex_tech
      @_hex_tech  หลายเดือนก่อน

      😏

  • @crystalmuaz
    @crystalmuaz หลายเดือนก่อน

    Subbing and commenting and liking to boost algorithm

    • @_hex_tech
      @_hex_tech  หลายเดือนก่อน

      🤝

  • @MatheoDampfer-nl3no
    @MatheoDampfer-nl3no 23 วันที่ผ่านมา

    But how does the loss function work if the model doesn t know what is correct. And we humans could not judge the loss factually

    • @MatheoDampfer-nl3no
      @MatheoDampfer-nl3no 23 วันที่ผ่านมา

      Think I understood: the model compares the probability of these worlds showing up together in other texts. Am I right? Thanks for this great video

    • @_hex_tech
      @_hex_tech  22 วันที่ผ่านมา +1

      The loss function learns from how words naturally appear together in text. It doesn't need an absolute "correct" answer - instead, it measures how well the model predicts actual word co-occurrences in the training data. If words like "cat" and "drinks" frequently appear near each other, the model learns to expect this pattern, and gets penalized when it predicts unrelated words.