ML Behind ChatGpt Explained in just 3 Mins

แชร์
ฝัง
  • เผยแพร่เมื่อ 7 พ.ย. 2024

ความคิดเห็น • 11

  • @ferozali6391
    @ferozali6391 5 หลายเดือนก่อน +1

    made it easy to understand , thank you

    • @dsbrain
      @dsbrain  5 หลายเดือนก่อน +1

      More to come bro 😀

  • @joselijoseph52
    @joselijoseph52 5 หลายเดือนก่อน +1

    Thank you sir🥰🙌🏻

    • @dsbrain
      @dsbrain  5 หลายเดือนก่อน

      ❤️😍

  • @abinjoseph2156
    @abinjoseph2156 5 หลายเดือนก่อน

    Brief and informative 🙌

    • @dsbrain
      @dsbrain  5 หลายเดือนก่อน

      Thank you💗

  • @abinjoseph5028
    @abinjoseph5028 5 หลายเดือนก่อน +1

    useful content 🙌👏

    • @dsbrain
      @dsbrain  5 หลายเดือนก่อน

      Thank you 😍

  • @prateekkumar-u5h
    @prateekkumar-u5h 5 หลายเดือนก่อน

    How does positional encoding keeps track of the ordering of tokens?

    • @dsbrain
      @dsbrain  5 หลายเดือนก่อน +1

      Each position in the sequence is assigned a vector of the same dimension as the model's hidden states.
      The vector for each position is filled using sine and cosine functions at different frequencies using some formula.
      The positional encodings are added to the token embeddings. If the token embedding for a token at position pos is Epos , and the positional encoding for that position is PEpos , the input to the transformer layer becomes Epos + PEpos

      This addition allows the model to incorporate information about the position of each token in the sequence.
      The periodic nature of sine and cosine functions ensures that even for long sequences, the positional encodings are distinct enough to capture the position information.

    • @prateekkumar-u5h
      @prateekkumar-u5h 5 หลายเดือนก่อน

      @@dsbrain ohk . Got it. Thnks