Understanding Transformer Architecture of LLM: Attention Is All You Need

แชร์
ฝัง
  • เผยแพร่เมื่อ 10 พ.ย. 2024

ความคิดเห็น • 9

  • @bangarrajumuppidu8354
    @bangarrajumuppidu8354 5 หลายเดือนก่อน +1

    it's deep understanding of transformers clear way !!

    • @airesearcher24
      @airesearcher24  5 หลายเดือนก่อน

      Glad it helped:) keep watching 👍

  • @john_blues
    @john_blues 5 หลายเดือนก่อน +1

    Fantastic ! My background is Math, not coding so this was a great way for me to understand the 'Attention is all you need' paper.

    • @airesearcher24
      @airesearcher24  5 หลายเดือนก่อน

      Glad you enjoyed it! Stay tuned for forthcoming videos:)

  • @marcoaureliocostadasilva7517
    @marcoaureliocostadasilva7517 5 หลายเดือนก่อน

    Like, comment and share all your videos!

    • @airesearcher24
      @airesearcher24  5 หลายเดือนก่อน

      Thanks and keep watching the videos!:)

  • @ravitanwar9537
    @ravitanwar9537 5 หลายเดือนก่อน

    i think you forgot to touch upon residual connections

    • @airesearcher24
      @airesearcher24  5 หลายเดือนก่อน

      thanks for the comment:)

    • @ravitanwar9537
      @ravitanwar9537 5 หลายเดือนก่อน

      @@airesearcher24 😊