09 Transformer 之什么是注意力机制(Attention)

แชร์
ฝัง
  • เผยแพร่เมื่อ 2 ธ.ค. 2024

ความคิดเห็น • 8

  • @lawliet357
    @lawliet357 4 หลายเดือนก่อน +1

    來留言啦

  • @xinZhen-r8y
    @xinZhen-r8y 8 หลายเดือนก่อน +2

    讲得挺清楚的!深入浅出。👍

  • @kaneyen5220
    @kaneyen5220 8 หลายเดือนก่อน

    有, 我是認真聽的

  • @扶凯
    @扶凯 8 หลายเดือนก่อน

    我也想知道

  • @hasszhao
    @hasszhao 8 หลายเดือนก่อน +2

    开头提到V,然后这里提到K th-cam.com/video/82XO_-oCor8/w-d-xo.html
    之后很长没提到V,后来一下子又出现V。
    那么到底K,V是什么?

    • @KAI-ew9jm
      @KAI-ew9jm 8 หลายเดือนก่อน

      我的理解是一开始V是等于K的,但是当查询Q进来之后,我们拿Q和K点乘得到一些信息(相似度,或者说哪些东西对于查询者来说是重要的)。之后我们为了输出这个相似度所以必须让V带着这些信息来当输出

  • @karlhsu001
    @karlhsu001 8 หลายเดือนก่อน

    有,我是第四個留言的。

  • @nuobeitang
    @nuobeitang 9 หลายเดือนก่อน

    博主是什么大学呀