10 Transformer 之 Self-Attention(自注意力机制)

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ธ.ค. 2024

ความคิดเห็น • 4

  • @wanlee3503
    @wanlee3503 ปีที่แล้ว +1

    一直没找到attention和self attention的区别,终于有点明白了,谢谢

  • @jwfeng88able
    @jwfeng88able 10 หลายเดือนก่อน +3

    machines 读成了?

    • @qiaolinghe3003
      @qiaolinghe3003 8 หลายเดือนก่อน

      Matching😂😂

  • @geoffreyz5466
    @geoffreyz5466 7 หลายเดือนก่อน

    做法:1:37