Transformer模型详解,Attention is all you need

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ต.ค. 2024

ความคิดเห็น • 4

  • @charleschang2963
    @charleschang2963 2 หลายเดือนก่อน

    attention 機制大概是我聽過講的最清楚的👍🏻

  • @rwang3550
    @rwang3550 4 หลายเดือนก่อน +1

    感觉decoder讲的有些问题, decoder的output应该是再作为decoder的input, 这也是 gpt只用 decoder的原因,这decoder本身是一个生成网络。

    • @yandeng3865
      @yandeng3865 หลายเดือนก่อน

      没问题,博主讲得很好!这个视频讲的是transformer在翻译场景的应用,你说的是ChatGPT的text-generation的场景。

  • @yandeng3865
    @yandeng3865 หลายเดือนก่อน

    期待博主讲讲ChatGPT里的transformer:就是只有decoder的transformer是什么样的?