Giới thiệu cơ chế Self-Attention, Kiến trúc Transformer và mô hình BERT

แชร์
ฝัง
  • เผยแพร่เมื่อ 2 พ.ย. 2024

ความคิดเห็น • 10

  • @lynguyenminhOfficial
    @lynguyenminhOfficial ปีที่แล้ว +1

    Thầy giảng quá hay👏

  • @VietBac2024
    @VietBac2024 ปีที่แล้ว +1

    Cám ơn ạ

  • @angquanghien5325
    @angquanghien5325 ปีที่แล้ว +1

    🎉

  • @PTechVN
    @PTechVN ปีที่แล้ว +1

    Cho e hỏi nếu sd transformer để nhận diện ký tự input là ành đầu vào( biến đổi thành vector) thì tại lớp seflt attention thì mô hình học mối tương quan như thế nào ạ

    • @InoTechViet
      @InoTechViet  ปีที่แล้ว

      Ảnh sẽ được patch và thường có qua lớp CNN trước sau đó mới sang lớp self-attention. Em có thể tham khảo chi tiết mô hình ViT. Nên qua đó self-attention sẽ thể hiện quan hệ giữa các features được trích xuất ra từ CNN.

  • @TuThaiBao
    @TuThaiBao ปีที่แล้ว +1

    Dạ xin chào Thầy ạ!. Thầy có thể cho em tham khảo ebook Getting Started with Google BERT với ạ!!

    • @InoTechViet
      @InoTechViet  ปีที่แล้ว

      Em có thể gặp mình

    • @InoTechViet
      @InoTechViet  8 หลายเดือนก่อน

      Em có thể inbox trên fanpage facebook.com/inotechviet?mibextid=PzaGJu hoặc email mình nhatminhhcmut@gmail.com

  • @lokito5338
    @lokito5338 11 หลายเดือนก่อน

    Em chào thầy, thầy có thể cho em xin tham khảo Getting Started with Google BERT ebook được không ạ?

    • @InoTechViet
      @InoTechViet  11 หลายเดือนก่อน

      Em có thể inbox trên fanpage facebook.com/inotechviet?mibextid=PzaGJu hoặc email mình nhatminhhcmut@gmail.com