Cho e hỏi nếu sd transformer để nhận diện ký tự input là ành đầu vào( biến đổi thành vector) thì tại lớp seflt attention thì mô hình học mối tương quan như thế nào ạ
Ảnh sẽ được patch và thường có qua lớp CNN trước sau đó mới sang lớp self-attention. Em có thể tham khảo chi tiết mô hình ViT. Nên qua đó self-attention sẽ thể hiện quan hệ giữa các features được trích xuất ra từ CNN.
Thầy giảng quá hay👏
Cám ơn ạ
🎉
Cho e hỏi nếu sd transformer để nhận diện ký tự input là ành đầu vào( biến đổi thành vector) thì tại lớp seflt attention thì mô hình học mối tương quan như thế nào ạ
Ảnh sẽ được patch và thường có qua lớp CNN trước sau đó mới sang lớp self-attention. Em có thể tham khảo chi tiết mô hình ViT. Nên qua đó self-attention sẽ thể hiện quan hệ giữa các features được trích xuất ra từ CNN.
Dạ xin chào Thầy ạ!. Thầy có thể cho em tham khảo ebook Getting Started with Google BERT với ạ!!
Em có thể gặp mình
Em có thể inbox trên fanpage facebook.com/inotechviet?mibextid=PzaGJu hoặc email mình nhatminhhcmut@gmail.com
Em chào thầy, thầy có thể cho em xin tham khảo Getting Started with Google BERT ebook được không ạ?
Em có thể inbox trên fanpage facebook.com/inotechviet?mibextid=PzaGJu hoặc email mình nhatminhhcmut@gmail.com