Olá Matheus, obrigado pelo seu comentário! Estou tentando tirar um pouco da magia dos modelos neurais. Espero que eu esteja conseguindo explicá-los de uma forma clara. Um grande abraço! 🚀🚀
Acho q um multi-head attention pode ser entendido como um ensemble de self-attentions, ou seja, um cômite de vários self-attentions, cada um com sua interpretação sobre as palavras na sentença.
Olá Douglas, obrigado pelo feedback! Aqui está o link do primeiro vídeo: th-cam.com/video/9pEUkg_VHqg/w-d-xo.html . Também atualizei a descrição deste vídeo com o link. Um grande abraço!! 🚀🚀
Olá Kevin! Q, K e V são matrizes de parâmetros, que são aprendidos durante o treinamento. Você terá essas 3 matrizes para cada head de cada self-attention de cada camada do Encoder. Similarmente, você terá essas 3 matrizes para cada head de cada self- and -cross attention de cada camada do Decoder! São muitos parâmetros! Um abraço! 🚀🚀
Muito obrigado, Leo. trazendo muita luz á "caixa preta" dos transformers.
Excelente explicação!!!
Obrigado por contribuir em tirar o pó mágico dos Transformers.
Olá Matheus, obrigado pelo seu comentário! Estou tentando tirar um pouco da magia dos modelos neurais. Espero que eu esteja conseguindo explicá-los de uma forma clara. Um grande abraço! 🚀🚀
Acho q um multi-head attention pode ser entendido como um ensemble de self-attentions, ou seja, um cômite de vários self-attentions, cada um com sua interpretação sobre as palavras na sentença.
Não aparece o link pro primeiro video
Olá Douglas, obrigado pelo feedback! Aqui está o link do primeiro vídeo: th-cam.com/video/9pEUkg_VHqg/w-d-xo.html . Também atualizei a descrição deste vídeo com o link. Um grande abraço!! 🚀🚀
Nunca consigo entender isso de Q,K V. São matrizes fixas ?
Olá Kevin! Q, K e V são matrizes de parâmetros, que são aprendidos durante o treinamento. Você terá essas 3 matrizes para cada head de cada self-attention de cada camada do Encoder. Similarmente, você terá essas 3 matrizes para cada head de cada self- and -cross attention de cada camada do Decoder! São muitos parâmetros! Um abraço! 🚀🚀