yup, tu aurais une formation pour apprendre a crée une intelligence artificiel ? j'ai bientôt 19 ans et le bac tu pense que je pourrais en trouver ? ( j'en ai vue mais elle sont souvent en anglais ) et Udacity c'est en francais ?
Quand on commence à faire des abréviations dans les noms de variables c'est que ça commence à être chiant Au bout de deux heures de code les 'attention' deviennent des 'att', les 'encoders' deviennent des 'enc' et au bout de 3 ou 4h on utilise plus qu'une lettre et on se dit "c'est bon je changerais quand ça marchera" haha
Merci frero
Merci Thibault !
Juste une ptite anomalie il me semble car dans Decoder_Layer tu n'utilises pas self.Multi_Head_enc_Attention pour créer enc_attention
Hello Thibault, merci beaucoup pour tes vidéos !!
Bonne continuation =)
1:19:10 QK = QK / tf.math.sqrt(256.) *ou bien* QK = QK / tf.math.sqrt(256./ nb.head ) = QK / tf.math.sqrt(32.)
merci
Magnifique! Encore merci!
Hello Thibault, super vidéo très bien expliquée. Ça serait top si tu pouvais faire une video sur un fine-tuning de modèle BERT à l'avenir.
Merci bq ❤️❤️
svp si te peut nous faire la parti training avec un vrais dataset
merci :).
yup, tu aurais une formation pour apprendre a crée une intelligence artificiel ? j'ai bientôt 19 ans et le bac tu pense que je pourrais en trouver ? ( j'en ai vue mais elle sont souvent en anglais ) et Udacity c'est en francais ?
merci beaucoup
nous voulons coder un trasformer pour le traitement des images (transformer image en image)
pouvez nous aider!
Quand on commence à faire des abréviations dans les noms de variables c'est que ça commence à être chiant
Au bout de deux heures de code les 'attention' deviennent des 'att', les 'encoders' deviennent des 'enc' et au bout de 3 ou 4h on utilise plus qu'une lettre et on se dit "c'est bon je changerais quand ça marchera" haha
C'est vraiment gênant de te voir boire et emetre ce sent de surotage c pas du tout agreable bon je ferme la video aucun professionnalisme