De mieux en mieux la qualité générale des voix et des images. Vraiment ca deviens gentiment de la haute quality. Le contenu également se complexifie et il est vraiment très très instructif. Merci DomiGeek pour tout ton travail et ton partage de connaissances. Love Gontran ❤️
@ oui il semble bien que ce soit l’avenir. On ne voit que des avantages. Merci d’avoir partagé pour nous faire découvrir LFM. En plus la vidéo est super.
On se rapproche de plus en plus de l'intelligence humaine. On en est encore loin, mais plus proche. Avec les LFM, on a introduit l'idée de mémoire à court terme, des aires spécialisées et de plasticité. On va bientôt créer le cerveau positronique d'Asimov ! 😃
Tout à fait, sont architecture liquide et MoE apporte une touche particulière qui nous rapproche beaucoup plus du fonctionnement du cerveau humain. Parcontre les LNN et le MoE existent depuis beaucoup plus longtemps que les LFM. Mais les LFM sont les premiers "connu" à obtenir un tel résultat. Une épisode 2 arrive la semaine prochaine. Où je détail avec des exemples la complétion d'une phrase par un RNN, LSTM, Transformers, LNN et MoE.
Excellente cette vidéo avec laquelle je découvre la chaine. Je suggère tout de même que Gontran (dû certainement à la voix et au physique plus réaliste) qu'il soit une IA, peut évoluer et conscient, mais une IA. Kaya, à l'inverse, beaucoup plus évolué. Des mascottes futuristes en somme. Ça collerait mieux et la vidéo serait, ici, presque parfaite. Peut-être aussi un peu plus vulgarisé en début de vidéo, pour ensuite, rentrer dans les détails, pour ne pas perdre une partie des personnes en route. À moins que ce soit volontairement technique et destiné qu'à des connaisseurs. Avec quelques ajustements, ça pourrait être du niveau de Science clic ou Science étonnante.
@@alric-kt2lz Merci ^^ Pour Gontran, il est humain "normalement" et habituellement c'est ma voix un peu plus bougonne. Mais j'ai voulu essayer d'en trouver une meilleure. Je suis en perfectionnement pour la voix. Ça sera mieux dans les prochaines vidéos. Les vidéos sont conçus pour les deux publics autant averti que simple curieux ^^ C'est pourquoi j'essaie de rendre cela le plus multi public, mais en gardant du techniques pour que les plus avancés ne s'ennuient pas non plus. ^^ Merci encore pour ton commentaire constructif.
@@Domi_Geek Si ça peut aider ! Je ne serais pas étonné que dans quelque temps ces avatars se meuvent de façon naturelle sur un fond d'arrière-plans dynamiques avec les IA génératives, pour accompagner les vidéos de youtubeurs.
Bonjour ^^ Tout d'abord, merci pour votre commentaire. Dans mon quotidien, je suis programmeur analyste senior et architecte organique en IA. Je suis également CTO d'une startup en IA, ce qui me permet d'avoir une bonne connaissance du sujet, car nous utilisons des architectures MoE et des LNN dans notre environnement. Ceci dit, voici quelques documents qui traitent des sujets abordés dans la vidéo. Les LFM étant des modèles entraînés par Liquid.ai, nous ne connaissons pas en détail leur fonctionnement interne (gardé secret, comme GPT), mais nous savons qu'ils s'appuient sur des LNN (Liquid Neural Networks) et que certains de leurs modèles portent l'acronyme MoE ( LFM 40B MoE ). La vidéo présente donc ces deux principes de base. Aucun reverse engineering n’a été réalisé. Lorsque j'expose les formules mathématiques dans la vidéo, je laisse entendre, par certaines formulations, à quoi cela pourrait "ressembler". ^^ En réalité, les architectures MoE et LNN sont utilisées depuis plusieurs années. Ce qui rend les LFM particulièrement performants, ce sont surtout leurs capacités que vous pouvez consulter sur le site officiel de Liquid.ai. LFM : Liquid.ai LNN : ieeexplore.ieee.org/abstract/document/10466162 MoE : arxiv.org/abs/2407.06204
@@Domi_Geek Merci pour ces précisions. Voici une découverte intéressante. J'ai fait mes recherches aussi de mon côté, je n'en avais jamais entendu parler avant votre vidéo.
Bien sûr, l'animation de cette présentation est tout à fait étonnante. Mais elle brouille le message essentiel. Il faut choisir. Communiquer ou faire du spectacle. La communication mobilise certaines zones du cerveau, le spectacle en mobilise d'autres. Ces deux zones ne sont pas compatibles "en méme temps".
Merci pour votre commentaire qui se veut constructif. Je comprends votre point de vue, mais j'ai voulu atteindre deux publics dans la même vidéo. L'une cherchant à comprendre les fonds de l'IA bien sûr, mais aussi ceux qui veulent juste comprendre la surface et les principes. Et surtout faire un beau voyage quitte à regarder plusieurs fois ^^. Je vais prendre en compte votre commentaire dans mes réflexions pour les prochaines vidéos. Merci encore.
un acteur sur scène doit souvent communiquer avec le public tout en offrant une performance spectaculaire, ce qui montre que ces deux aspects peuvent coexister.
Pour améliorer la clarté de cet épisode, voici deux questions essentielles : 1. Le modèle LFM évoqué ici a-t-il une structure fondamentalement différente de celle des RNN, ou bien ses similarités sont-elles suffisamment importantes pour le classer comme une variante avancée de RNN avec des améliorations spécifiques ? 2. Pourriez-vous expliquer davantage en quoi l'approche « *Mixture of Experts* » est intégrée au LFM, en particulier sur le plan pratique, et comment elle différencie le LFM des autres modèles dynamiques ? Bonne journée ! Gilles P.S. Je suis contre l'anonymat, car se cacher permet de tout dire ou faire sans risque de sanction, en perdant toute notion de savoir-vivre. À ceux qui sont POUR l'anonymat ; je me fiche de vos arguments
Bonjour, Tout d'abord, merci pour votre commentaire et vos questions. En réponse courte : Bien que les LFMs (particulièrement leur composante Liquid, le LNN) aient des similitudes avec les RNN, ce ne sont pas des RNN. Là où les RNN se reposent sur des connexions récurrentes explicites entre les étapes pour propager l’état interne, le LFM utilise une approche fondée sur des systèmes dynamiques. L’état du LFM évolue selon des équations différentielles, ce qui lui permet d’ajuster son état de manière continue et fluide en fonction des nouvelles données. Cela le rend moins sujet aux problèmes de gradients que rencontrent les RNN. De plus, le LFM incorpore une passerelle (ou gating mechanism) qui sélectionne les experts les plus pertinents pour chaque tâche, une fonctionnalité absente des RNN traditionnels. Cette activation sélective permet d’améliorer l’efficacité computationnelle en n’activant que les sous-modèles nécessaires. Je pense faire une vidéo pour répondre plus largement à ces questions, dans un format plus technique et sans superflu. Ou peut-être un live.
La prochaine vidéo, qui sortira samedi, est le premier épisode de la saison 2 sur l'IA. Elle mettra en vedette les arbres de décision et les forêts aléatoires… Une vidéo d'une durée comprise entre 45 minutes et 1h30… comme tous les autres épisodes à venir de cette série. Donc, la réponse se trouvera probablement dans une vidéo que je publierai en semaine ou le samedi suivant, en fonction de mes vidéos en cours. Je vais faire une vidéo le mercredi 20 pour te répondre et apporter d’autres éclaircissements auxquels j’ai pensé par la suite. Cette IA qui divise pour mieux régner : Arbres et décisions intelligentes (Épisode 1 de la saison 2 sur l'IA) L'algorithme de Shor (Programmation Quantique - Épisode 4) - TITRE PROVISOIRE Les blockchains à contrat intelligent (Épisode 1 de Piratez la blockchain - Saison 2) - TITRE PROVISOIRE Beaucoup de vidéos longues à venir ^^
J’ai aussi omis de répondre à une autre de vos questions initiales : l’anonymat… Je ne suis pas pour l’anonymat, car je ne suis pas anonyme moi-même. Je fais parfois des lives, et j’ai un serveur Discord où beaucoup de gens me connaissent personnellement. Si vous remontez dans mes vidéos, mes premières étaient sans animations, un peu maladroites, et avec mon visage ^^ Donc, je ne comprends pas pourquoi vous parliez d’anonymat, en fait. Je fait même des posts de mes vidéos TH-cam sur mon profile Linked-In ^^ Donc je ne suis pas anonyme dutout... Mais j'utilise le patronyme DomiGeek, car il est cool et amusant ^^ J'ai modifié la description de la vidéo pour ajouter le serveur discord de la chaine. Mais peut-être je suis entrain de réagir a une simple signature hahah
@@Domi_Geek Ce n'était pas une question, mais une signature que je mets parfois. Cela ne s'adresse pas à vous, mais je pense souvent que dans les commentaires, d'une manière générale, si ce n'était pas anonyme, Internet serait bien plus "calme".
De mieux en mieux la qualité générale des voix et des images. Vraiment ca deviens gentiment de la haute quality. Le contenu également se complexifie et il est vraiment très très instructif. Merci DomiGeek pour tout ton travail et ton partage de connaissances. Love Gontran ❤️
❤️ merci beaucoup ^^ c'est très apprécié
Excellente vidéo, merci du partage
Merci ^^
C'est comme quand tu dis simplement '' pensée en arborescence '' 👌
@@Ludovic.Teouri.988 et c'est encore plus fou que ça ^^ regarde ma dernière et la prochaine tu va comprendre. Le concept est juste fou.
Merci pour ton commentaire ^^
Franchement du beau travail
Merci ^^
@ oui il semble bien que ce soit l’avenir. On ne voit que des avantages. Merci d’avoir partagé pour nous faire découvrir LFM. En plus la vidéo est super.
ca fait plaisir, merci a vous ^^
e je viens de découvrir ta chaîne. une pépite merci!!
Merci ^^
Bonjour et merci pour ces explications. Quelles sont les outils que tu utilise pour faire tes présentations stp ?
Merci à toi ^^
Filmora
Photoshop
Maya
Microsoft speech
Runway AI
Open AI
Dream Machine
Heygen
... et beaucoup de montage. ^^
On se rapproche de plus en plus de l'intelligence humaine. On en est encore loin, mais plus proche. Avec les LFM, on a introduit l'idée de mémoire à court terme, des aires spécialisées et de plasticité. On va bientôt créer le cerveau positronique d'Asimov ! 😃
Tout à fait, sont architecture liquide et MoE apporte une touche particulière qui nous rapproche beaucoup plus du fonctionnement du cerveau humain. Parcontre les LNN et le MoE existent depuis beaucoup plus longtemps que les LFM. Mais les LFM sont les premiers "connu" à obtenir un tel résultat.
Une épisode 2 arrive la semaine prochaine. Où je détail avec des exemples la complétion d'une phrase par un RNN, LSTM, Transformers, LNN et MoE.
Excellente cette vidéo avec laquelle je découvre la chaine. Je suggère tout de même que Gontran (dû certainement à la voix et au physique plus réaliste) qu'il soit une IA, peut évoluer et conscient, mais une IA. Kaya, à l'inverse, beaucoup plus évolué. Des mascottes futuristes en somme. Ça collerait mieux et la vidéo serait, ici, presque parfaite. Peut-être aussi un peu plus vulgarisé en début de vidéo, pour ensuite, rentrer dans les détails, pour ne pas perdre une partie des personnes en route. À moins que ce soit volontairement technique et destiné qu'à des connaisseurs. Avec quelques ajustements, ça pourrait être du niveau de Science clic ou Science étonnante.
@@alric-kt2lz Merci ^^
Pour Gontran, il est humain "normalement" et habituellement c'est ma voix un peu plus bougonne. Mais j'ai voulu essayer d'en trouver une meilleure. Je suis en perfectionnement pour la voix. Ça sera mieux dans les prochaines vidéos.
Les vidéos sont conçus pour les deux publics autant averti que simple curieux ^^ C'est pourquoi j'essaie de rendre cela le plus multi public, mais en gardant du techniques pour que les plus avancés ne s'ennuient pas non plus. ^^
Merci encore pour ton commentaire constructif.
Qaya³, est une IA avec qui tu peux dialoguer sur notre serveur Discord ^^
@@Domi_Geek Si ça peut aider ! Je ne serais pas étonné que dans quelque temps ces avatars se meuvent de façon naturelle sur un fond d'arrière-plans dynamiques avec les IA génératives, pour accompagner les vidéos de youtubeurs.
Oui ca évolue énormément.
Vraiment bonne la video, tu tes vraiment améliorer , gontrant est un peu mou
@@nicolasracine2268 Merci ^^
Vous pouvez citer vos sources ?
Bonjour ^^
Tout d'abord, merci pour votre commentaire.
Dans mon quotidien, je suis programmeur analyste senior et architecte organique en IA. Je suis également CTO d'une startup en IA, ce qui me permet d'avoir une bonne connaissance du sujet, car nous utilisons des architectures MoE et des LNN dans notre environnement. Ceci dit, voici quelques documents qui traitent des sujets abordés dans la vidéo. Les LFM étant des modèles entraînés par Liquid.ai, nous ne connaissons pas en détail leur fonctionnement interne (gardé secret, comme GPT), mais nous savons qu'ils s'appuient sur des LNN (Liquid Neural Networks) et que certains de leurs modèles portent l'acronyme MoE ( LFM 40B MoE ). La vidéo présente donc ces deux principes de base. Aucun reverse engineering n’a été réalisé. Lorsque j'expose les formules mathématiques dans la vidéo, je laisse entendre, par certaines formulations, à quoi cela pourrait "ressembler". ^^
En réalité, les architectures MoE et LNN sont utilisées depuis plusieurs années. Ce qui rend les LFM particulièrement performants, ce sont surtout leurs capacités que vous pouvez consulter sur le site officiel de Liquid.ai.
LFM : Liquid.ai
LNN : ieeexplore.ieee.org/abstract/document/10466162
MoE : arxiv.org/abs/2407.06204
@@Domi_Geek Merci pour ces précisions. Voici une découverte intéressante.
J'ai fait mes recherches aussi de mon côté, je n'en avais jamais entendu parler avant votre vidéo.
Bien sûr, l'animation de cette présentation est tout à fait étonnante. Mais elle brouille le message essentiel. Il faut choisir. Communiquer ou faire du spectacle. La communication mobilise certaines zones du cerveau, le spectacle en mobilise d'autres. Ces deux zones ne sont pas compatibles "en méme temps".
Merci pour votre commentaire qui se veut constructif. Je comprends votre point de vue, mais j'ai voulu atteindre deux publics dans la même vidéo. L'une cherchant à comprendre les fonds de l'IA bien sûr, mais aussi ceux qui veulent juste comprendre la surface et les principes. Et surtout faire un beau voyage quitte à regarder plusieurs fois ^^. Je vais prendre en compte votre commentaire dans mes réflexions pour les prochaines vidéos. Merci encore.
un acteur sur scène doit souvent communiquer avec le public tout en offrant une performance spectaculaire, ce qui montre que ces deux aspects peuvent coexister.
Selon moi cette approche en vaut une autre… donc cette façon de faire reste inspirante
Je savais que 2025 serait la fin de plusieurs choses.
@@lcc6149 La fin d'une chose n'est que le début d'une autre ^^
@@Domi_Geek Trop subjectif et donc vague, mais d'une part oui.
Pour améliorer la clarté de cet épisode, voici deux questions essentielles :
1. Le modèle LFM évoqué ici a-t-il une structure fondamentalement différente de celle des RNN, ou bien ses similarités sont-elles suffisamment importantes pour le classer comme une variante avancée de RNN avec des améliorations spécifiques ?
2. Pourriez-vous expliquer davantage en quoi l'approche « *Mixture of Experts* » est intégrée au LFM, en particulier sur le plan pratique, et comment elle différencie le LFM des autres modèles dynamiques ?
Bonne journée !
Gilles
P.S. Je suis contre l'anonymat, car se cacher permet de tout dire ou faire sans risque de sanction, en perdant toute notion de savoir-vivre.
À ceux qui sont POUR l'anonymat ; je me fiche de vos arguments
Bonjour,
Tout d'abord, merci pour votre commentaire et vos questions.
En réponse courte :
Bien que les LFMs (particulièrement leur composante Liquid, le LNN) aient des similitudes avec les RNN, ce ne sont pas des RNN. Là où les RNN se reposent sur des connexions récurrentes explicites entre les étapes pour propager l’état interne, le LFM utilise une approche fondée sur des systèmes dynamiques. L’état du LFM évolue selon des équations différentielles, ce qui lui permet d’ajuster son état de manière continue et fluide en fonction des nouvelles données. Cela le rend moins sujet aux problèmes de gradients que rencontrent les RNN. De plus, le LFM incorpore une passerelle (ou gating mechanism) qui sélectionne les experts les plus pertinents pour chaque tâche, une fonctionnalité absente des RNN traditionnels. Cette activation sélective permet d’améliorer l’efficacité computationnelle en n’activant que les sous-modèles nécessaires.
Je pense faire une vidéo pour répondre plus largement à ces questions, dans un format plus technique et sans superflu. Ou peut-être un live.
@@Domi_Geek merci pour votre réponse.
je vais attendre votre prochaine vidéo.
Bonne journée
Gilles
La prochaine vidéo, qui sortira samedi, est le premier épisode de la saison 2 sur l'IA. Elle mettra en vedette les arbres de décision et les forêts aléatoires… Une vidéo d'une durée comprise entre 45 minutes et 1h30… comme tous les autres épisodes à venir de cette série. Donc, la réponse se trouvera probablement dans une vidéo que je publierai en semaine ou le samedi suivant, en fonction de mes vidéos en cours. Je vais faire une vidéo le mercredi 20 pour te répondre et apporter d’autres éclaircissements auxquels j’ai pensé par la suite.
Cette IA qui divise pour mieux régner : Arbres et décisions intelligentes (Épisode 1 de la saison 2 sur l'IA)
L'algorithme de Shor (Programmation Quantique - Épisode 4) - TITRE PROVISOIRE
Les blockchains à contrat intelligent (Épisode 1 de Piratez la blockchain - Saison 2) - TITRE PROVISOIRE
Beaucoup de vidéos longues à venir ^^
J’ai aussi omis de répondre à une autre de vos questions initiales : l’anonymat… Je ne suis pas pour l’anonymat, car je ne suis pas anonyme moi-même. Je fais parfois des lives, et j’ai un serveur Discord où beaucoup de gens me connaissent personnellement. Si vous remontez dans mes vidéos, mes premières étaient sans animations, un peu maladroites, et avec mon visage ^^ Donc, je ne comprends pas pourquoi vous parliez d’anonymat, en fait.
Je fait même des posts de mes vidéos TH-cam sur mon profile Linked-In ^^ Donc je ne suis pas anonyme dutout... Mais j'utilise le patronyme DomiGeek, car il est cool et amusant ^^
J'ai modifié la description de la vidéo pour ajouter le serveur discord de la chaine.
Mais peut-être je suis entrain de réagir a une simple signature hahah
@@Domi_Geek Ce n'était pas une question, mais une signature que je mets parfois. Cela ne s'adresse pas à vous, mais je pense souvent que dans les commentaires, d'une manière générale, si ce n'était pas anonyme, Internet serait bien plus "calme".
j'ai tenu 24 secondes
@@drudru3591 😅😅😅 ce n'est pas du contenu facile je le concède. J'ai des vidéos moins mathématiques plus orienter exemple concret. Si ça t'intéresse.
Ou c'est la blague de Gontran sur Gillette qui t'a décourager 🤣🤣. J'avoue elle était pas terrible 😅😅