On se retrouve demain en live sur cette chaîne à 20h pour discuter de cette annonce ! En attendant, Home Assistant Voice est disponible à l’achat chez Domadoo pour les curieux ! www.domadoo.fr/fr/box-domotique/7558-nabu-casa-home-assistant-voice-preview-edition-0860011789727.html?domid=57
Très bonne vidéo et en partenariat avec Howmation, c'est vraiment une superbe idée bravo messieurs. Maintenant vivement que Home Assistant améliore leur produit en évitant les abonnements afin de ne pas nous ruiner lol. Encore merci et je vous suis de prêt. Amicalement Denis
Salut. Merci pour la vidéo :) Quel model as-tu utilisé pour test tests avec ollama quand tu dis que le temps de traitement de ta demande était hyper long ? Parce que ollama propose quand même pas mal de modeles quantizés qui peuvent même tourner seulement sur du CPU (par exemple tinyllama). Perso, j'ai déployé ce dernier sur un Intel NUC sans GPU, et à l'utilisation en mode texte, ça reste assez rapide. Du coup je me demande si ton test a été fait sur un modèle trop grand ou si c'était sur un petit modele et dans ce cas, ce serait la partie processing du speech-to-text, puis text-to-speech qui est trop gourmand en ressoures
Vraiment étrange, llama 3.2 tourne bien sur mon Steam Deck, le temps de réponse est d'environ 30s et tinyllama prend une dizaine de seconde Après, tu as des machines avec un npu qui ne consomme que quelques watt. Pour la modification de Okay Nabu, il y a de très bonnes vidéos youtube qui expliquent très bien comment le changer. C'est assez simple quand c'est bien expliqué. Et pour HomeAssist, il suffit de configurer toutes les phrases que tu dirais au quotidien. C'est un peu comme un bébé auquel il faut tout apprendre 😆
@@Zatoufly je n'en doute pas ;) Mais comme c'était pas précisé et que je ne l'ai jamais testé en mode vocal, je me demandais comment ça pouvait être si long étant donné qu'en mode texte simple, c'est assez fluide même sur des petites config
@@torouxFR Au final, dans tous les cas, des temps de réponse de plusieurs secondes ne sont pas acceptables quand il s'agit d'utiliser le modele en mode vocal. Déja parce que ce n'est pas naturel d'avoir une conversation où l'on doit attendre plusieurs secondes pour chaque interaction ; et aussi parce que quand on demande une action domotique, on n'a pas envie que la lumière s'allume ou que le système d'alarme se désactive au bout de plusieurs secondes... Au final, on a plus vite fait d'aller sur l'app de son tel ou sur son NSPanel mural pour effectuer l'action
Merci, super vidéo. Pas étonnant que Home Assistant ne rivalise pas avec les géants Google ou Apple. Et c'est pour ça que l'idée de Home assistant est encore plus géniale et qu'il faut l'utiliser. J'imagine que la qualité du produit peut s'améliorer très rapidement si on les aide à le financer.
Salut merci pour les infos, ça à l'air prometteur. J'ai vu une chose sur ton dashboard qui m'a plu c'est la position des volets si tu peux expliquer comment tu fais 😉
C’est ça, il faut vraiment être conscient que l’on achète pas réellement un produit de production fiable. C’est une très bonne initiative à surveiller de très prêt !
Un LLM à la maison c’est une carte graphique qui consomme plusieurs centaines de watts et qui fonctionne 24h/24h. Un interrupteur c’est quand beaucoup plus économique et bien plus simple à utiliser.
Alors honnêtement dispo pour en parler mais fallait juste apprendre à utiliser ollama et sur gpu si possible car llama3.2 ne consomme absolument rien du tout sur le gpu et fais des requêtes en quelques secondes. Donc mon conseil reconsidère toute ta partie sur ollama car juste pas assez documenté. Merci pour tes vidéos
On se retrouve demain en live sur cette chaîne à 20h pour discuter de cette annonce ! En attendant, Home Assistant Voice est disponible à l’achat chez Domadoo pour les curieux ! www.domadoo.fr/fr/box-domotique/7558-nabu-casa-home-assistant-voice-preview-edition-0860011789727.html?domid=57
Très bonne vidéo et en partenariat avec Howmation, c'est vraiment une superbe idée bravo messieurs. Maintenant vivement que Home Assistant améliore leur produit en évitant les abonnements afin de ne pas nous ruiner lol. Encore merci et je vous suis de prêt. Amicalement Denis
Merci ! C'était une bonne occasion
Salut. Merci pour la vidéo :)
Quel model as-tu utilisé pour test tests avec ollama quand tu dis que le temps de traitement de ta demande était hyper long ? Parce que ollama propose quand même pas mal de modeles quantizés qui peuvent même tourner seulement sur du CPU (par exemple tinyllama). Perso, j'ai déployé ce dernier sur un Intel NUC sans GPU, et à l'utilisation en mode texte, ça reste assez rapide. Du coup je me demande si ton test a été fait sur un modèle trop grand ou si c'était sur un petit modele et dans ce cas, ce serait la partie processing du speech-to-text, puis text-to-speech qui est trop gourmand en ressoures
Hello merci !
C'est bien un tinyllama que j'ai utilisé, je maîtrise quand même un minimum le sujet ahah
Vraiment étrange, llama 3.2 tourne bien sur mon Steam Deck, le temps de réponse est d'environ 30s et tinyllama prend une dizaine de seconde
Après, tu as des machines avec un npu qui ne consomme que quelques watt.
Pour la modification de Okay Nabu, il y a de très bonnes vidéos youtube qui expliquent très bien comment le changer. C'est assez simple quand c'est bien expliqué.
Et pour HomeAssist, il suffit de configurer toutes les phrases que tu dirais au quotidien. C'est un peu comme un bébé auquel il faut tout apprendre 😆
@@Zatoufly je n'en doute pas ;)
Mais comme c'était pas précisé et que je ne l'ai jamais testé en mode vocal, je me demandais comment ça pouvait être si long étant donné qu'en mode texte simple, c'est assez fluide même sur des petites config
@@torouxFR Au final, dans tous les cas, des temps de réponse de plusieurs secondes ne sont pas acceptables quand il s'agit d'utiliser le modele en mode vocal. Déja parce que ce n'est pas naturel d'avoir une conversation où l'on doit attendre plusieurs secondes pour chaque interaction ; et aussi parce que quand on demande une action domotique, on n'a pas envie que la lumière s'allume ou que le système d'alarme se désactive au bout de plusieurs secondes... Au final, on a plus vite fait d'aller sur l'app de son tel ou sur son NSPanel mural pour effectuer l'action
Très cool ce petit test en collaboration!
Je touve aussi !
bonjour, merci pour ta video honnête c est vrai que l idée est bonne ....à voir dans l avenir ...
Merci, super vidéo. Pas étonnant que Home Assistant ne rivalise pas avec les géants Google ou Apple. Et c'est pour ça que l'idée de Home assistant est encore plus géniale et qu'il faut l'utiliser. J'imagine que la qualité du produit peut s'améliorer très rapidement si on les aide à le financer.
Trop cool la collab’ ! Ça promet du lourd pour le youtube game domotique 💪
See you soon in 2025 maybe ? 🤗
Merci pour le retour, on va laisser mûrir le produit et on verra bien 😊
Oui c'est vraiment très prometteur, même si la promesse du 100% local pour moi est très optimiste
Ne pas oublier qu’il s’agit d’une Preview Edition donc confiant sur son avenir grâce à toute la communauté Nabu Casa 😊
C’est exactement ce que je dis au tout début !
Salut, super video. J'ai vu que les frères poulain avaient fait leur propre assistant vocal avec chat GPT et home assistant
Merci ;D
J’ai perplexity pro contenant ChatGPT et d’autres llm. Est-il possible de l’intégrer à ha ?
Bonjour, SST ou STT?
14:24
Il faut dire à ollama d’utiliser le gpu plutôt que le cpu
Salut merci pour les infos, ça à l'air prometteur. J'ai vu une chose sur ton dashboard qui m'a plu c'est la position des volets si tu peux expliquer comment tu fais 😉
Hello, c'est du mushroom card !
@@Zatoufly Merci 😉
merci pour la présentation
je m'attendais pas à ce prix par contre, pas que j'ai en l'utilité
C’est beaucoup trop cher, ce n’ai pas un produit pour le grand public mais surtout mais avec une avant première pour les curieux
Hello, ça fait une jolie sornette ^^
On comprend mieux le terme Preview dans le nom du produit 😁
Mais faut bien commencer par une v1...
C’est ça, il faut vraiment être conscient que l’on achète pas réellement un produit de production fiable. C’est une très bonne initiative à surveiller de très prêt !
Un LLM à la maison c’est une carte graphique qui consomme plusieurs centaines de watts et qui fonctionne 24h/24h. Un interrupteur c’est quand beaucoup plus économique et bien plus simple à utiliser.
C'est également un sujet effectivement
Alors honnêtement dispo pour en parler mais fallait juste apprendre à utiliser ollama et sur gpu si possible car llama3.2 ne consomme absolument rien du tout sur le gpu et fais des requêtes en quelques secondes. Donc mon conseil reconsidère toute ta partie sur ollama car juste pas assez documenté. Merci pour tes vidéos
Prérequis : Avoir un GPU !
Je doute que ma RX570 soit pertinente, après je n'ai pas fait le test, dans tous les cas ça ne change pas mes propos
Salut, merci à toi pour cette analyse honnête, en espérant que le produit s'améliore prochainement...
Je pense que Nabu Casa va pousser à fond le produit