Merci pour la vidéo. Peut on imaginer Vision avec une interface audio (micro/casque) ? Si oui cela ouvre un champ des possibles intéressant pour les mal-voyants.
tu es génial manu, je pose une demande d'aide sur le discord cette nuit et tu fait une video quelques heures plus tard!! je me dirige sur patreon, c'est génial KORBEN!!!!
Super video, merci beaucoup ! Par contre, avec un LLM local y'a des grosses limitations sur l'accès au système, non ? Je viens de tester avec Mistral, qui me dit qu'il ne peut pas interagir directement avec la machine ("Je ne peux pas changer le thème de votre système.", "Je ne peux pas modifier les paramètres de votre système car je n'ai pas accès aux droits nécessaires pour effectuer ces changements", ou "Je ne peux pas trouver des produits en ligne car je n'ai pas accès à votre navigateur et à votre internet". Y'a des droits particuliers à lui filer à un moment donné, ou c'est le passage par LM Studio qui bride tout ?
bjr, est ce qu'on peut paramétrer open interpreter avec un chat sans clé API comme par exemple gpt2 ? (au démarrage d'interpreter ça me met direct sur la commande pour mettre ma clé)
Il est regrettable que l'utilisation de LM Studio en local soit nécessaire, étant donné que LM Studio n'est pas accessible gratuitement pour des fins commerciales.
"LM Studio n'est pas accessible gratuitement pour des fins commerciales." ?? Bien sûr que lmstudio est utilisable gratuitement et de plus tous les backends qui propose du openai api compatible sont utilisables avec open interpreter donc llama.cpp server/ollama/kobold.cpp/oobabooga/tabby api pour ne citer qu'eux.
J'ai test et prendre 70 centimes de frais API openAI pour 2 changements de wallpapers, bah non.... et les MLL installés en local faut être honnête ça marche moyen à moins d'avoir un GPU avec 24 Go de RAM.
@@electroheadfx je suis pas prêt a passer du côté sombre, pour ce prix autant acheter du très gros GPU Nvidia, car c'est ce qui marche le mieux images et textes. Je dis pas que ça rox pas chez Apple, mais bon, ces machines sont non réparables/jetables avec même sur le très haut de gamme une capacité de stockage de base très très bof.
@@narcoleptik44 Mistral tourne super bien, sur mon pc avec une 3060 TI (8 Go) qui doit valoir 300 Euros maintenant et au moins avec mes 32 Go de RAM supplémentaires, je ne suis pas limité dans le nombre d'onglets de navigateur que je peux ouvrir en //.
Ah ouais ! 54° à Londres, tout le monde trouve ça normal ??? U_u C'est de l'iA, ça reste toujours aussi éclaté au sol encore, y a encore du taff mdr VU comment il s'est récupérer la météo, faites donc un "-y", il a plus de chance de te rançonner ton PC qu'autre chose 🤣🤣🤣🤣🤣🤣
ça fait plaisir de voir que ça marche encore pour toi !! je te suivais il y a plus de 15 ans !!
merci toujours instructif.
👍
Super, merci beaucoup 🎉👍
Merci ca fait un moment que je l'attendais cette vidéos 😉
Merci pour la vidéo. Peut on imaginer Vision avec une interface audio (micro/casque) ?
Si oui cela ouvre un champ des possibles intéressant pour les mal-voyants.
Mortel ce truc. Merci Korben.
Excellent outil je m'éclate dessus depuis ce début d'après-midi.
Salut korben, super top la vidéo. Mais as tu testé avec l'api de mistral-medium, impossible a trouver comment le faire fonctionner, jai tout essayé.
salut, et merci pour toutes ces vidéos, j'aimerais juste savoir si ça marche sous Windows ? merci
Excellent !
J’ai adoré 16:46 « Mets moi une grosse… » 😅
easter eggs, tu connais :)
tu es génial manu, je pose une demande d'aide sur le discord cette nuit et tu fait une video quelques heures plus tard!! je me dirige sur patreon, c'est génial KORBEN!!!!
Avec plaisir 😁
Super video, merci beaucoup !
Par contre, avec un LLM local y'a des grosses limitations sur l'accès au système, non ? Je viens de tester avec Mistral, qui me dit qu'il ne peut pas interagir directement avec la machine ("Je ne peux pas changer le thème de votre système.", "Je ne peux pas modifier les paramètres de votre système car je n'ai pas accès aux droits nécessaires pour effectuer ces changements", ou "Je ne peux pas trouver des produits en ligne car je n'ai pas accès à votre navigateur et à votre internet".
Y'a des droits particuliers à lui filer à un moment donné, ou c'est le passage par LM Studio qui bride tout ?
bjr, est ce qu'on peut paramétrer open interpreter avec un chat sans clé API comme par exemple gpt2 ? (au démarrage d'interpreter ça me met direct sur la commande pour mettre ma clé)
Excuse moi si ma question est candide mais pourquoi un json pour l’export ?
👍👍
Il est regrettable que l'utilisation de LM Studio en local soit nécessaire, étant donné que LM Studio n'est pas accessible gratuitement pour des fins commerciales.
ça fonctionne aussi avec une clé API ChatGPT comme je le dis dans la vidéo
@@korbenmon but été de l'utilisé avec mistral en local quant on utilise chatgpt on doit être connecté à internet.
"LM Studio n'est pas accessible gratuitement pour des fins commerciales."
??
Bien sûr que lmstudio est utilisable gratuitement et de plus tous les backends qui propose du openai api compatible sont utilisables avec open interpreter donc llama.cpp server/ollama/kobold.cpp/oobabooga/tabby api pour ne citer qu'eux.
C'est clair un support ollama serait préférable
@@kermod5183sauf que tu peux l'utiliser avec ollama et plein d 'autres
J'ai test et prendre 70 centimes de frais API openAI pour 2 changements de wallpapers, bah non....
et les MLL installés en local faut être honnête ça marche moyen à moins d'avoir un GPU avec 24 Go de RAM.
achete un mac avec 32+ GO de ram, la mémoire est partagé avec le GPU
Mistral 7b est plutôt rapide sur mon MacBook air m1 8 giga
@@electroheadfx je suis pas prêt a passer du côté sombre, pour ce prix autant acheter du très gros GPU Nvidia, car c'est ce qui marche le mieux images et textes. Je dis pas que ça rox pas chez Apple, mais bon, ces machines sont non réparables/jetables avec même sur le très haut de gamme une capacité de stockage de base très très bof.
@@narcoleptik44 Mistral tourne super bien, sur mon pc avec une 3060 TI (8 Go) qui doit valoir 300 Euros maintenant et au moins avec mes 32 Go de RAM supplémentaires, je ne suis pas limité dans le nombre d'onglets de navigateur que je peux ouvrir en //.
@@og3629 pourquoi tu te plein alors ?
Ah ouais ! 54° à Londres, tout le monde trouve ça normal ??? U_u
C'est de l'iA, ça reste toujours aussi éclaté au sol encore, y a encore du taff mdr
VU comment il s'est récupérer la météo, faites donc un "-y", il a plus de chance de te rançonner ton PC qu'autre chose 🤣🤣🤣🤣🤣🤣
OUI bizarre, les remontées de température. J'ai noté cette bizarrerie aussi ;-)