pff. C'est tellement impressionnant ce qui arrive dans nos ordis. Malheureusement, j'ai pas le level pour faire toutes ces maneuvres. Merci pour ce travail, qui montre tout ce qui est possible de faire quand on sait se servir vraiment d'un ordi. Je suivrai l'evolution, comme on regarde un spectacle.
Hello, juste un détail...oui tu nous montres l'installation, la validation d’installation via la page web en localhost et tu poursuis par le terminal . Et oui y a déjà des vidéos sur l'installation d'ollama, mais tu aurais pu préciser qu'un "Ollama Serve" est de rigueur afin de lancer le serveur web écoutant le port qui va bien :)
Alors, j'ai essayé il y a quelques mois sur un ordi tout à fait classique. Mon expérience est qu'il faut vraiment un ordi puissant. Au bout de quelques jours, j'ai désinstallé parce que je n'arrivais à rien avec un modèle léger et peu gourmand (un des llamas). Donc à voir les évolutions
Concernant ce qui ressemble à un conflit avec la mémoire, il est dit dans les indications qu'il faut faire référence à soi-même en tant que USER, pas "je". Donc "je suis Manu" il le prend pour lui. Il aurait fallu écrire "l'utilisateur s'appelle Manu".
Simplifiez-vous la vie en utilisant pinokio (disponible sur Windows, Mac, Linux) et en installant Open WebUI à partir de l'interface de Pinokio, et voilà...
Korben je me permet une remarque : tu vas un peu vite en besogne sur la partie de déclaration de l'adresse d'Ollama j'ai du rajouté ceci --add-host=host.docker.internal:host-gateway sinon ca ne fonctionner pas. T'as du le faire avant mais pour un newbie comme je suis j'étais un peu largué merci perplexity pour le coup je suis resté 2h a essayé de voir avec perplexity ce qu'il y allais pas avec un peu d'intuition je suis partie sur l'adressage réseau, enfin si c'est de cela qu'il s'agit... Mais le reste est parfait merci pour ton travail que tu fais depuis des années.
pff. C'est tellement impressionnant ce qui arrive dans nos ordis. Malheureusement, j'ai pas le level pour faire toutes ces maneuvres. Merci pour ce travail, qui montre tout ce qui est possible de faire quand on sait se servir vraiment d'un ordi. Je suivrai l'evolution, comme on regarde un spectacle.
Hello, juste un détail...oui tu nous montres l'installation, la validation d’installation via la page web en localhost et tu poursuis par le terminal . Et oui y a déjà des vidéos sur l'installation d'ollama, mais tu aurais pu préciser qu'un "Ollama Serve" est de rigueur afin de lancer le serveur web écoutant le port qui va bien :)
On s'imagine pas encore la portée de cela d'avoir ca sur ca machine. Toutes les docs qu'on va pouvoir lui faire bouffer et gratis. Merci Korben.
Super video, merci pour la synthese!
De rien 😁
Je l'ai installé avec Pinokio, c'est facile aussi. Maintenant il faut que j’apprenne à l'utiliser. Merci pour l'aide. :)
De rien 😁
Bonne vidéo pour les bidouilleurs, tout fonctionne au poil ! merci de dégrossir tout ça
Alors, j'ai essayé il y a quelques mois sur un ordi tout à fait classique. Mon expérience est qu'il faut vraiment un ordi puissant. Au bout de quelques jours, j'ai désinstallé parce que je n'arrivais à rien avec un modèle léger et peu gourmand (un des llamas). Donc à voir les évolutions
Concernant ce qui ressemble à un conflit avec la mémoire, il est dit dans les indications qu'il faut faire référence à soi-même en tant que USER, pas "je". Donc "je suis Manu" il le prend pour lui. Il aurait fallu écrire "l'utilisateur s'appelle Manu".
Merci. Comment tu as fait pour utiliser whisper pour l'audio ?
Merci 🎉
Merci beaucoup c est sympa ;)
Bon bein on testera ça quand j'aurai plus un ordi qui rame dés que j'ouvre 4 onglets
Ca marcherait bien pour ecrire du php ? Et peut on le connecter a internet ou il reste en local ?
Les LLMs en local sont vraiment limités. Il faut des gros modèles pour que cela soit vraiment efficace.
Salut Korben tu nous ferra une petite suite llama 3.1 Nemotron ?? le modèle a charger dans ollama est le Llama-3.1-Nemotron-70B-Instruct-HF-GGUF
hello. J’ai tourné une vidéo où j’en parle mais ce sera pour les Patreons bientôt. Et dans 4 ou 5 semaines pour TH-cam
Simplifiez-vous la vie en utilisant pinokio (disponible sur Windows, Mac, Linux) et en installant Open WebUI à partir de l'interface de Pinokio, et voilà...
❤❤❤❤
Korben je me permet une remarque : tu vas un peu vite en besogne sur la partie de déclaration de l'adresse d'Ollama j'ai du rajouté ceci --add-host=host.docker.internal:host-gateway sinon ca ne fonctionner pas. T'as du le faire avant mais pour un newbie comme je suis j'étais un peu largué merci perplexity pour le coup je suis resté 2h a essayé de voir avec perplexity ce qu'il y allais pas avec un peu d'intuition je suis partie sur l'adressage réseau, enfin si c'est de cela qu'il s'agit... Mais le reste est parfait merci pour ton travail que tu fais depuis des années.
Ah c’est possible. Désolé pour ça.
@@korben pas grave tu m’as bien aidé avec ta vidéo c’est l’essentiel
encore un truc qui fera que les gens reflechiront de moins en moins
« Tu ne feras point de machine à l’esprit de l’homme semblable »
Mdrrrr