00:00 - Introduction 01:25 - Installation de python 04:41 - Mise à jour du Fork de bolt.new 06:36 - Création de l'api de OpenAI 07:48 - Configuration de l'api en créer un serveur proxy llm léger 10:32 - Configuration et correction des bugs 12:02 - Lancement de bolt.new en local, et explications 17:24 - Conclusion Vous pouvez installer le fork plus rapidement grâce à ce site : pinokio.computer/item?uri=github.com/pinokiofactory/bolt
@neilnsonga3875 Merci de ton commentaire. Pour Mac c'est beaucoup plus simple. tu n'as pas besoin d'installer git. J'ai installer git bash pour avoir la même console que mac/linux . pour avoir exactement les mêmes commandes à saisir. Sur le powerShell de windows c'est une vrai galère. toi tu as juste à installer python et suivre les mêmes commandes que j'exécute sur la console . ;-)
Bonjour, merci pour ta vidéo, comme d'habitude elle est toujours très instructive. Est-ce qu'il est possible d'intégrer LlamaCoder 3.3.à Bolt.new? Si c'est le cas, peux-tu nous faire un épisode 4 là-dessus. Je te remercie.
@timelegends23 , bonjour, merci de ton commentaire. pour llama 3.3 70b, il serait très difficile pour moi de le faire tourner sur mon PC. mais si tu l'installes et qu'une fois lancé tu intègres son adresse sur la variable (OLLAMA_API_BASE_URL=localhost:11434) et que ensuite sur DEFAULT_NUM_CTX=valeur_en_fonction_de_ta_VRAM ; cela peut être possible. Sinon, le fork de bolt.new gère maintenant LMStudio et tu peux utiliser plusieurs modèle. mais la configue qu'il demande est la suivante : "Minimum requirements: M1/M2/M3/M4 Mac, or a Windows / Linux PC with a processor that supports AVX2." Dés que j'ai une meilleur machine, je ferais une vidéo sur les plus grand modèle LLM.
00:00 - Introduction
01:25 - Installation de python
04:41 - Mise à jour du Fork de bolt.new
06:36 - Création de l'api de OpenAI
07:48 - Configuration de l'api en créer un serveur proxy llm léger
10:32 - Configuration et correction des bugs
12:02 - Lancement de bolt.new en local, et explications
17:24 - Conclusion
Vous pouvez installer le fork plus rapidement grâce à ce site : pinokio.computer/item?uri=github.com/pinokiofactory/bolt
Meerci pour ta vidéo.c'est super ça fonctionne au top
@neilnsonga3875 Merci de ton commentaire. Pour Mac c'est beaucoup plus simple. tu n'as pas besoin d'installer git. J'ai installer git bash pour avoir la même console que mac/linux . pour avoir exactement les mêmes commandes à saisir. Sur le powerShell de windows c'est une vrai galère. toi tu as juste à installer python et suivre les mêmes commandes que j'exécute sur la console . ;-)
Merci pour la video ! Perso j'aurai pas le temps de tester dans les prochains jours mais très impatient de pouvoir m'y atteler :)
@peupac , merci pour ton commentaire ;-)
Bonjour, merci pour ta vidéo, comme d'habitude elle est toujours très instructive. Est-ce qu'il est possible d'intégrer LlamaCoder 3.3.à Bolt.new?
Si c'est le cas, peux-tu nous faire un épisode 4 là-dessus. Je te remercie.
@timelegends23 , bonjour, merci de ton commentaire. pour llama 3.3 70b, il serait très difficile pour moi de le faire tourner sur mon PC. mais si tu l'installes et qu'une fois lancé tu intègres son adresse sur la variable (OLLAMA_API_BASE_URL=localhost:11434) et que ensuite sur DEFAULT_NUM_CTX=valeur_en_fonction_de_ta_VRAM ; cela peut être possible.
Sinon, le fork de bolt.new gère maintenant LMStudio et tu peux utiliser plusieurs modèle. mais la configue qu'il demande est la suivante : "Minimum requirements: M1/M2/M3/M4 Mac, or a Windows / Linux PC with a processor that supports AVX2."
Dés que j'ai une meilleur machine, je ferais une vidéo sur les plus grand modèle LLM.
est ce que tu nous fera une video sur Windsurf ?
@neilnsonga3875, oui. c'est prévu ;-)
je vais voir quelle genre d'applications on est capable de creer
@neilnsonga3875, tiens moi au courant ;-)