bolt.new en local gratuit avec api gratuite de OpenAI ; episode 3

แชร์
ฝัง
  • เผยแพร่เมื่อ 13 ธ.ค. 2024

ความคิดเห็น • 11

  • @iadigitalweb
    @iadigitalweb  4 วันที่ผ่านมา +1

    00:00 - Introduction
    01:25 - Installation de python
    04:41 - Mise à jour du Fork de bolt.new
    06:36 - Création de l'api de OpenAI
    07:48 - Configuration de l'api en créer un serveur proxy llm léger
    10:32 - Configuration et correction des bugs
    12:02 - Lancement de bolt.new en local, et explications
    17:24 - Conclusion
    Vous pouvez installer le fork plus rapidement grâce à ce site : pinokio.computer/item?uri=github.com/pinokiofactory/bolt

  • @neilnsonga3875
    @neilnsonga3875 4 วันที่ผ่านมา +1

    Meerci pour ta vidéo.c'est super ça fonctionne au top

    • @iadigitalweb
      @iadigitalweb  4 วันที่ผ่านมา +1

      @neilnsonga3875 Merci de ton commentaire. Pour Mac c'est beaucoup plus simple. tu n'as pas besoin d'installer git. J'ai installer git bash pour avoir la même console que mac/linux . pour avoir exactement les mêmes commandes à saisir. Sur le powerShell de windows c'est une vrai galère. toi tu as juste à installer python et suivre les mêmes commandes que j'exécute sur la console . ;-)

  • @peupac
    @peupac 4 วันที่ผ่านมา +1

    Merci pour la video ! Perso j'aurai pas le temps de tester dans les prochains jours mais très impatient de pouvoir m'y atteler :)

    • @iadigitalweb
      @iadigitalweb  4 วันที่ผ่านมา +1

      @peupac , merci pour ton commentaire ;-)

  • @timelegends23
    @timelegends23 4 วันที่ผ่านมา +1

    Bonjour, merci pour ta vidéo, comme d'habitude elle est toujours très instructive. Est-ce qu'il est possible d'intégrer LlamaCoder 3.3.à Bolt.new?
    Si c'est le cas, peux-tu nous faire un épisode 4 là-dessus. Je te remercie.

    • @iadigitalweb
      @iadigitalweb  4 วันที่ผ่านมา +1

      @timelegends23 , bonjour, merci de ton commentaire. pour llama 3.3 70b, il serait très difficile pour moi de le faire tourner sur mon PC. mais si tu l'installes et qu'une fois lancé tu intègres son adresse sur la variable (OLLAMA_API_BASE_URL=localhost:11434) et que ensuite sur DEFAULT_NUM_CTX=valeur_en_fonction_de_ta_VRAM ; cela peut être possible.
      Sinon, le fork de bolt.new gère maintenant LMStudio et tu peux utiliser plusieurs modèle. mais la configue qu'il demande est la suivante : "Minimum requirements: M1/M2/M3/M4 Mac, or a Windows / Linux PC with a processor that supports AVX2."
      Dés que j'ai une meilleur machine, je ferais une vidéo sur les plus grand modèle LLM.

  • @neilnsonga3875
    @neilnsonga3875 4 วันที่ผ่านมา +2

    est ce que tu nous fera une video sur Windsurf ?

    • @iadigitalweb
      @iadigitalweb  4 วันที่ผ่านมา +1

      @neilnsonga3875, oui. c'est prévu ;-)

  • @neilnsonga3875
    @neilnsonga3875 4 วันที่ผ่านมา +1

    je vais voir quelle genre d'applications on est capable de creer

    • @iadigitalweb
      @iadigitalweb  4 วันที่ผ่านมา +1

      @neilnsonga3875, tiens moi au courant ;-)