Ton propre ChatGPT en LOCAL à la MAISON (sans INTERNET & GRATUIT) 😱 Mistral AI - Tuto WSL2 & CUDA

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ต.ค. 2024

ความคิดเห็น • 24

  • @niconico4631
    @niconico4631 4 หลายเดือนก่อน +1

    J'ai vu l'info dans underscore il y a quelques mois et je voulais me pencher sur le sujet mtn, tu tombe à pic !

  • @Risbo__
    @Risbo__ 8 หลายเดือนก่อน +3

    Purée mais tout les sujets que tu traitent sont vraiment ceux qui m'interrogent à l'instant T ! encore un tuto au top ! merci !

    • @Raynoxis
      @Raynoxis  8 หลายเดือนก่อน

      Haha excellent 👌🏻 ! Tu me diras ce que ça donne ! Merci beaucoup ☺️

    • @Risbo__
      @Risbo__ 8 หลายเดือนก่อน +1

      @@Raynoxis J'ai fais l'installe en 1h avec ton tuto en back et sur le proc et la ram c'est tout pourri il hallucine beaucoup et sur le gpu CUDA 33couches (j'ai une 4060) c'est mieux mais très lent quand tu es habitué a l'expérience GPT4

    • @Raynoxis
      @Raynoxis  8 หลายเดือนก่อน +1

      @@Risbo__ ah ouais 33 couches ! J’ai pas essayé autant ! Et ouai c’est plus lent c’est sure mais le fait de l’avoir en local , c’est vraiment dingo , n’importe quel entreprise peut y injecter ses données même confidentielles et l’utiliser pour coder ou faire du document je sent que ça va pas rester gratuit longtemps tout ça haha

    • @Risbo__
      @Risbo__ 8 หลายเดือนก่อน +1

      ​@@Raynoxis j'en discutais avec un pote qui bosse dans une Banque ou justement l'importance des non fuites de données est importante et ils ont quand meme du investir dans des : PNY NVIDIA A100 80 GB ~20K pour avoir des resultats probants donc est ce qu'une solution API openai ne reste toujours pas pour le moment la solution la plus pertinente pour des boites ayant moins de souci avec le partage de données ?

    • @Raynoxis
      @Raynoxis  8 หลายเดือนก่อน

      @@Risbo__ Si tu as raison une entreprise qui ne travaille pas avec des données privées pourra partir sur une solution openai .. après faut voir le nombre d’utilisateurs , les modèles à abonnement peuvent vite monter les prix ou faire des licences par utilisateur et la facture peut grimper je pense…

  • @indidi5606
    @indidi5606 8 หลายเดือนก่อน +2

    Les ordinateurs utilisent différents types de mémoire afin d'optimiser la rapidité d'accès aux données et la quantité de stockage disponible.
    Par exemple, si ta VRAM est pleine, les données excédentaires seront déplacées vers la RAM, et si ta RAM est également pleine, elles seront alors transférées vers ton disque dur.
    Donc pas besoins d'avoir 100Go de VRAM.

    • @Raynoxis
      @Raynoxis  8 หลายเดือนก่อน

      Oui tu as raison , mais pour l IA si je dis pas de betise les calculs sont souvent des calculs parallèles comme pour de la génération graphique, donc le
      gpu est censé être plus fortement utilisé et sa VRAM également , que le CPU et sa RAM c’est ça qui m’a rendu perplexe… Je pense qu’on peut faire de nombreuses optimisations c’est certain ☺️

  • @lelemathrin
    @lelemathrin 8 หลายเดือนก่อน +2

    pourquoi pas juste installer LM Studio ?

    • @Raynoxis
      @Raynoxis  8 หลายเดือนก่อน

      Je ne connaissais pas je vais y jeter un coup d’œil ! Llama.cpp est un peu plus brute c’est vrai haha mais ça reste fonctionnel 😁

  • @francoislepron2301
    @francoislepron2301 5 หลายเดือนก่อน +1

    Géant. Quel est la procédure pour entraîner ton IA perso, avec tes données (PDF, fichiers textes Questions/ Réponses, ...) ? Merci.

    • @Raynoxis
      @Raynoxis  5 หลายเดือนก่อน

      Salut C'est assez compliqué pour le moment, mais c'est la prochaine étape, et les choses vont très vite en ce sens !

  • @houssemrouis1276
    @houssemrouis1276 6 หลายเดือนก่อน +1

    Est qu'il peut fonctionner sans des GPU?

    • @Raynoxis
      @Raynoxis  6 หลายเดือนก่อน

      Yess

  • @VikInks
    @VikInks 8 หลายเดือนก่อน +1

    Hello, merci pour ce tuto de qualité, j'ai une erreur lors de l'exécution du script convert.py qui ne reconnais pas l'extension safetensors de mistral, j'ai été regardé dans le code, et au vue de ce qui y est indiqué il y a une vérification des premiers octets du fichier pour en déterminé si il s'agit d'un torch, d'un safetensors, ou si inconnu (ln 888 convert.py)
    Loading model file ../Mistral-7B-Instruct-v0.2/model-00001-of-00003.safetensors
    Traceback (most recent call last):
    File "/home/***/Mistral/llama.cpp/convert.py", line 1474, in
    main()
    File "/home/***/Mistral/llama.cpp/convert.py", line 1410, in main
    model_plus = load_some_model(args.model)
    File "/home/***/Mistral/llama.cpp/convert.py", line 1270, in load_some_model
    models_plus.append(lazy_load_file(path))
    File "/home/***/Mistral/llama.cpp/convert.py", line 888, in lazy_load_file
    raise ValueError(f"unknown format: {path}")
    ValueError: unknown format: ../Mistral-7B-Instruct-v0.2/model-00001-of-00003.safetensors
    une idée ?

    • @Raynoxis
      @Raynoxis  8 หลายเดือนก่อน +1

      Salut merci beaucoup pour ton retour ! ☺️ Tu as bien fait les petites commande python venv ?

    • @VikInks
      @VikInks 8 หลายเดือนก่อน

      @@Raynoxis je t'en prie ^^, oui j'ai bien activé l'environnement python en terminal

    • @MRUnivers
      @MRUnivers 8 หลายเดือนก่อน

      Soumets le a chatGPT, la réponse pourrait être intéressante 😂

    • @Raynoxis
      @Raynoxis  8 หลายเดือนก่อน

      @@VikInks c’est étonnant avec le petit fichier à sourcer normalement ça devrait te donner tout le nécessaire 😕

    • @VikInks
      @VikInks 8 หลายเดือนก่อน +2

      @@Raynoxis j'ai un peu essayé dans tout les sens en suivant très exactement tes indications, et je me retrouve toujours devant le même soucis, au final après un peu de recherche je suis passé par Ollama une librairie de linux qui permet directement d'installer Mistral dans sa dernière version sans passer par toutes les commandes et installations. ça permet aussi d'exposer une api local pour pouvoir jumeler la session terminal avec un frontend pour avoir une meilleure lisibilité