Présentation de la meilleure application Open Source pour utiliser ses LLMs en local avec Ollama !

แชร์
ฝัง
  • เผยแพร่เมื่อ 17 ธ.ค. 2024

ความคิดเห็น • 11

  • @eclypsiaaucac4044
    @eclypsiaaucac4044 2 วันที่ผ่านมา +1

    Hello! open-webui inclut-il du text-to-speech pour avoir un LLM qui réponde à l'oral ?

    • @mehdisalemkour3278
      @mehdisalemkour3278 2 วันที่ผ่านมา

      Il propose des voix française, comme hortense mais je n'ai pas réussi a les faire fonctionner

    • @Initium0_0
      @Initium0_0  2 วันที่ผ่านมา

      Yess, pour windows ça utilise les voix du narrateur de l'os, pour les autres systèmes je sais pas du tout

    • @nislab_
      @nislab_ 15 ชั่วโมงที่ผ่านมา

      Oui tu peux depuis openwebui connecter le moteur de tts de ton choix (meilleure qualité que ceux proposés par Windows). En gros il te faudra setup un conteneur docker avec open-edge-tte ou openedai-speech et passer ensuite la config dans la section audio des paramètres d’administration d’openwebui.

  • @benben2846
    @benben2846 2 วันที่ผ่านมา

    Merci pour le partage, c'est cool, çà fonctionne !
    j'ai utilisé Gemma 2 latest > il a pas l'air d'être top top pour ce taf
    tu conseilles quoi comme LLM ?

    • @Initium0_0
      @Initium0_0  2 วันที่ผ่านมา +1

      Merci !
      Perso llama3.1 en 8b j'aime beaucoup

    • @benben2846
      @benben2846 2 วันที่ผ่านมา

      @@Initium0_0 j'ai pris mistral-nemo latest 12.2B et mis les requetes à 6 Au top pour un ducument compexe . Avoir avec un long document 😅

    • @Initium0_0
      @Initium0_0  2 วันที่ผ่านมา

      @benben2846 Oh nice, j'ai jamais testé mistral-nemo encore

  • @mehdisalemkour3278
    @mehdisalemkour3278 2 วันที่ผ่านมา

    Tu peux nous faire un tuto pour, intégrer fich-audio 1.5 a open webui👃