LLM com Ollama em Máquina Local

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ม.ค. 2025

ความคิดเห็น • 15

  • @omarmoreira86
    @omarmoreira86 2 หลายเดือนก่อน +1

    Sensacional! Obrigado por compartilhar um conteúdo tão relevante ❤

  • @VictorJhonFL
    @VictorJhonFL 2 หลายเดือนก่อน +1

    Como seria para criamos e treinarmos uma LLM própria? Nesse caso seria possível (para fins de estudos, nada para deploy ,só para testes mesmo..)?

    • @gabrielalves7684
      @gabrielalves7684 2 หลายเดือนก่อน +3

      Olá Victor! Sim é possível, tem diversas soluções para isso, vou citar duas. Uma opção seria usar a biblioca PEFT, cujo método é projetado para ajustar grandes modelos de linguagem sem a necessidade de retreinar todos os seus parâmetros (e que geralmente estão na ordem de grandeza de bilhões). Sendo assim, requer muito menos volume de dados e poder computacional. Sugiro dar uma olhada em artigos/tutorais sobre ela, podendo ser usada junto ao Hugging Face.
      A solução que mais recomendo hoje é o Unsloth AI, pois é extremamente otimizado para treinamento de modelos open source. E é bem pratico, você vai encontrar no repositório deles Colabs prontos para uso.

    • @VictorJhonFL
      @VictorJhonFL 2 หลายเดือนก่อน

      @@gabrielalves7684 Muitíssimo obrigado, Gabriel!! Seu comentário deu um norte muito bom! E foi bem detalhado, grato! Vou procurar a respeito dessas Libs, e era exatamente isso mesmo que eu estava pensando - não em treinar toda a rede do absoluto zero, visto que já sabia previamente na quantidade massiva de dados - mas em treinar com mais ênfase nos dados específicos, uma vez que ela já estaria treinada com uma base sólida, sobre idioma, assuntos básicos e necessários para a comunicação homem-máquina.
      Muito obrigado, pela disposição em comentar! Bom dia!🙂🙏🤝🏼👏👏

    • @gabrielalves7684
      @gabrielalves7684 2 หลายเดือนก่อน +1

      ​@@VictorJhonFL Opa que ótimo, feliz por ter ajudado!
      E sim, com fine-tuning dá para fazer muita coisa mesmo, ajustando para casos bem específicos, e para isso usando um poder computacional muito menor.
      Ah e tenha igualmente um bom dia!

    • @IAExpertAcademy
      @IAExpertAcademy  2 หลายเดือนก่อน

      Obrigado pela resposta!

    • @IAExpertAcademy
      @IAExpertAcademy  2 หลายเดือนก่อน

      Obrigado pela resposta!

  • @raphaelbonillo2192
    @raphaelbonillo2192 2 หลายเดือนก่อน

    Sem Hardware não roda. Máquina fraca não tem condições de rodar isso. Não seria melhor uma SLM?

    • @gabrielalves7684
      @gabrielalves7684 2 หลายเดือนก่อน

      Olá! Na verdade você pode usar SLMs junto ao Ollama, pois o Ollama não é o modelo em si, ele é o framework usado para implementar os modelos de linguagem. Ou seja, é possível rodar SLM por ele, assim como modelos maiores. A vantagem é que ele oferece uma instalação prática e facilita o uso otimizado do modelo, que já vem quantizado. Dê uma olhada no site, na página "Models" tem bastante modelos bem menores.
      Isso quer dizer que você pode usar o Phi3 (mini), modelo mostrado nesse vídeo, que inclusive é considerado um SLM também (alguns dizem que é meio grande para ser SLM, mas ainda assim a comunidade no geral prefere enquadrar nessa categoria, pois de fato possui muito menos parâmetros que os modelos que estamos mais acostumados). Mas se não rodar em sua máquina tem modelos menores ainda e disponíveis para ser usados via ollama, com menos de 1 bilhão da parâmetros.
      Se você não possui hardware bom pode se contentar com modelos bem pequenos mas o resultado pode deixar a desejar as vezes, ainda mais dependendo do idioma usado para gerar as respostas (não todos possuem bom suporte a todos os idiomas), por isso sugiro considerar usar uma solução via API, seja paga ou gratuita.

    • @raphaelbonillo2192
      @raphaelbonillo2192 2 หลายเดือนก่อน

      ​@@gabrielalves7684Eu estou tentando algumas coisas. Meu objetivo é conversar com um PDF. Existem muitas opções: eu poderia selecionar um modelo no Hugging Face, gerar o script Python a partir do exemplo, subir isso no Azure em uma máquina virtual e expor uma API. Com uma interface em Streamlit, várias pessoas poderiam usar, pois eu teria o poder da máquina virtual. Tentei o Anything LLM Desktop, fantástico, mas extremamente pesado.

    • @raphaelbonillo2192
      @raphaelbonillo2192 2 หลายเดือนก่อน

      @@gabrielalves7684 Em um PDF que não vai mudar nunca o conteudo, você iria de RAG ou Fine Tuning?

    • @IAExpertAcademy
      @IAExpertAcademy  2 หลายเดือนก่อน

      Obrigado pela resposta, Gabriel!

    • @gabrielalves7684
      @gabrielalves7684 2 หลายเดือนก่อน

      ​@@raphaelbonillo2192 para um PDF de conteúdo fixo acho que o fine-tuning pode ser mais vantajoso pois cria um modelo otimizado que "conhece" permanentemente o conteúdo do documento, o que evita a necessidade de consultas constantes. RAG é indicado quando o conteúdo muda frequentemente ou é muito extenso, pois permite atualizações dinâmicas sem precisar treinar novamente o modelo. Porém, o treinamento requer um custo computacional maior, e pode não ser tão prático de início caso esteja apenas fazendo experimentos. Eu testaria com RAG antes e verificaria a qualidade das respostas, pois RAG é mais rápido implementar, e caso tenha margem para melhoras eu faria o fine-tuning em seguida (ou, pode fazer direto essa opção mesmo, mas só compensa se tiver certeza que não precise alterar com frequência).