COMO USAR OS MODELOS DE IA NO KUBERNETES COM O OLLAMA | Descomplicando Ollama - parte2

แชร์
ฝัง
  • เผยแพร่เมื่อ 11 พ.ย. 2024

ความคิดเห็น • 55

  • @soaresnetoh
    @soaresnetoh 10 วันที่ผ่านมา +1

    Fala Jef... TOP estes videos de LLM hein... manda a V3 com mais infos pra nós !!!!

  • @marcosx86
    @marcosx86 7 หลายเดือนก่อน +11

    Cuidado com as EC2 ligada sem uso galeraaaa rsrsrs prevejo váaarios terraform apply com instância G4 depois desse vídeo rsrsrsrs

  • @caiomarcatti12
    @caiomarcatti12 7 หลายเดือนก่อน +3

    Ainda na propaganda... tome like!

  • @pomsan
    @pomsan 7 หลายเดือนก่อน +1

    Top. Vídeo bem legal. Seria top pegar essa llm privada usar um private gpt ou outro recurso para consultar documentos privados.

  • @elsonjuniornuness
    @elsonjuniornuness 2 หลายเดือนก่อน

    Ótimo o vídeo, agora verei como ele consome um banco de dados e arquivos.

  • @randomic_bear
    @randomic_bear 7 หลายเดือนก่อน +2

    Como "treinar" o llama para tarefas específicas com contexto, como o exemplo que o cara deu ali em baixo de documentação de produtos ou códigos fonte?

  • @JosemarRincon
    @JosemarRincon 7 หลายเดือนก่อน +1

    Parabéns, muito top testarei aqui no docker e depois subir no k8s

  • @henriquebjr
    @henriquebjr 7 หลายเดือนก่อน +3

    Parabéns pelos videos. Realmente é sensacional o Ollama e facilita muito para usar os modelos.
    Se alguém foi mais além e souber alguma forma fácil de treinar um modelo (para adicionar por exemplo documentação de produtos ou fontes de um projeto a um modelo já existente, como codellama ou llama2) me fale por favor.
    Valeu.

    • @rvian4
      @rvian4 7 หลายเดือนก่อน +1

      costumo usar notebooks prontos (kaggle ou google colab) buscando no github, e adapto conforme preciso

  • @washingtonsilva728
    @washingtonsilva728 7 หลายเดือนก่อน +1

    Perfeito !!!! A nova onda !!!!

  • @robisongarcia4757
    @robisongarcia4757 7 หลายเดือนก่อน

    Sensacional havia testado em docker, achei muito bom. Agora vou para k8s, bora subir um eks 😂

  • @hugocosme-q2h
    @hugocosme-q2h 7 หลายเดือนก่อน +1

    Toma o meu Like ai.. voce merece! hehehe Obrigado mano!

  • @helsinxtv5853
    @helsinxtv5853 7 หลายเดือนก่อน +1

    você é o melhor

  • @diegoms2009
    @diegoms2009 7 หลายเดือนก่อน +1

    Sensacional!!!

  • @fernandooliveira4889
    @fernandooliveira4889 7 หลายเดือนก่อน +1

    Parabéns Jeff top demais o video !

  • @leandrogr03
    @leandrogr03 7 หลายเดือนก่อน +1

    Muito bom brincadeira pra fds vlws...

  • @matheusmartins4063
    @matheusmartins4063 7 หลายเดือนก่อน +1

    Top demais!!

  • @eduardoandrade5851
    @eduardoandrade5851 7 หลายเดือนก่อน +1

    show, muito top mesmo

  • @felipeklafke
    @felipeklafke 7 หลายเดือนก่อน +1

    tooop de maaaiss

  • @marcelomanchester
    @marcelomanchester 7 หลายเดือนก่อน +1

    Jeferson consegui botar pra rodar o Ollama no cluster k3s raspberry pi!!!

    • @GeandersonLenz
      @GeandersonLenz 7 หลายเดือนก่อน

      Queremos vídeo! hahaha

  • @vinicioslopes8035
    @vinicioslopes8035 7 หลายเดือนก่อน +1

    Aula incrível e de auto nível como sempre, Jeff, teria algum conteúdo demonstrando realizar fine tuning usando essa metodologia uso de LLM com Kubernetes!

    • @LinuxTips
      @LinuxTips  7 หลายเดือนก่อน +1

      Farei em breve

    • @vinicioslopes8035
      @vinicioslopes8035 7 หลายเดือนก่อน

      @@LinuxTips ❤️

  • @evolucaogames7993
    @evolucaogames7993 4 วันที่ผ่านมา

    isso serve para usar em uma vps ??

  • @iamcflb1477
    @iamcflb1477 7 หลายเดือนก่อน

    rapah, bagulho é doido mesmo!

  • @rodrigoleutz
    @rodrigoleutz 7 หลายเดือนก่อน +1

    top primo, valeu pelas dicas

  • @walterschnuble3275
    @walterschnuble3275 7 หลายเดือนก่อน +1

    Parabéns e Obrigado

  • @celioteixeira3335
    @celioteixeira3335 7 หลายเดือนก่อน +1

    Bom dia,
    Podes me dizer qual e capacidade da sua máquina do laboratório

  • @rodrigoa.cascao1553
    @rodrigoa.cascao1553 7 หลายเดือนก่อน +1

    Fantástico. Seria possível treinar esses modelos em algum tema/conteúdo específico?

    • @LinuxTips
      @LinuxTips  7 หลายเดือนก่อน

      Sim Sim

  • @brunomartinsnunes6249
    @brunomartinsnunes6249 7 หลายเดือนก่อน +1

    monstro !!!

  • @BrunoBuenoLinux
    @BrunoBuenoLinux 7 หลายเดือนก่อน +1

    Subindo lab aqui né. Num tem jeito. =D

  • @joaopaulorolim8328
    @joaopaulorolim8328 7 หลายเดือนก่อน +1

    Show!!

  • @jesherminelli9329
    @jesherminelli9329 หลายเดือนก่อน

    A documentação na descrição do vídeos não está funcionando

  • @rodrigogodoysi
    @rodrigogodoysi 7 หลายเดือนก่อน +2

    👏

  • @joaopaulocostanogueira1544
    @joaopaulocostanogueira1544 7 หลายเดือนก่อน +1

    Qual a vantagem de instalar Ollama no kubernetes?

  • @BeloTech
    @BeloTech 5 หลายเดือนก่อน +1

    muito bom véi!

  • @clebsontorres
    @clebsontorres 7 หลายเดือนก่อน +1

    brabo!!

  • @se78404
    @se78404 7 หลายเดือนก่อน +1

    Muito bom. vi, revi e verei novamente kkkk. p.s qual é o termina que vc ta usando?

    • @LinuxTips
      @LinuxTips  7 หลายเดือนก่อน

      Warp

  • @rodrigomata2084
    @rodrigomata2084 7 หลายเดือนก่อน +2

    Olá tenho duas perguntas: 1- é possível combinar as GPUs por exemplo 2 de 24gb e rodar um modelo de 70b? E 2- Eu consigo somar placas de vídeo de fábricantes diferentes nvidia e AMD no kubernets? Vlw

    • @LinuxTips
      @LinuxTips  7 หลายเดือนก่อน +1

      sim sim. :)

    • @rodrigomata2084
      @rodrigomata2084 5 หลายเดือนก่อน

      @@LinuxTips Eu subi um kubernetes com dois computadores 1- master e 1- worker, cada um tem uma gpu nvidia A5000 com 24GB de VRAM, em modelos de LLM até 35B roda de boa em 1 gpu, porém para o llama 3 de 70B não dá conta do recado, neste caso eu precisaria distribuir a carga nas duas GPU's, você sabe como eu posso fazer isso?

  • @leosimoesp2
    @leosimoesp2 6 หลายเดือนก่อน

    Top!!!!

  • @artu_almeida
    @artu_almeida 7 หลายเดือนก่อน +1

    no caso ai vc fez deploy etc etc mas posso subir um container do ollama localmente mesmo, e usar ollama no meu navegador?

    • @LinuxTips
      @LinuxTips  7 หลายเดือนก่อน +1

      Sim sim

    • @artu_almeida
      @artu_almeida 7 หลายเดือนก่อน +1

      @@LinuxTips cara, eu fiz aqui, o desempenho é muito ruim cara, 40min pra baixar o modelo, e pra responder ele manda 1 palavra de 5 em 5 minutos... to num apple m1, 16GB de RAM...

  • @AlanSilva-aocs
    @AlanSilva-aocs 7 หลายเดือนก่อน +1

    #vaiiii

  • @aroldobossoni
    @aroldobossoni 7 หลายเดือนก่อน

    Alguém calculou o custo por hora para implantar esse projeto em uma cloud?

  • @GuilhermeSilva-cz4fo
    @GuilhermeSilva-cz4fo 7 หลายเดือนก่อน +1

    O repo do ollama esta fora

  • @yohstenes934
    @yohstenes934 6 หลายเดือนก่อน

    Error response from daemon: could not select device driver "" with capabilities: [[gpu]]. está dando este erro alguem pode ajudar?

  • @mcn.d2
    @mcn.d2 7 หลายเดือนก่อน +1

    Phoda esse bichinho ai hein, Ollama neles rs!

  • @mdmgodoy
    @mdmgodoy 7 หลายเดือนก่อน +1