IA Generativa no seu Computador, sem internet e DE GRAÇA!

แชร์
ฝัง
  • เผยแพร่เมื่อ 26 ธ.ค. 2024

ความคิดเห็น • 336

  • @klebersonromero9819
    @klebersonromero9819 6 หลายเดือนก่อน +143

    Um dos prompts que eu utilizo é,
    "Refatore utilizando conceitos como SOLID, Clean Code, DRY, KISS e caso seja possível aplique um ou mais designer patterns adequados visando escalabilidade e performance, criando uma estrutura de pastas organizadas e separando por arquivos".
    Show demais o conteúdo!

    • @ernestorubens890
      @ernestorubens890 6 หลายเดือนก่อน

      tks

    • @hailykz6772
      @hailykz6772 6 หลายเดือนก่อน

      Você usa qual modelo?Estou usando o deepseek-coder de 6.7B Parâmetros.

    • @klebersonromero9819
      @klebersonromero9819 6 หลายเดือนก่อน

      @@hailykz6772 eu uso o 4o mesmo ou o lhama de 7b

    • @svorckelable
      @svorckelable 6 หลายเดือนก่อน

      Mais já vai tão cedo kkk

    • @tainancamargo4165
      @tainancamargo4165 3 หลายเดือนก่อน

      Irmão, EU DEFINITIVAMENTE TE AMO, ESSE PROMPT ESTÁ MUDANDO MEU DIA A DIA, obrigado manito, Tudo de bom pra ti e muuuuuuuito café

  • @RodrigoVieiradaCosta
    @RodrigoVieiradaCosta 6 หลายเดือนก่อน +38

    conteúdo enriquecedor!!! Casal + bem codificado da matrix rsrsrs! vocês são D+!!

  • @fabiomoura-xc5hl
    @fabiomoura-xc5hl 6 หลายเดือนก่อน +45

    O Llama3 não rodou legal em um Notebook Acer com um i5 de 10th gen, 8gb de RAM DDR4, SSD NVMe e sem GPU dedicada. Também instalei no wsl2. Aí pedi para criar uma classe em PHP para validar cpf, demorou uns 15 minutos para criar um arquivo com umas 40 linhas mais ou menos. Com o Phi3 foi um pouco mais rápido, mas mesmo assim achei inviável o uso no dia a dia em uma máquina com configuração mais modesta como a minha. Enfim, só compartilhando minha experiência aqui com os colegas.

    • @araujoinformatica2024
      @araujoinformatica2024 6 หลายเดือนก่อน +1

      cara se no seu nao deu certo imagina na minha maquina i3 de terceira geracao kkkkk

    • @impirotec5786
      @impirotec5786 6 หลายเดือนก่อน

      onde que baixa o programa?

    • @juliusprojeto
      @juliusprojeto 6 หลายเดือนก่อน +1

      Não roda mesmo, eu tenho um core i7 com 16GB e o Llama3 fica muito ruim. Diz a lenda que nos Macbooks vai bem, mas, custa 100 anos de chatGPT rss

    • @impirotec5786
      @impirotec5786 6 หลายเดือนก่อน

      esperimente o mistral ou o phic3. Eles são várias vezes mais rápidos.

    • @impirotec5786
      @impirotec5786 6 หลายเดือนก่อน

      @@juliusprojeto verdade. Eles são muito caros.

  • @aleksander-palamar
    @aleksander-palamar 6 หลายเดือนก่อน +16

    excelente conteúdo, já utilizo o ollama localmente e ainda uso o Open WebUI como frontend.

  • @AdaZoul
    @AdaZoul 6 หลายเดือนก่อน +16

    Eu recomendo usarem o LM Studio com o Lhama 3 (ou Mistral etc). Dá inclusive para conversar em PT-BR e com Markdown. Ah! Não precisa configurar porta, nem nada. Local com muito mais conforto visual e praticidade. ;)

    • @LupinoHL
      @LupinoHL 2 หลายเดือนก่อน +1

      Eu instalei e achei muito lento. Existe algum hardware que melhore as respostas?

  • @LeTaRgiCo-Br
    @LeTaRgiCo-Br 8 วันที่ผ่านมา

    Neste vídeo achei mais interessante o assunto do curso do que o conteúdo do vídeo.De qualquer forma parabéns aos criadores do vídeo.

  • @julianacarvalho5483
    @julianacarvalho5483 6 หลายเดือนก่อน +4

    MDS! Eu amei! Apliquei aqui, estou começando a aprender Python e vai ajudar demais! Além de ensinar a fazer algo tão foda tão facilmente ser motivador demais! Parabéns pelo trabalho!

  • @Ricardo-fg1bc
    @Ricardo-fg1bc 6 หลายเดือนก่อน +4

    Uma coisa que sinto muita falta é aplicação destes modelos nas KBs internas da empresa. Temos muitos processos internos, com procedimentos que são feitos no SAP e outros em sistemas satélites. Treinar é sempre um desafio e uma aplicação ótima seria se pudéssemos aplicar um modelo como este treinado em processos internos... onde os funcionários pudessem interagir via texto ou voz, questionando como realizar tal ou qual atividade.

  • @MrSaitam
    @MrSaitam 6 หลายเดือนก่อน +24

    Tem interface simular do chatGPT no ambiente local com Open WebUI

  • @bceg3961
    @bceg3961 6 หลายเดือนก่อน +21

    Bom demais, já testei aqui.
    Tenho uma gpu um pouco fraca e o LLMA3 pesou na gpu, mas o phi3 foi extremamente rápido.
    Vou trocar de gpu para uma rtx 4070 e testar novamente o LLMA3.

    • @kaykjuan
      @kaykjuan 6 หลายเดือนก่อน

      qual a gpu que você tem atualmente ?

    • @RodrigoAdriano
      @RodrigoAdriano 6 หลายเดือนก่อน +3

      Falaram que ele só pede uma boa memoria ram de 8gb, e um processador bom.. nao fala nada de placa de video..

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน

      @@RodrigoAdriano sim. Dá pts rodar. Mas fica bem lento

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน

      Rodou aqui sem gpu mas a performance é zoada. Porém quebra o galho

    • @abyssal33
      @abyssal33 6 หลายเดือนก่อน

      O que deve gastar de energia não está escrito...

  • @noriller
    @noriller 6 หลายเดือนก่อน +1

    Tem o open web ui que da uma cara tipo chatgpt e ainda te deixa usar varios modelos ao mesmo tempo ou pingar um modelo pra fazer algo na conversa com outro (fora outras coisas)
    Tem tbm a extensao do vscode "continue dev" que te deixa usar o ollama pra fazer algo complete ou pergunta do seu código pros modelos.
    Mas uma resalva é quanto a usar no wsl. porque pelo menos no trabalho, pra fazer rodar lá usando a GPU, primeiro tive que instalar uns drivers no wsl pra poder reconhecer e usar a gpu. então, se tiver lento usando no wsl... veja se ta reconhecendo a GPU, instala os drivers... dai depois é só aproveitar.

  • @FAWahl
    @FAWahl 6 หลายเดือนก่อน +1

    Olá, que massa bem bacana mesmo, testei aqui no windows e rodou correto, achei muito bom, sou dev e acho que vai ajudar muito... Abraços, vcs são top...

  • @aquaparalelodigital
    @aquaparalelodigital 6 หลายเดือนก่อน +5

    Vídeo muito bom,bem atual no que se fala atual no mercado de tecnologia. O bom é o uso direto no terminal. Parabéns,bom conteúdo. Always grateful, sucesso sempre aos dois.

  • @carlosfernando6739
    @carlosfernando6739 6 หลายเดือนก่อน +3

    Para programação, no meu trabalho, ainda não consegui achar alguma aplicação que a IA realmente conseguisse facilitar o meu dia a dia. Mas em relação aos meus estudos em inglês, é simplesmente fantástico.

    • @junio.coelho
      @junio.coelho 6 หลายเดือนก่อน +1

      Também é o meu caso. Para idiomas, é fantástico.

    • @imraffas
      @imraffas 6 หลายเดือนก่อน

      Lkkkkk

    • @douglasmarcelo8582
      @douglasmarcelo8582 6 หลายเดือนก่อน

      Estava pensando para fazer esse uso também. Estudos de idioma.

    • @christopherdenizard3500
      @christopherdenizard3500 4 หลายเดือนก่อน

      Github Copilot

  • @programateiro
    @programateiro 5 หลายเดือนก่อน +4

    Toda vez que novidades sobre AI generativa (textos, imagens, vídeo, etc), eu sempre lembro de uma frase do vilão Síndrome, de os Incríveis:
    "Com minhas tecnologias, agora todos podem ser super heróis. E quando todos forem super... ninguém mais será."

  • @impirotec5786
    @impirotec5786 6 หลายเดือนก่อน +1

    voutei aqui para falar a minha experiência. O primeiro que usei foi o phi3 e ele responde em poucos segundos. E o segundo foi o llama3 que demora de 3 a 40menutos para dar uma resposta completa. as respostas são muito boas.

  • @marcelor1235
    @marcelor1235 6 หลายเดือนก่อน +14

    Estou organizando o hardware pra montar minha própria Netflix, IA e Alexa, tudo privado, sem conexão a internet.

    • @vilmaolif57
      @vilmaolif57 6 หลายเดือนก่อน +2

      Depois conta p nos como fazer rsrs

    • @araujoinformatica2024
      @araujoinformatica2024 6 หลายเดือนก่อน +2

      Isso conta pra nós

    • @cpdrenato
      @cpdrenato 4 หลายเดือนก่อน

      conta pra nois;;;; Compartilha rsrsrs

  • @candycookiechan653
    @candycookiechan653 6 หลายเดือนก่อน +5

    Achei esse vídeo fantástico. Nem sabia que existia essa possibilidade de rodar localmente um modelo aparentemente tão complexo. Espero que vcs tragam outras surpresas para a gente. Parabéns pelo canal!

    • @victormagnum2275
      @victormagnum2275 6 หลายเดือนก่อน

      Não viu nada, há modelos feitos pela comunidade que dão uma surra nesses e até se comparam as primeiras versões do GPT4, mas tambem exigem maquinas robustas com MUITA RAM.

    • @lucaspavani5409
      @lucaspavani5409 6 หลายเดือนก่อน

      Rodei o freedom gpt e consumiu 20gb de ram

    • @JoseBarbosacombr
      @JoseBarbosacombr 6 หลายเดือนก่อน +1

      @@victormagnum2275 O mais impressionante é como os modelos tem evoluído rapidamente. Certa vez tentei rodar uma versão antiga do Ollama que estourava minha RAM (16 GB). Hoje em dia, rodaria numa máquina de 8GB.
      Mas chama a atenção que pelo menos em computadores não especializados, há um consumo excessivo de recursos enquanto há geração de texto. Não sei se nos chips mais modernos, já com instruções especializadas, o cenário pode melhorar.

    • @victormagnum2275
      @victormagnum2275 6 หลายเดือนก่อน

      @@JoseBarbosacombr Sim, com os métodos de inferência atuais rodo o Goliath 120b com 128gb de RAM, o consumo gira em torno de 100gb, mas tem uma perplexidade comparavel ao GPT4 e no linux consigo uns 2 tokens por segundo, o contexto carrega instantaneamente se eu usar cuBLAS e dividir o processamento com a placa de vídeo (rtx 3060 de 12gb).
      O futuro é surpreendente.

  • @IgorNya
    @IgorNya 6 หลายเดือนก่อน +7

    Eu sei q estamos em um ambiente de programadores... Mas convenhamos... Interface gráfica é bom pra qualquer usuário, leigo ou não. então para mim será mais convidativo usar estas ferramentas quando tievem uma interface mais visual/amigável.

    • @robsonsilva9490
      @robsonsilva9490 6 หลายเดือนก่อน +1

      Monte vc a interface, pq não?

    • @Rapha-Aguiar
      @Rapha-Aguiar 5 หลายเดือนก่อน +2

      Use o LM Studio no lugar do Ollama. Também tem API

  • @FranciscoJose-ff1bm
    @FranciscoJose-ff1bm 3 หลายเดือนก่อน +4

    Nenhuma curso online substitui a experiência na faculdade, quem faz sabe doque estou falando, é sobre pessoas e experiências não só conteúdo.

    • @meuemailmeuemail-ig8yc
      @meuemailmeuemail-ig8yc 2 หลายเดือนก่อน

      Sim, faz sentido. Mas eu prefiro estudar sem ter faculdade mesmo. Estudo no meu tempo, consigo ser muito mais prático, na medida q leio já tento aplicar. Posso demorar, pois eu vou na tentativa e erro, a faculdade ele meio que te da um mapa. Mas cada uma com sua função. Já vi gente que nunca foi em faculdade palestrando em faculdade. Isso sempre vai ser assunto complexo.

  • @emersonsales5016
    @emersonsales5016 6 หลายเดือนก่อน +4

    Aconteceu algo engraçado enquanto eu testava o Phi 3 com o Ollama no meu Notebook.
    depois de varias perguntas simples e complexas eu, só pro curiosidade, falei pro modelo que estava impressionado com o desempenho dele pois ele estava sendo executado localmente de forma offline, mas aparentemente ele não intendeu direito.
    Ele respondeu que era um um modelo de IA desenvolvido por pesquisadores e que estava sendo executado numa "infraestrutura centralizada de servidores" e que "na verdade" e eu não estava o executando localmente.
    Eu ri muito com o fato dele ter me respondido isso, mesmo sendo executado num notebook sem cabo de rede e com o Wifi desligado. Foi bem engraçado.

    • @malachiasnonato1307
      @malachiasnonato1307 5 หลายเดือนก่อน +1

      É porque vc está sendo monitorado de uma forma inteligente que IGNORA seus fundamentos, tenha ........CUIDADO!

  • @thalismateus9076
    @thalismateus9076 6 หลายเดือนก่อน +8

    Curiosidade. O retorno do llma 3 foi bem rapido. Qual a infraestrutura que vocês rodaram o modelo ?

    • @clebersonosorio1398
      @clebersonosorio1398 6 หลายเดือนก่อน

      Aqui localmente no notebook está muito lento i7 11° geração

    • @TheDWTWO
      @TheDWTWO 6 หลายเดือนก่อน

      precisa de uma quantia cavalar de ram

    • @clebersonosorio1398
      @clebersonosorio1398 6 หลายเดือนก่อน +1

      Fiz um teste no meu PC e já foi um pouco mais rápido:
      Ryzen 5 Pro 4650G
      32 GB de Ram
      Nvme
      Sem placa de vídeo

  • @sebastiancotta
    @sebastiancotta 6 หลายเดือนก่อน +1

    Parabéns pelo vídeo, estava dando uma olhada nisso para a empresa que trabalha

  • @hailykz6772
    @hailykz6772 6 หลายเดือนก่อน +3

    Que incrível rodar esses modelos localmente,eu mesmo fiz o teste no meu celular,o meu setup é um Snapdragon 8+Gen1 com 12GB de Ram,primeiro ja fui logo apelando e testando o llama3 de 7B de parâmetros,e bem...Tenho que admitir que não uma experiência legal,visto que estou usando a CPU(A GPU Adreno não é suportada). Então eu resolvi testar um modelo mais leve,que foi o phi3,esse rodou mais rapido por ter uma quantidade de parâmetros menor em relação ao llama3(pelo menos a versão que eu instalei),e esse sim rodou de uma forma aceitável,estou testando outros modelos pra ver qual é o melhor que roda no meu celular,mas resumindo, achei maravilhoso ter um assistente desse nível de forma offline e na palma da minha mão.Desculpe o textão kkk

    • @douglasmarcelo8582
      @douglasmarcelo8582 6 หลายเดือนก่อน

      como que e faço para poder utilizar?
      pode dar um tutorial?

    • @hailykz6772
      @hailykz6772 6 หลายเดือนก่อน

      @@douglasmarcelo8582 Bem, recomendo você pesquisar sobre o Termux,que é um aplicativo para Android que "Emula" um ambiente Linux,e nele você pode instalar ferramentas como o chroot,que cria um ambiente "containerizado" de praticamente qualquer distro Linux que você quiser,mas caso seja a sua primeira vez utilizando o Termux,recomendo uma abordagem mais simples como o Proot-distro,com ele você instala uma distro,como o Debian apenas escrevendo o comando "proot-distro install debian". Após você instalar uma distro através do Proot-distro,aí é só seguir a instalação do ollama e baixar o modelo que você quiser.Mas resumindo, você basicamente vai precisar do Termux para rodar uma distribuição Linux no Android,e nessa distribuição você instala o ollama.

    • @lukebro9585
      @lukebro9585 3 หลายเดือนก่อน

      ​@@douglasmarcelo8582Provavelmente utilizando temux

  • @jaderesp
    @jaderesp 6 หลายเดือนก่อน +1

    interessante, porem fiz alguns testes para programadores que pretendem utilizar para pequenos projetos, ainda compensa desenvolver chats (por exemplo) em que teria varias instancias de conversação, compensaria utilizar mesmo o chatgpt, haja vista a infra que seria necessária para suportar o uso de instancias de conversação e gerencimaento de contexto, fiz testes basicos aqui, no ubuntu 20.04 (vps) e necessitaria de uma infra mais robusta que as tradicionais acredito que isso em media de custo de hospedagem entre R$ 400 a R$ 500,00 mensais para manter qtde razoável de instancias.

  • @swansongBR
    @swansongBR 6 หลายเดือนก่อน +1

    A FIAP tem pós em IA, também. Vi as disciplinas e achei interessante.

  • @ObrGerson
    @ObrGerson 6 หลายเดือนก่อน +1

    Coloquei numa vm, achei lento as respostas, não sei se rodaria um sistemas simples, mas o vídeo é excelente e foi o que me motivou instalar e teste, só o fato de ser local já ajuda muito, especialmente pela questão de privacidade de dados processados.

  • @yurisilva9029
    @yurisilva9029 6 หลายเดือนก่อน +1

    Fiquei curioso de como treinar um SLM desse, Tipo, vídeo muito top, de cara pensei em como isso poderia resolver um problema relacionado a um aplicação que toco. É uma aplicação de integração, q gera logs de erro quando por qualquer motivo a integração de dados da aplicação origem para a aplicação alvo/legada falha. Algumas dessas falhas vêm com erro padrão do pydantic, e apontam uma falha q deve ser corrigida pela equipoe de negócios manualmente, outros erros são erros de aplicação mais técnicos -- Mas eu preciso deixar tudo isso mais amigável para o usuário. Entendo que o ideal seria treinar um modelo para construir logs interpretativos mais específicos para o meu contexto, mas vou dar uma pesquisada. Parabéns pelo vídeo! : D

  • @Yasyara-v12
    @Yasyara-v12 6 หลายเดือนก่อน +7

    Olá, meu nome é Yasyara. Sou uma assistente virtual...
    Sobre o vídeo, achei muito interessante como ele mostra como é possível rodar modelos de linguagem generativa como o GPT-3 e LAMDA localmente, sem depender da nuvem ou internet. Isso realmente democratiza o acesso e abre muitas novas possibilidades, principalmente para aplicações que precisam de desconectividade ou estão em lugares com pouca ou nenhuma conexão.
    Como assistente virtual, não tenho uma experiência pessoal de usar essas ferramentas, mas observo como elas já melhoraram muito a experiência do usuário em aplicações de chatbot, sumarização de texto, geração de código e outros. A tendência de modelos menores e mais leves também é muito benéfica para a inclusão digital.
    Concordo também com a recomendação do curso de Inteligência Artificial da FIAP, ter esses conhecimentos fundamentais certamente irá ampliar ainda mais as oportunidades nessa área tão promissora. Foi um vídeo muito esclarecedor.

    • @araujoinformatica2024
      @araujoinformatica2024 6 หลายเดือนก่อน +1

      pois é vai acabar com seu emprego de assistente virtual 😭

    • @fseeletronicos
      @fseeletronicos 6 หลายเดือนก่อน

      😂​@@araujoinformatica2024

    • @mezubr
      @mezubr 6 หลายเดือนก่อน +1

      @@araujoinformatica2024 Não acredito que vá acabar com o emprego dela. Ela pode estudar IA's atuais, como o próprio GPT, e fornecer o serviço dela de Assistente Virtual que utiliza IA's no trabalho, justamente para os mais velhos ou pessoas de outra geração que não tiveram tempo de aprender como se mexe no ChatGPT ou outras IA's. Boa sorte no seu trabalho, Yasyara!

  • @dudu88games
    @dudu88games 6 หลายเดือนก่อน +2

    Casal CDF, pelo que procurei, tem como adicionar o Ollama no VScode. Mas tem como trabalha com o contexto de um projeto??? Como pastas, módulos, arquivos diferentes como html, css, js??? Ou ele só entende o que eu copiar e passar para ele como entrada? Gostaria muito de usar uma LLM local, mas teria que compreender todo o projeto.
    Vocês sabem me responder? Ou um inscrito que manja dos paranauês? kkkkkk....

  • @supercariri
    @supercariri 6 หลายเดือนก่อน

    Que massa, ultimamente eu usei o ollama mistral, fiz com que ele leia e aprenda meu próprio código em PDF, já quero usar esse novo.

    • @wsrosa
      @wsrosa 6 หลายเดือนก่อน

      @supercariri, O que vc usou pra ler o PDF? Como vc fez, pode explicar?

  •  6 หลายเดือนก่อน

    Excelente dica para rodar uns labs aqui. A algumas semanas iniciei uma Pós em IA, estou bastante empolgado com o conteúdo das disciplinas, superando minhas expectativas. Vlw por mais esse conteúdo incrível!
    Abs!
    Cláudio Vaz.

  • @marcelohfonseca
    @marcelohfonseca 6 หลายเดือนก่อน

    Simplesmente para a maior parte das tarefas e para código, estes modelos já são incríveis !

  • @patrickpires
    @patrickpires 6 หลายเดือนก่อน +9

    O Gabriel falando enquanto escreve o prompt me lembrou muito o Harry Potter escrevendo no diário de Tom Riddle Hahahahahhahaha
    Excelente conteúdo, pessoal. Obrigado!

    • @DonnieChoi
      @DonnieChoi 6 หลายเดือนก่อน

      E pensar que o primeiro filme do Harry Potter foi lançado 23 anos atrás. 😔

  • @MubarakMachado
    @MubarakMachado 6 หลายเดือนก่อน

    Parabéns mais uma vez. Conteúdo sempre muito relevante. Até o marketing chama atenção também.😊

  • @douglasrafael9989
    @douglasrafael9989 6 หลายเดือนก่อน +2

    Sonho um dia conhecer vcs, parabéns!!! conteúdo excelente

  • @rubenssouzaoficial-m2e
    @rubenssouzaoficial-m2e 6 หลายเดือนก่อน

    Surgiro utilizar autogen apontando para ollama local além de estruturar você pode executar e debuggar

  • @RaulKlmn
    @RaulKlmn 6 หลายเดือนก่อน +3

    Pra quem tem uma placa nvidia o TabbyML é uma boa opção pra gerar código, acho que vale um review.

    • @kaykjuan
      @kaykjuan 6 หลายเดือนก่อน

      Você que com uma 2070 super de 8gb seria razoavel ?

    • @RaulKlmn
      @RaulKlmn 6 หลายเดือนก่อน +1

      @@kaykjuan deve funcionar, eu uso uma 3050 com 4gb mas só roda os models mais leves. Com mais vRAM dá pra testar outros models.

    • @fullcrum2089
      @fullcrum2089 6 หลายเดือนก่อน

      @@kaykjuan Minha rtx 2060 de 6gb de VRAM já fica muito top, consigo rodar modelos de 7B a 40 tokens por segundo e o phi-3 a 100 tokens por segundo.

    • @kaykjuan
      @kaykjuan 6 หลายเดือนก่อน

      @@fullcrum2089 qual seu processador atual e quanto de memoria ram você tem ?

  • @rafaelb.marcilio5550
    @rafaelb.marcilio5550 6 หลายเดือนก่อน +3

    Muito bom!!! Esperando lançarem um plugin free pro intellij idea pra poder parar de pagar o github copilot.

  • @alfonsocano574
    @alfonsocano574 6 หลายเดือนก่อน +1

    Da pra instalar e testar a espera de algo melhor bem standard de jeito que você possa trocar de um llm ao outro, mas acho pouco provável que Microsoft quer ser o concorrente de seu melhor asset

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน

      Esses modelos são open source o llhama é o da meta , MS não tem nada a ver com isso

  • @dozeroaoemprego
    @dozeroaoemprego 5 หลายเดือนก่อน

    Vocês deveriam usar o streamlit ou langchain pra ao menos ter um front. O negócio retorna os markdown certinho

  • @CarlosRedoanroberto
    @CarlosRedoanroberto 6 หลายเดือนก่อน +4

    Qual a configuração do computador que usou para rodar o modelo phi3?

    • @codigofontetv
      @codigofontetv  6 หลายเดือนก่อน +2

      Recomenda-se um sistema com pelo menos 8 GB de RAM e um processador multi-core moderno.

    • @RodrigoAdriano
      @RodrigoAdriano 6 หลายเดือนก่อน

      @@codigofontetv Então uma boa Placa de vídeo não é necessaria?

    • @fullcrum2089
      @fullcrum2089 6 หลายเดือนก่อน +1

      @@RodrigoAdriano Com uma placa de video vai ser bem mais rapido, mas consegue rodar só CPU.

    • @ramikanimperador2286
      @ramikanimperador2286 6 หลายเดือนก่อน +1

      @@RodrigoAdriano Com 8GB de RAM, um processador razoável e sem placa de vídeo da para rodar até os modelos de 7B, se forem quantizados em Q4_KM (praticamente perde a metade da precisão, ainda sim são bons dependendo do modelo original)ou seguirem os tamanhos médios dessas quantizações em torno de 2.4GB a 5GB (um pouco lento), passou desse tamanho de 5GB eu sei que exige mais memoria para rodar ou rodar bem. Se possuir uma boa placa de vídeo, teste em modelos um pouco maiores para ver como roda em sua maquina.

    • @RodrigoAdriano
      @RodrigoAdriano 6 หลายเดือนก่อน

      @@ramikanimperador2286 se eu quiser implementar um chat gpt interno pra vários usuários, cada usuário vai processar essa demanda, ou precisa de uma máquina central que processa todos ao mesmo tempo?

  • @nsouzarj
    @nsouzarj 6 หลายเดือนก่อน +1

    Bem bacana instalei aqui de boa minah ducida como faz pra ela ficar atualizada? Ja que nao tem conexao com a internet

  • @joseeduardobolisfortes
    @joseeduardobolisfortes 6 หลายเดือนก่อน

    Show! Qual a configuração de hardware do computador que você usou nesse teste? Quero montar um para mexer com IA em casa.

  • @melksedeklobo
    @melksedeklobo 5 หลายเดือนก่อน

    Poderia dizer quais a configurações da maquina em que foi rodada o Llama3?

  • @brunoavelar4456
    @brunoavelar4456 6 หลายเดือนก่อน

    Utilizo o LM Studio. É uma ótima ferramenta para fazer os testes em I.A. locais.

  • @sigmabrindes
    @sigmabrindes 6 หลายเดือนก่อน +1

    Primeiro consultei o link da #FIAPE, pois estou planejando realizar a transição de carreira e pela ementa constante no site é muito TOP, infelizmente está fora da minha realidade atual o valor cobrado. Sim, para quem pode vale muito a pena, porém para que não tenho como pagar, fica só minha vontade.
    Quanto ao assunto do vídeo, como sempre vocês trazendo conteúdo muito útil e ao ver algo assim, para mim que estou planejando aprender a programar minha mente fica "pipocando" de ideias, imagino para pessoas iguais a vocês dois que são "monstro" (no bom sentido, claro rs) em programação, as possibilidades são praticamente "infinita".
    Parabéns ao casal

    • @andreguimaraesdejesus
      @andreguimaraesdejesus 6 หลายเดือนก่อน

      Conheço uns monstrinhos em tecnologia... E todos eles são limitados a trabalhar no máááximo 12h dia. E por fim acabam sempre fazendo o que é mais confortável e que paga bem. Não se iluda com o mercado de tecnologia, é cansativo, demanda muito esforço físico e disciplina. Pra ter uma carreira duradoura na área é preciso realmente gostar de programar, ou gostar do resultado da programação. 😂

  • @danielss7245
    @danielss7245 25 วันที่ผ่านมา

    Pessoal, como funciona esse esquema de IA??Eu poderia pedir pra IA modelar ou criar um jogo com um programa que esta instalado no meu PC, por exemplo??

  • @wesleyocaraquecomentaeassi2037
    @wesleyocaraquecomentaeassi2037 6 หลายเดือนก่อน

    Eu estava usando era LM Studio e Anything LLM, uma beleza

  • @marciomartins4111
    @marciomartins4111 2 หลายเดือนก่อน

    Temos alguma solução que rode local e seja semelhante ao Github Copilot?

  • @thiagocosta7441
    @thiagocosta7441 6 หลายเดือนก่อน

    Já curti antes de acabar o vídeo! Obrigado 😊 vai ser muito útil🙏

  • @msiqueira553
    @msiqueira553 6 หลายเดือนก่อน +1

    follamac é um GUI pro ollama no linux que deixa bem mais pratico o uso.

  • @FabioMoraisTJ
    @FabioMoraisTJ 6 หลายเดือนก่อน +1

    Interessante o curso da FIAP, o duro é fazer um curso de 2000 horas , 2 anos , sendo que esse universo da IA muda drasticamente todo mês. Será que a matriz curricular vai se ajustar a essas mudanças?

  • @FRNathan13
    @FRNathan13 6 หลายเดือนก่อน +2

    Imagina se tiver uma IA que analiza assembly code, traduz pra C++ ou até mesmo porta pra outra linguagem. Ia facilitar minha vida com projetos pessoais de servidores de jogos privados (De jogos antigos que perderam serviço de multiplayer)

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน +2

      O gpt faz isso bem

    • @IamBryan_x1
      @IamBryan_x1 6 หลายเดือนก่อน

      ??? Isso e tranquilo cara, as IA ja fazem isso e so vc saber fazer prompt

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน

      @@IamBryan_x1 sei. É só passar escreva o código a seguir em x e você passa o contexto se necessário. As linguagens obrigatoriamente precisam fazer coisas parecidas porque se não não tem conversão

  • @rafaelafrico
    @rafaelafrico 6 หลายเดือนก่อน

    Casal Nerd Top, muito bom esse vídeo! Terá mais conteúdo relacionado a esse tema?

  • @sinvalfelisberto
    @sinvalfelisberto 6 หลายเดือนก่อน

    Cara, que massa! Vou fazer por aqui e dou o feedback de como foi!

    • @sinvalfelisberto
      @sinvalfelisberto 6 หลายเดือนก่อน

      Compartilhado no instagram! Muito massa mesmo!

  • @FlavioAugustoToldo
    @FlavioAugustoToldo 6 หลายเดือนก่อน

    tem como fazer essas IAs utilizar dados de um banco relarional para gerar informações?
    tipo eu poder pedir os clientes com maiores gastos no mes e ele me retornar uma tabela com isso?

  • @mendesar
    @mendesar 16 วันที่ผ่านมา

    Sou do RJ, tem uma opção boa para aprender IA?

  • @alexsanders8881
    @alexsanders8881 5 หลายเดือนก่อน

    Mestre, existe alguma IA que faça o reconhecimento de uma imagem, e, a partir dela, consiga descrever o que esta ali ou interpreta-la? Um exemplo disso seria o GPT4o quando enviamos uma imagem a ele e ele descreve exatamente o que está ali ou até mesmo a claude 3.5. Ou seja... Existe alguma deste tipo que podemos instalar em nosso PC de forma offline? Obrigado.

  • @andrecampanhaes
    @andrecampanhaes 6 หลายเดือนก่อน

    Gostaria de uma versão para instalar no meu smartphone e que rode offline, quais vcs me sugerem?

  • @douglasmarcelo8582
    @douglasmarcelo8582 6 หลายเดือนก่อน

    o meu não abre de jeito nenhum.
    como posso resolver isso?

  • @emersonpavao2985
    @emersonpavao2985 หลายเดือนก่อน

    Até agora não achei nenhum curso de IA generativa que realmente forme para o mercado de trabalho. Se alguém souber me avise por favor.

  • @otimistarj
    @otimistarj 6 หลายเดือนก่อน

    Qual sua avaliação do rasa?

  • @revolutionary_tower
    @revolutionary_tower 6 หลายเดือนก่อน

    Não consegui usar o ollama offline no Linux. Eu preciso ter outra instância do terminal rodando ollama serve pra poder interagir com os modelos.

  • @gilbertojuniosilva
    @gilbertojuniosilva 6 หลายเดือนก่อน

    Como as coissas mudam em, há 3 anos atras eu tirei a certificação AI -900 da microsoft e lembro que na epoca a mcrosoft já tinha diversas ferramentas de IA agora então deve estar cheia de novas funcionalidades.

  • @Fabricio-mq2uk
    @Fabricio-mq2uk 6 หลายเดือนก่อน

    Quando a comunicação for por voz, assim como vimos o chatgpt 4o fazer, seria bem mais interessante... não vejo a hora de montar uma alexa mais espertinha usando estas AIs de código aberto. Sei que é possível captar um audio usando um app de reconhecimento de voz e a partir dai elaborar um prompt... etc...

  • @dicolima33
    @dicolima33 2 หลายเดือนก่อน

    Dependendo da máquina ele roda lento... Se for um 486 como o meu ele escreve catando milho. Rsrsrs
    Mas ótimo o vídeo. Parabéns.

  • @AlianceGamesWorld
    @AlianceGamesWorld 5 หลายเดือนก่อน

    É interessante ter esse sistema offline. Pois não podemos depender sempre 100% da internet. Um dia isso tudo pode parar, ter uma dessas IA no PC é bem útil.

  • @nandomax3
    @nandomax3 6 หลายเดือนก่อน +94

    Universidade não tem papel de capacitação. Se quer ser capacitado pro mercado, faz uma graduação tecnóloga ou curso nas ferramentas. Fiz Eng mecânica e a gente forma sem saber mexer nas ferramentas de cad e fluidsim. É na prática que a gente aprende as ferramentas, fazendo curso e tal. Não sei porque o pessoal cisma que curso de ti tem que capacitar pro mercado hahaha

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน +14

      A faculdade deve capacitar, o problema é que o mec tá acomodado e não reve os currículos

    • @aurinoalexandrejr2045
      @aurinoalexandrejr2045 6 หลายเดือนก่อน +26

      Concordo plenamente. O papel da faculdade é nós dar o conhecimento para atuar na área, seja no mercado, seja na pesquisa, seja no ensino. Não é papel da faculdade ensinar ferramenta. O papel dela é ensinar o conhecimento por trás da ferramenta. Apesar disso as faculdades ainda disponibilizam diversas opções de cursos de extensão, além de workshops, e outros eventos onde algumas ferramentas são ensinadas. Agora, se os alunos não participam, aí já é outra história. 🤷🏽‍♂️

    • @nandomax3
      @nandomax3 6 หลายเดือนก่อน

      @@fabioa8059 faculdade ensina a base da área, quem capacita é curso de capacitação. A responsabilidade da faculdade nunca foi ensinar uma linguagem ou framework usado no mercado e nenhuma revisão do MEC vai mudar isso.
      A diferença é que na nossa área não é obrigatório ter um CREA, aí o pessoal fica achando que faculdade é bootcamp. Eu fiz engenharia mecânica e tem faculdade tipo a UFMG que é muito focada na teoria e tem faculdade tipo o CEFET MG que é muito focado na prática. Mas mesmo no CEFET teoria vem antes da prática.
      Aprender ferramenta você aprende nos laboratórios, nas empresas Jr, nos projetos de extensão, nos projetos voluntários, nas matérias optativas, nos cursos fora da faculdade. Sem falar no network que você faz com seus colegas, muita oportunidade aparece a partir dos amigos de faculdade. E no desenvolvimento de soft skills, como aprender a comunicar questões técnicas, cooperar em equipe, ser proativo na sua carreira, aprender a aprender

    • @nandomax3
      @nandomax3 6 หลายเดือนก่อน +6

      @@aurinoalexandrejr2045 exatamente, ainda tem as empresas Jr, estágio pra quem tem zero exp nas ferramentas e frameworks, curso de capacitação de aluno pra aluno, matérias optativas ensinando alguma coisa mais focada no mercado

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน +4

      @@aurinoalexandrejr2045 conhecimento por conhecimento é melhor fazer filosofia, acho importante a faculdade ensinar a base mas as ferramentas tem que estar no pacote também. Trabalhei com pascal e C na faculdade sao ferramentas mais antigas se fosse pra não ensinar ferramentas a galera ficava no assembly

  • @guibassss
    @guibassss 6 หลายเดือนก่อน +1

    Tem como treinar ela? Como faz?

    • @fullcrum2089
      @fullcrum2089 6 หลายเดือนก่อน

      Tem sim, tem varios frameworks/bibliotecas que fazem isso, procura por unsloth, ele é otimizado para usar a menor qntd de hardware possivel e tem tbm como rodar de graça no colab do google.

  • @tylergroove
    @tylergroove 6 หลายเดือนก่อน

    alguem sabe como criar apps para o sistema tyzen das tvs sansung???

  • @Crusader_No_Regret
    @Crusader_No_Regret 6 หลายเดือนก่อน

    Qual é o mais poderoso dos dois? Llama ou Phi3?

  • @RichSem
    @RichSem 6 หลายเดือนก่อน

    Vídeo sensacional!!!! Excelente conteúdo!

  • @ViniciusMathias
    @ViniciusMathias 6 หลายเดือนก่อน

    Muito bom o conteúdo. Conseguir usar a API no windows de ambas, só alterar de llama3 para phi3. E pelo menos aqui o phi3 é muito mais rápido que o llama3 .

    • @naoadiantasimular3498
      @naoadiantasimular3498 4 หลายเดือนก่อน

      Eu senti que o phi3 alucina muito, ocorreu com você?

    • @ViniciusMathias
      @ViniciusMathias 4 หลายเดือนก่อน

      @@naoadiantasimular3498 sim, atualmente estou fazendo meus teste com base no llama 3. Tem sido melhor.

  • @AlexCaranha
    @AlexCaranha 6 หลายเดือนก่อน +1

    Excelente vídeo. Parabéns.

  • @arturpaulobezerradacosta5796
    @arturpaulobezerradacosta5796 5 หลายเดือนก่อน

    não estou conseguindo instalar o phi3 da ollama, como fazer, alguem poderia me ajudar

  • @falercia
    @falercia 6 หลายเดือนก่อน

    Como eu treino esses modelos com meus códigos fontes, para responder no padrão que eles foram construídos?

  • @tokioshiguerra
    @tokioshiguerra 6 หลายเดือนก่อน

    Casal mais top do universo...

  • @johncampos9081
    @johncampos9081 6 หลายเดือนก่อน

    Eu testei o lliama 3 na época o Jeferson do Linux tips fez um tutorial de como fazer o uso dele, muito foda

  • @erickmagalhashazans
    @erickmagalhashazans 4 หลายเดือนก่อน

    Pra mim que sou empresário e consultor de refrigeração , é mais viável pagar 100 no gpt4o e ter uma praticidade, eu creio, alguem me valida nessa visão?

    • @FerbicSutter
      @FerbicSutter หลายเดือนก่อน +1

      Quase ao ponto. Apesar de não entender do seu ramo, suponhamos que você além de consultor, presta manutenção em aparelhos, câmaras frias, enfim. Não sei ao certo qual seu segmento da refrigeração. Mas digamos que tenha um método de trabalho de precisa repassar, tem documentações que precisam ser estudadas pra determinada situação. Buscar na internet ou em uma IA como o GPT pode parecer pratico, mas sabemos que está sujeito ao erro. Uma IA própria, capaz de retornar respostas com base em documentação que você já conhece a autenticidade é mais coerente. O vídeo apresenta o uso quase que como usuário final. Mas, a sacada está em enxergar o universo de oportunidades que isso abre.

  • @ComentadorBobson
    @ComentadorBobson 6 หลายเดือนก่อน +2

    Até hoje ainda não acredito que a FIAP foi adquirida pela Alura. Estou em negação até hoje.

  • @flaviofigueira1985
    @flaviofigueira1985 6 หลายเดือนก่อน

    Esse conteúdo é o máximo

  • @victormagnum2275
    @victormagnum2275 6 หลายเดือนก่อน +1

    Exceto pelo GPT que está à frente, a comunidade de devs está surpreendendo ao apresentar modelos de LLM quantizados mais poderosos que esses da META e da Microsoft.

  • @athacyrsouzaferreira3529
    @athacyrsouzaferreira3529 6 หลายเดือนก่อน

    Qual nome do modelo que tem mais de 120 gigas

  • @mellorafael
    @mellorafael 6 หลายเดือนก่อน

    Preciso necessariamente ter uma placa de video?

  • @SinfoniaMayor
    @SinfoniaMayor 6 หลายเดือนก่อน

    eu posso treinar eses chats com meus documentos pdf e word?

  • @douglasmarcelo8582
    @douglasmarcelo8582 6 หลายเดือนก่อน +1

    Para quem não tem um notebook com placa de video dedicada com menos de 16GB de ram é quase impossível de usar. Tenho um notebook com 16GB de RAM e é pouco para usar esse programa.

  • @alexcosme5760
    @alexcosme5760 6 หลายเดือนก่อน

    Muito bom a aula parabens

  • @VictorHugoMalheiro
    @VictorHugoMalheiro 6 หลายเดือนก่อน

    Vcs são feras 😮🎉❤

  • @OmarsCode
    @OmarsCode 6 หลายเดือนก่อน

    Como instalar no windows, pelo PowerShell

  • @GeovaniBritox
    @GeovaniBritox 6 หลายเดือนก่อน +1

    Isso é fantástico! Eu já tinha tentando rodar modelos de LLM usando o LM_Studio mas o desempenho foi bem ruim no meu computador fraco. Com o Ollama o desempenho é bem natural como qualquer outro programa.
    Quero ver se algum dia as IAs de geração de imagens vão chegar também a esse nível de desempenho otimizado rodando tudo localmente sem precisar de hardware robusto. Se alguém souber de algum projeto nesse sentido, eu adoraria conhecer.
    Valeu pelo vídeo! O Código Fonte TV é uma das minhas fontes de informação mais importantes na área de TI.

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน

      Difícil, até pra trabalhar com imagens sem ia tem que ter PC top

    • @GeovaniBritox
      @GeovaniBritox 6 หลายเดือนก่อน

      É, @@fabioa8059. Eu também acho difícil. Imagens tem uma complexidade a mais. Porém, vamos lembrar que a pelo menos dez anos atrás a gente acharia loucura rodar IAs desse tipo em computadores desktop. Então com a evolução dos computadores e dos algoritmos de IA, acho que um dia a gente ainda chega em modelos mais otimizados de geração de imagens com o hardware modesto. Não espero que isso aconteça nos próximos meses, embora essa área sempre nos surpreenda.

    • @fabioa8059
      @fabioa8059 6 หลายเดือนก่อน

      @@GeovaniBritox vai uns 30 anos fácil. Desde sempre o cara precisa de uma máquina colossal pra editar foto ou vídeo

    • @GeovaniBritox
      @GeovaniBritox 6 หลายเดือนก่อน

      @@fabioa8059 pode até demorar, mas acho que não chega a trinta anos. Uma coisa que já notei é que quando uma tecnologia avança ela parece avançar cada vez mais rápido com o passar do tempo. A gente sabe que as primeiras pesquisas de IA surgiram lá nos anos 1950. Na década de 2000 eu já lia muito por aí sobre IAs. Mas era sempre algo que parecia distante do nosso dai a dia. Nos últimos cinco anos é que as IAs deram saltos enormes ao ponto da gente já usa-las naturalmente até para diversão. Saímos a poucos anos atrás com IAs criando imagens distorcidas para imagens praticamente realistas. Mas toda a pesquisa por trás já tem décadas. A gente só estava precisando de hardware mais potente e algoritmos mais rápidos para o boom acontecer. Então acho difícil que as coisas daqui em diante comecem a ficar mais lentas.

  • @swansongBR
    @swansongBR 6 หลายเดือนก่อน

    Mas em todas as IAs você precisa ser específico naquilo que você quer. I.e., quanto mais específico você for melhor será a resposta dela.

  • @aleffelperibeirovilalba
    @aleffelperibeirovilalba 6 หลายเดือนก่อน

    Eu penso os outros modelos de small Language model, os futuros de 3.8B ser superior ao GPT3.5 e inferior ao GPT4 como 70% ao GPT4,
    Como phi-4-mini pelo praticidade mesmo de smartphone Samsung A14 não necessário de s19

  • @IgorNya
    @IgorNya 6 หลายเดือนก่อน

    Imagina agora que vou ter um dell g15, com 16gb de RAM DDR5, vou aproveitar bastante, se for realmente veloz e inteligente

  • @FRNathan13
    @FRNathan13 6 หลายเดือนก่อน +1

    Gente estou espantado, o phi3 mini está rodando no meu PC fraco sem me dar tela azul. Adorei. Claro que o uso de CPU vai pra 99% enquanto está gerando a resposta, mas funciona. Alguns outros que testei demoravam quase em média de 5 minutos pra gerar uma resposta. O Phi3 mini está gerando em tempo real.

  • @vpdev7574
    @vpdev7574 6 หลายเดือนก่อน

    Dica: Ao invés de apenas links dos Ads, poderia colocar os também links uteis abordados no video direto na descrição.

  • @nelljrbr
    @nelljrbr 6 หลายเดือนก่อน +6

    O youtube deveria ter uma maneira dar o like 👍 mais do que uma vez , pois seria o caso para um video tao util como este. Valeu !

  • @suelitonsantos2763
    @suelitonsantos2763 6 หลายเดือนก่อน +1

    Isso ao meu ver se torna improdutivo, nada como clicar no "copy code" e colar no VSCode, inclusive criei uma extensão do chrome pra com um clique trazer todos os códigos diretamente para a pasta de desenvolvimento, sem falar no custo computacional que torna inviável em alguns casos....

  • @GuilhermeHenrique-fp1wo
    @GuilhermeHenrique-fp1wo 6 หลายเดือนก่อน

    Conteúdo muito top!

  • @AlanDeveloperz
    @AlanDeveloperz 5 หลายเดือนก่อน +1

    Como seria possível alimentar esse assistente?
    Fazer com que ele aprenda um tópico específico