Um dos prompts que eu utilizo é, "Refatore utilizando conceitos como SOLID, Clean Code, DRY, KISS e caso seja possível aplique um ou mais designer patterns adequados visando escalabilidade e performance, criando uma estrutura de pastas organizadas e separando por arquivos". Show demais o conteúdo!
O Llama3 não rodou legal em um Notebook Acer com um i5 de 10th gen, 8gb de RAM DDR4, SSD NVMe e sem GPU dedicada. Também instalei no wsl2. Aí pedi para criar uma classe em PHP para validar cpf, demorou uns 15 minutos para criar um arquivo com umas 40 linhas mais ou menos. Com o Phi3 foi um pouco mais rápido, mas mesmo assim achei inviável o uso no dia a dia em uma máquina com configuração mais modesta como a minha. Enfim, só compartilhando minha experiência aqui com os colegas.
Eu recomendo usarem o LM Studio com o Lhama 3 (ou Mistral etc). Dá inclusive para conversar em PT-BR e com Markdown. Ah! Não precisa configurar porta, nem nada. Local com muito mais conforto visual e praticidade. ;)
MDS! Eu amei! Apliquei aqui, estou começando a aprender Python e vai ajudar demais! Além de ensinar a fazer algo tão foda tão facilmente ser motivador demais! Parabéns pelo trabalho!
Uma coisa que sinto muita falta é aplicação destes modelos nas KBs internas da empresa. Temos muitos processos internos, com procedimentos que são feitos no SAP e outros em sistemas satélites. Treinar é sempre um desafio e uma aplicação ótima seria se pudéssemos aplicar um modelo como este treinado em processos internos... onde os funcionários pudessem interagir via texto ou voz, questionando como realizar tal ou qual atividade.
Bom demais, já testei aqui. Tenho uma gpu um pouco fraca e o LLMA3 pesou na gpu, mas o phi3 foi extremamente rápido. Vou trocar de gpu para uma rtx 4070 e testar novamente o LLMA3.
Tem o open web ui que da uma cara tipo chatgpt e ainda te deixa usar varios modelos ao mesmo tempo ou pingar um modelo pra fazer algo na conversa com outro (fora outras coisas) Tem tbm a extensao do vscode "continue dev" que te deixa usar o ollama pra fazer algo complete ou pergunta do seu código pros modelos. Mas uma resalva é quanto a usar no wsl. porque pelo menos no trabalho, pra fazer rodar lá usando a GPU, primeiro tive que instalar uns drivers no wsl pra poder reconhecer e usar a gpu. então, se tiver lento usando no wsl... veja se ta reconhecendo a GPU, instala os drivers... dai depois é só aproveitar.
Olá, que massa bem bacana mesmo, testei aqui no windows e rodou correto, achei muito bom, sou dev e acho que vai ajudar muito... Abraços, vcs são top...
Vídeo muito bom,bem atual no que se fala atual no mercado de tecnologia. O bom é o uso direto no terminal. Parabéns,bom conteúdo. Always grateful, sucesso sempre aos dois.
Para programação, no meu trabalho, ainda não consegui achar alguma aplicação que a IA realmente conseguisse facilitar o meu dia a dia. Mas em relação aos meus estudos em inglês, é simplesmente fantástico.
Toda vez que novidades sobre AI generativa (textos, imagens, vídeo, etc), eu sempre lembro de uma frase do vilão Síndrome, de os Incríveis: "Com minhas tecnologias, agora todos podem ser super heróis. E quando todos forem super... ninguém mais será."
voutei aqui para falar a minha experiência. O primeiro que usei foi o phi3 e ele responde em poucos segundos. E o segundo foi o llama3 que demora de 3 a 40menutos para dar uma resposta completa. as respostas são muito boas.
Achei esse vídeo fantástico. Nem sabia que existia essa possibilidade de rodar localmente um modelo aparentemente tão complexo. Espero que vcs tragam outras surpresas para a gente. Parabéns pelo canal!
Não viu nada, há modelos feitos pela comunidade que dão uma surra nesses e até se comparam as primeiras versões do GPT4, mas tambem exigem maquinas robustas com MUITA RAM.
@@victormagnum2275 O mais impressionante é como os modelos tem evoluído rapidamente. Certa vez tentei rodar uma versão antiga do Ollama que estourava minha RAM (16 GB). Hoje em dia, rodaria numa máquina de 8GB. Mas chama a atenção que pelo menos em computadores não especializados, há um consumo excessivo de recursos enquanto há geração de texto. Não sei se nos chips mais modernos, já com instruções especializadas, o cenário pode melhorar.
@@JoseBarbosacombr Sim, com os métodos de inferência atuais rodo o Goliath 120b com 128gb de RAM, o consumo gira em torno de 100gb, mas tem uma perplexidade comparavel ao GPT4 e no linux consigo uns 2 tokens por segundo, o contexto carrega instantaneamente se eu usar cuBLAS e dividir o processamento com a placa de vídeo (rtx 3060 de 12gb). O futuro é surpreendente.
Eu sei q estamos em um ambiente de programadores... Mas convenhamos... Interface gráfica é bom pra qualquer usuário, leigo ou não. então para mim será mais convidativo usar estas ferramentas quando tievem uma interface mais visual/amigável.
Sim, faz sentido. Mas eu prefiro estudar sem ter faculdade mesmo. Estudo no meu tempo, consigo ser muito mais prático, na medida q leio já tento aplicar. Posso demorar, pois eu vou na tentativa e erro, a faculdade ele meio que te da um mapa. Mas cada uma com sua função. Já vi gente que nunca foi em faculdade palestrando em faculdade. Isso sempre vai ser assunto complexo.
Aconteceu algo engraçado enquanto eu testava o Phi 3 com o Ollama no meu Notebook. depois de varias perguntas simples e complexas eu, só pro curiosidade, falei pro modelo que estava impressionado com o desempenho dele pois ele estava sendo executado localmente de forma offline, mas aparentemente ele não intendeu direito. Ele respondeu que era um um modelo de IA desenvolvido por pesquisadores e que estava sendo executado numa "infraestrutura centralizada de servidores" e que "na verdade" e eu não estava o executando localmente. Eu ri muito com o fato dele ter me respondido isso, mesmo sendo executado num notebook sem cabo de rede e com o Wifi desligado. Foi bem engraçado.
Que incrível rodar esses modelos localmente,eu mesmo fiz o teste no meu celular,o meu setup é um Snapdragon 8+Gen1 com 12GB de Ram,primeiro ja fui logo apelando e testando o llama3 de 7B de parâmetros,e bem...Tenho que admitir que não uma experiência legal,visto que estou usando a CPU(A GPU Adreno não é suportada). Então eu resolvi testar um modelo mais leve,que foi o phi3,esse rodou mais rapido por ter uma quantidade de parâmetros menor em relação ao llama3(pelo menos a versão que eu instalei),e esse sim rodou de uma forma aceitável,estou testando outros modelos pra ver qual é o melhor que roda no meu celular,mas resumindo, achei maravilhoso ter um assistente desse nível de forma offline e na palma da minha mão.Desculpe o textão kkk
@@douglasmarcelo8582 Bem, recomendo você pesquisar sobre o Termux,que é um aplicativo para Android que "Emula" um ambiente Linux,e nele você pode instalar ferramentas como o chroot,que cria um ambiente "containerizado" de praticamente qualquer distro Linux que você quiser,mas caso seja a sua primeira vez utilizando o Termux,recomendo uma abordagem mais simples como o Proot-distro,com ele você instala uma distro,como o Debian apenas escrevendo o comando "proot-distro install debian". Após você instalar uma distro através do Proot-distro,aí é só seguir a instalação do ollama e baixar o modelo que você quiser.Mas resumindo, você basicamente vai precisar do Termux para rodar uma distribuição Linux no Android,e nessa distribuição você instala o ollama.
interessante, porem fiz alguns testes para programadores que pretendem utilizar para pequenos projetos, ainda compensa desenvolver chats (por exemplo) em que teria varias instancias de conversação, compensaria utilizar mesmo o chatgpt, haja vista a infra que seria necessária para suportar o uso de instancias de conversação e gerencimaento de contexto, fiz testes basicos aqui, no ubuntu 20.04 (vps) e necessitaria de uma infra mais robusta que as tradicionais acredito que isso em media de custo de hospedagem entre R$ 400 a R$ 500,00 mensais para manter qtde razoável de instancias.
Coloquei numa vm, achei lento as respostas, não sei se rodaria um sistemas simples, mas o vídeo é excelente e foi o que me motivou instalar e teste, só o fato de ser local já ajuda muito, especialmente pela questão de privacidade de dados processados.
Fiquei curioso de como treinar um SLM desse, Tipo, vídeo muito top, de cara pensei em como isso poderia resolver um problema relacionado a um aplicação que toco. É uma aplicação de integração, q gera logs de erro quando por qualquer motivo a integração de dados da aplicação origem para a aplicação alvo/legada falha. Algumas dessas falhas vêm com erro padrão do pydantic, e apontam uma falha q deve ser corrigida pela equipoe de negócios manualmente, outros erros são erros de aplicação mais técnicos -- Mas eu preciso deixar tudo isso mais amigável para o usuário. Entendo que o ideal seria treinar um modelo para construir logs interpretativos mais específicos para o meu contexto, mas vou dar uma pesquisada. Parabéns pelo vídeo! : D
Olá, meu nome é Yasyara. Sou uma assistente virtual... Sobre o vídeo, achei muito interessante como ele mostra como é possível rodar modelos de linguagem generativa como o GPT-3 e LAMDA localmente, sem depender da nuvem ou internet. Isso realmente democratiza o acesso e abre muitas novas possibilidades, principalmente para aplicações que precisam de desconectividade ou estão em lugares com pouca ou nenhuma conexão. Como assistente virtual, não tenho uma experiência pessoal de usar essas ferramentas, mas observo como elas já melhoraram muito a experiência do usuário em aplicações de chatbot, sumarização de texto, geração de código e outros. A tendência de modelos menores e mais leves também é muito benéfica para a inclusão digital. Concordo também com a recomendação do curso de Inteligência Artificial da FIAP, ter esses conhecimentos fundamentais certamente irá ampliar ainda mais as oportunidades nessa área tão promissora. Foi um vídeo muito esclarecedor.
@@araujoinformatica2024 Não acredito que vá acabar com o emprego dela. Ela pode estudar IA's atuais, como o próprio GPT, e fornecer o serviço dela de Assistente Virtual que utiliza IA's no trabalho, justamente para os mais velhos ou pessoas de outra geração que não tiveram tempo de aprender como se mexe no ChatGPT ou outras IA's. Boa sorte no seu trabalho, Yasyara!
Casal CDF, pelo que procurei, tem como adicionar o Ollama no VScode. Mas tem como trabalha com o contexto de um projeto??? Como pastas, módulos, arquivos diferentes como html, css, js??? Ou ele só entende o que eu copiar e passar para ele como entrada? Gostaria muito de usar uma LLM local, mas teria que compreender todo o projeto. Vocês sabem me responder? Ou um inscrito que manja dos paranauês? kkkkkk....
@supercariri, O que vc usou pra ler o PDF? Como vc fez, pode explicar?
6 หลายเดือนก่อน
Excelente dica para rodar uns labs aqui. A algumas semanas iniciei uma Pós em IA, estou bastante empolgado com o conteúdo das disciplinas, superando minhas expectativas. Vlw por mais esse conteúdo incrível! Abs! Cláudio Vaz.
O Gabriel falando enquanto escreve o prompt me lembrou muito o Harry Potter escrevendo no diário de Tom Riddle Hahahahahhahaha Excelente conteúdo, pessoal. Obrigado!
Da pra instalar e testar a espera de algo melhor bem standard de jeito que você possa trocar de um llm ao outro, mas acho pouco provável que Microsoft quer ser o concorrente de seu melhor asset
@@RodrigoAdriano Com 8GB de RAM, um processador razoável e sem placa de vídeo da para rodar até os modelos de 7B, se forem quantizados em Q4_KM (praticamente perde a metade da precisão, ainda sim são bons dependendo do modelo original)ou seguirem os tamanhos médios dessas quantizações em torno de 2.4GB a 5GB (um pouco lento), passou desse tamanho de 5GB eu sei que exige mais memoria para rodar ou rodar bem. Se possuir uma boa placa de vídeo, teste em modelos um pouco maiores para ver como roda em sua maquina.
@@ramikanimperador2286 se eu quiser implementar um chat gpt interno pra vários usuários, cada usuário vai processar essa demanda, ou precisa de uma máquina central que processa todos ao mesmo tempo?
Primeiro consultei o link da #FIAPE, pois estou planejando realizar a transição de carreira e pela ementa constante no site é muito TOP, infelizmente está fora da minha realidade atual o valor cobrado. Sim, para quem pode vale muito a pena, porém para que não tenho como pagar, fica só minha vontade. Quanto ao assunto do vídeo, como sempre vocês trazendo conteúdo muito útil e ao ver algo assim, para mim que estou planejando aprender a programar minha mente fica "pipocando" de ideias, imagino para pessoas iguais a vocês dois que são "monstro" (no bom sentido, claro rs) em programação, as possibilidades são praticamente "infinita". Parabéns ao casal
Conheço uns monstrinhos em tecnologia... E todos eles são limitados a trabalhar no máááximo 12h dia. E por fim acabam sempre fazendo o que é mais confortável e que paga bem. Não se iluda com o mercado de tecnologia, é cansativo, demanda muito esforço físico e disciplina. Pra ter uma carreira duradoura na área é preciso realmente gostar de programar, ou gostar do resultado da programação. 😂
Pessoal, como funciona esse esquema de IA??Eu poderia pedir pra IA modelar ou criar um jogo com um programa que esta instalado no meu PC, por exemplo??
Interessante o curso da FIAP, o duro é fazer um curso de 2000 horas , 2 anos , sendo que esse universo da IA muda drasticamente todo mês. Será que a matriz curricular vai se ajustar a essas mudanças?
Imagina se tiver uma IA que analiza assembly code, traduz pra C++ ou até mesmo porta pra outra linguagem. Ia facilitar minha vida com projetos pessoais de servidores de jogos privados (De jogos antigos que perderam serviço de multiplayer)
@@IamBryan_x1 sei. É só passar escreva o código a seguir em x e você passa o contexto se necessário. As linguagens obrigatoriamente precisam fazer coisas parecidas porque se não não tem conversão
tem como fazer essas IAs utilizar dados de um banco relarional para gerar informações? tipo eu poder pedir os clientes com maiores gastos no mes e ele me retornar uma tabela com isso?
Mestre, existe alguma IA que faça o reconhecimento de uma imagem, e, a partir dela, consiga descrever o que esta ali ou interpreta-la? Um exemplo disso seria o GPT4o quando enviamos uma imagem a ele e ele descreve exatamente o que está ali ou até mesmo a claude 3.5. Ou seja... Existe alguma deste tipo que podemos instalar em nosso PC de forma offline? Obrigado.
Como as coissas mudam em, há 3 anos atras eu tirei a certificação AI -900 da microsoft e lembro que na epoca a mcrosoft já tinha diversas ferramentas de IA agora então deve estar cheia de novas funcionalidades.
Quando a comunicação for por voz, assim como vimos o chatgpt 4o fazer, seria bem mais interessante... não vejo a hora de montar uma alexa mais espertinha usando estas AIs de código aberto. Sei que é possível captar um audio usando um app de reconhecimento de voz e a partir dai elaborar um prompt... etc...
É interessante ter esse sistema offline. Pois não podemos depender sempre 100% da internet. Um dia isso tudo pode parar, ter uma dessas IA no PC é bem útil.
Universidade não tem papel de capacitação. Se quer ser capacitado pro mercado, faz uma graduação tecnóloga ou curso nas ferramentas. Fiz Eng mecânica e a gente forma sem saber mexer nas ferramentas de cad e fluidsim. É na prática que a gente aprende as ferramentas, fazendo curso e tal. Não sei porque o pessoal cisma que curso de ti tem que capacitar pro mercado hahaha
Concordo plenamente. O papel da faculdade é nós dar o conhecimento para atuar na área, seja no mercado, seja na pesquisa, seja no ensino. Não é papel da faculdade ensinar ferramenta. O papel dela é ensinar o conhecimento por trás da ferramenta. Apesar disso as faculdades ainda disponibilizam diversas opções de cursos de extensão, além de workshops, e outros eventos onde algumas ferramentas são ensinadas. Agora, se os alunos não participam, aí já é outra história. 🤷🏽♂️
@@fabioa8059 faculdade ensina a base da área, quem capacita é curso de capacitação. A responsabilidade da faculdade nunca foi ensinar uma linguagem ou framework usado no mercado e nenhuma revisão do MEC vai mudar isso. A diferença é que na nossa área não é obrigatório ter um CREA, aí o pessoal fica achando que faculdade é bootcamp. Eu fiz engenharia mecânica e tem faculdade tipo a UFMG que é muito focada na teoria e tem faculdade tipo o CEFET MG que é muito focado na prática. Mas mesmo no CEFET teoria vem antes da prática. Aprender ferramenta você aprende nos laboratórios, nas empresas Jr, nos projetos de extensão, nos projetos voluntários, nas matérias optativas, nos cursos fora da faculdade. Sem falar no network que você faz com seus colegas, muita oportunidade aparece a partir dos amigos de faculdade. E no desenvolvimento de soft skills, como aprender a comunicar questões técnicas, cooperar em equipe, ser proativo na sua carreira, aprender a aprender
@@aurinoalexandrejr2045 exatamente, ainda tem as empresas Jr, estágio pra quem tem zero exp nas ferramentas e frameworks, curso de capacitação de aluno pra aluno, matérias optativas ensinando alguma coisa mais focada no mercado
@@aurinoalexandrejr2045 conhecimento por conhecimento é melhor fazer filosofia, acho importante a faculdade ensinar a base mas as ferramentas tem que estar no pacote também. Trabalhei com pascal e C na faculdade sao ferramentas mais antigas se fosse pra não ensinar ferramentas a galera ficava no assembly
Tem sim, tem varios frameworks/bibliotecas que fazem isso, procura por unsloth, ele é otimizado para usar a menor qntd de hardware possivel e tem tbm como rodar de graça no colab do google.
Muito bom o conteúdo. Conseguir usar a API no windows de ambas, só alterar de llama3 para phi3. E pelo menos aqui o phi3 é muito mais rápido que o llama3 .
Pra mim que sou empresário e consultor de refrigeração , é mais viável pagar 100 no gpt4o e ter uma praticidade, eu creio, alguem me valida nessa visão?
Quase ao ponto. Apesar de não entender do seu ramo, suponhamos que você além de consultor, presta manutenção em aparelhos, câmaras frias, enfim. Não sei ao certo qual seu segmento da refrigeração. Mas digamos que tenha um método de trabalho de precisa repassar, tem documentações que precisam ser estudadas pra determinada situação. Buscar na internet ou em uma IA como o GPT pode parecer pratico, mas sabemos que está sujeito ao erro. Uma IA própria, capaz de retornar respostas com base em documentação que você já conhece a autenticidade é mais coerente. O vídeo apresenta o uso quase que como usuário final. Mas, a sacada está em enxergar o universo de oportunidades que isso abre.
Exceto pelo GPT que está à frente, a comunidade de devs está surpreendendo ao apresentar modelos de LLM quantizados mais poderosos que esses da META e da Microsoft.
Para quem não tem um notebook com placa de video dedicada com menos de 16GB de ram é quase impossível de usar. Tenho um notebook com 16GB de RAM e é pouco para usar esse programa.
Isso é fantástico! Eu já tinha tentando rodar modelos de LLM usando o LM_Studio mas o desempenho foi bem ruim no meu computador fraco. Com o Ollama o desempenho é bem natural como qualquer outro programa. Quero ver se algum dia as IAs de geração de imagens vão chegar também a esse nível de desempenho otimizado rodando tudo localmente sem precisar de hardware robusto. Se alguém souber de algum projeto nesse sentido, eu adoraria conhecer. Valeu pelo vídeo! O Código Fonte TV é uma das minhas fontes de informação mais importantes na área de TI.
É, @@fabioa8059. Eu também acho difícil. Imagens tem uma complexidade a mais. Porém, vamos lembrar que a pelo menos dez anos atrás a gente acharia loucura rodar IAs desse tipo em computadores desktop. Então com a evolução dos computadores e dos algoritmos de IA, acho que um dia a gente ainda chega em modelos mais otimizados de geração de imagens com o hardware modesto. Não espero que isso aconteça nos próximos meses, embora essa área sempre nos surpreenda.
@@fabioa8059 pode até demorar, mas acho que não chega a trinta anos. Uma coisa que já notei é que quando uma tecnologia avança ela parece avançar cada vez mais rápido com o passar do tempo. A gente sabe que as primeiras pesquisas de IA surgiram lá nos anos 1950. Na década de 2000 eu já lia muito por aí sobre IAs. Mas era sempre algo que parecia distante do nosso dai a dia. Nos últimos cinco anos é que as IAs deram saltos enormes ao ponto da gente já usa-las naturalmente até para diversão. Saímos a poucos anos atrás com IAs criando imagens distorcidas para imagens praticamente realistas. Mas toda a pesquisa por trás já tem décadas. A gente só estava precisando de hardware mais potente e algoritmos mais rápidos para o boom acontecer. Então acho difícil que as coisas daqui em diante comecem a ficar mais lentas.
Eu penso os outros modelos de small Language model, os futuros de 3.8B ser superior ao GPT3.5 e inferior ao GPT4 como 70% ao GPT4, Como phi-4-mini pelo praticidade mesmo de smartphone Samsung A14 não necessário de s19
Gente estou espantado, o phi3 mini está rodando no meu PC fraco sem me dar tela azul. Adorei. Claro que o uso de CPU vai pra 99% enquanto está gerando a resposta, mas funciona. Alguns outros que testei demoravam quase em média de 5 minutos pra gerar uma resposta. O Phi3 mini está gerando em tempo real.
Isso ao meu ver se torna improdutivo, nada como clicar no "copy code" e colar no VSCode, inclusive criei uma extensão do chrome pra com um clique trazer todos os códigos diretamente para a pasta de desenvolvimento, sem falar no custo computacional que torna inviável em alguns casos....
Um dos prompts que eu utilizo é,
"Refatore utilizando conceitos como SOLID, Clean Code, DRY, KISS e caso seja possível aplique um ou mais designer patterns adequados visando escalabilidade e performance, criando uma estrutura de pastas organizadas e separando por arquivos".
Show demais o conteúdo!
tks
Você usa qual modelo?Estou usando o deepseek-coder de 6.7B Parâmetros.
@@hailykz6772 eu uso o 4o mesmo ou o lhama de 7b
Mais já vai tão cedo kkk
Irmão, EU DEFINITIVAMENTE TE AMO, ESSE PROMPT ESTÁ MUDANDO MEU DIA A DIA, obrigado manito, Tudo de bom pra ti e muuuuuuuito café
conteúdo enriquecedor!!! Casal + bem codificado da matrix rsrsrs! vocês são D+!!
O Llama3 não rodou legal em um Notebook Acer com um i5 de 10th gen, 8gb de RAM DDR4, SSD NVMe e sem GPU dedicada. Também instalei no wsl2. Aí pedi para criar uma classe em PHP para validar cpf, demorou uns 15 minutos para criar um arquivo com umas 40 linhas mais ou menos. Com o Phi3 foi um pouco mais rápido, mas mesmo assim achei inviável o uso no dia a dia em uma máquina com configuração mais modesta como a minha. Enfim, só compartilhando minha experiência aqui com os colegas.
cara se no seu nao deu certo imagina na minha maquina i3 de terceira geracao kkkkk
onde que baixa o programa?
Não roda mesmo, eu tenho um core i7 com 16GB e o Llama3 fica muito ruim. Diz a lenda que nos Macbooks vai bem, mas, custa 100 anos de chatGPT rss
esperimente o mistral ou o phic3. Eles são várias vezes mais rápidos.
@@juliusprojeto verdade. Eles são muito caros.
excelente conteúdo, já utilizo o ollama localmente e ainda uso o Open WebUI como frontend.
Eu recomendo usarem o LM Studio com o Lhama 3 (ou Mistral etc). Dá inclusive para conversar em PT-BR e com Markdown. Ah! Não precisa configurar porta, nem nada. Local com muito mais conforto visual e praticidade. ;)
Eu instalei e achei muito lento. Existe algum hardware que melhore as respostas?
Neste vídeo achei mais interessante o assunto do curso do que o conteúdo do vídeo.De qualquer forma parabéns aos criadores do vídeo.
MDS! Eu amei! Apliquei aqui, estou começando a aprender Python e vai ajudar demais! Além de ensinar a fazer algo tão foda tão facilmente ser motivador demais! Parabéns pelo trabalho!
Uma coisa que sinto muita falta é aplicação destes modelos nas KBs internas da empresa. Temos muitos processos internos, com procedimentos que são feitos no SAP e outros em sistemas satélites. Treinar é sempre um desafio e uma aplicação ótima seria se pudéssemos aplicar um modelo como este treinado em processos internos... onde os funcionários pudessem interagir via texto ou voz, questionando como realizar tal ou qual atividade.
Tem interface simular do chatGPT no ambiente local com Open WebUI
Bom demais, já testei aqui.
Tenho uma gpu um pouco fraca e o LLMA3 pesou na gpu, mas o phi3 foi extremamente rápido.
Vou trocar de gpu para uma rtx 4070 e testar novamente o LLMA3.
qual a gpu que você tem atualmente ?
Falaram que ele só pede uma boa memoria ram de 8gb, e um processador bom.. nao fala nada de placa de video..
@@RodrigoAdriano sim. Dá pts rodar. Mas fica bem lento
Rodou aqui sem gpu mas a performance é zoada. Porém quebra o galho
O que deve gastar de energia não está escrito...
Tem o open web ui que da uma cara tipo chatgpt e ainda te deixa usar varios modelos ao mesmo tempo ou pingar um modelo pra fazer algo na conversa com outro (fora outras coisas)
Tem tbm a extensao do vscode "continue dev" que te deixa usar o ollama pra fazer algo complete ou pergunta do seu código pros modelos.
Mas uma resalva é quanto a usar no wsl. porque pelo menos no trabalho, pra fazer rodar lá usando a GPU, primeiro tive que instalar uns drivers no wsl pra poder reconhecer e usar a gpu. então, se tiver lento usando no wsl... veja se ta reconhecendo a GPU, instala os drivers... dai depois é só aproveitar.
Olá, que massa bem bacana mesmo, testei aqui no windows e rodou correto, achei muito bom, sou dev e acho que vai ajudar muito... Abraços, vcs são top...
Vídeo muito bom,bem atual no que se fala atual no mercado de tecnologia. O bom é o uso direto no terminal. Parabéns,bom conteúdo. Always grateful, sucesso sempre aos dois.
Para programação, no meu trabalho, ainda não consegui achar alguma aplicação que a IA realmente conseguisse facilitar o meu dia a dia. Mas em relação aos meus estudos em inglês, é simplesmente fantástico.
Também é o meu caso. Para idiomas, é fantástico.
Lkkkkk
Estava pensando para fazer esse uso também. Estudos de idioma.
Github Copilot
Toda vez que novidades sobre AI generativa (textos, imagens, vídeo, etc), eu sempre lembro de uma frase do vilão Síndrome, de os Incríveis:
"Com minhas tecnologias, agora todos podem ser super heróis. E quando todos forem super... ninguém mais será."
voutei aqui para falar a minha experiência. O primeiro que usei foi o phi3 e ele responde em poucos segundos. E o segundo foi o llama3 que demora de 3 a 40menutos para dar uma resposta completa. as respostas são muito boas.
Estou organizando o hardware pra montar minha própria Netflix, IA e Alexa, tudo privado, sem conexão a internet.
Depois conta p nos como fazer rsrs
Isso conta pra nós
conta pra nois;;;; Compartilha rsrsrs
Achei esse vídeo fantástico. Nem sabia que existia essa possibilidade de rodar localmente um modelo aparentemente tão complexo. Espero que vcs tragam outras surpresas para a gente. Parabéns pelo canal!
Não viu nada, há modelos feitos pela comunidade que dão uma surra nesses e até se comparam as primeiras versões do GPT4, mas tambem exigem maquinas robustas com MUITA RAM.
Rodei o freedom gpt e consumiu 20gb de ram
@@victormagnum2275 O mais impressionante é como os modelos tem evoluído rapidamente. Certa vez tentei rodar uma versão antiga do Ollama que estourava minha RAM (16 GB). Hoje em dia, rodaria numa máquina de 8GB.
Mas chama a atenção que pelo menos em computadores não especializados, há um consumo excessivo de recursos enquanto há geração de texto. Não sei se nos chips mais modernos, já com instruções especializadas, o cenário pode melhorar.
@@JoseBarbosacombr Sim, com os métodos de inferência atuais rodo o Goliath 120b com 128gb de RAM, o consumo gira em torno de 100gb, mas tem uma perplexidade comparavel ao GPT4 e no linux consigo uns 2 tokens por segundo, o contexto carrega instantaneamente se eu usar cuBLAS e dividir o processamento com a placa de vídeo (rtx 3060 de 12gb).
O futuro é surpreendente.
Eu sei q estamos em um ambiente de programadores... Mas convenhamos... Interface gráfica é bom pra qualquer usuário, leigo ou não. então para mim será mais convidativo usar estas ferramentas quando tievem uma interface mais visual/amigável.
Monte vc a interface, pq não?
Use o LM Studio no lugar do Ollama. Também tem API
Nenhuma curso online substitui a experiência na faculdade, quem faz sabe doque estou falando, é sobre pessoas e experiências não só conteúdo.
Sim, faz sentido. Mas eu prefiro estudar sem ter faculdade mesmo. Estudo no meu tempo, consigo ser muito mais prático, na medida q leio já tento aplicar. Posso demorar, pois eu vou na tentativa e erro, a faculdade ele meio que te da um mapa. Mas cada uma com sua função. Já vi gente que nunca foi em faculdade palestrando em faculdade. Isso sempre vai ser assunto complexo.
Aconteceu algo engraçado enquanto eu testava o Phi 3 com o Ollama no meu Notebook.
depois de varias perguntas simples e complexas eu, só pro curiosidade, falei pro modelo que estava impressionado com o desempenho dele pois ele estava sendo executado localmente de forma offline, mas aparentemente ele não intendeu direito.
Ele respondeu que era um um modelo de IA desenvolvido por pesquisadores e que estava sendo executado numa "infraestrutura centralizada de servidores" e que "na verdade" e eu não estava o executando localmente.
Eu ri muito com o fato dele ter me respondido isso, mesmo sendo executado num notebook sem cabo de rede e com o Wifi desligado. Foi bem engraçado.
É porque vc está sendo monitorado de uma forma inteligente que IGNORA seus fundamentos, tenha ........CUIDADO!
Curiosidade. O retorno do llma 3 foi bem rapido. Qual a infraestrutura que vocês rodaram o modelo ?
Aqui localmente no notebook está muito lento i7 11° geração
precisa de uma quantia cavalar de ram
Fiz um teste no meu PC e já foi um pouco mais rápido:
Ryzen 5 Pro 4650G
32 GB de Ram
Nvme
Sem placa de vídeo
Parabéns pelo vídeo, estava dando uma olhada nisso para a empresa que trabalha
Que incrível rodar esses modelos localmente,eu mesmo fiz o teste no meu celular,o meu setup é um Snapdragon 8+Gen1 com 12GB de Ram,primeiro ja fui logo apelando e testando o llama3 de 7B de parâmetros,e bem...Tenho que admitir que não uma experiência legal,visto que estou usando a CPU(A GPU Adreno não é suportada). Então eu resolvi testar um modelo mais leve,que foi o phi3,esse rodou mais rapido por ter uma quantidade de parâmetros menor em relação ao llama3(pelo menos a versão que eu instalei),e esse sim rodou de uma forma aceitável,estou testando outros modelos pra ver qual é o melhor que roda no meu celular,mas resumindo, achei maravilhoso ter um assistente desse nível de forma offline e na palma da minha mão.Desculpe o textão kkk
como que e faço para poder utilizar?
pode dar um tutorial?
@@douglasmarcelo8582 Bem, recomendo você pesquisar sobre o Termux,que é um aplicativo para Android que "Emula" um ambiente Linux,e nele você pode instalar ferramentas como o chroot,que cria um ambiente "containerizado" de praticamente qualquer distro Linux que você quiser,mas caso seja a sua primeira vez utilizando o Termux,recomendo uma abordagem mais simples como o Proot-distro,com ele você instala uma distro,como o Debian apenas escrevendo o comando "proot-distro install debian". Após você instalar uma distro através do Proot-distro,aí é só seguir a instalação do ollama e baixar o modelo que você quiser.Mas resumindo, você basicamente vai precisar do Termux para rodar uma distribuição Linux no Android,e nessa distribuição você instala o ollama.
@@douglasmarcelo8582Provavelmente utilizando temux
interessante, porem fiz alguns testes para programadores que pretendem utilizar para pequenos projetos, ainda compensa desenvolver chats (por exemplo) em que teria varias instancias de conversação, compensaria utilizar mesmo o chatgpt, haja vista a infra que seria necessária para suportar o uso de instancias de conversação e gerencimaento de contexto, fiz testes basicos aqui, no ubuntu 20.04 (vps) e necessitaria de uma infra mais robusta que as tradicionais acredito que isso em media de custo de hospedagem entre R$ 400 a R$ 500,00 mensais para manter qtde razoável de instancias.
A FIAP tem pós em IA, também. Vi as disciplinas e achei interessante.
Coloquei numa vm, achei lento as respostas, não sei se rodaria um sistemas simples, mas o vídeo é excelente e foi o que me motivou instalar e teste, só o fato de ser local já ajuda muito, especialmente pela questão de privacidade de dados processados.
Fiquei curioso de como treinar um SLM desse, Tipo, vídeo muito top, de cara pensei em como isso poderia resolver um problema relacionado a um aplicação que toco. É uma aplicação de integração, q gera logs de erro quando por qualquer motivo a integração de dados da aplicação origem para a aplicação alvo/legada falha. Algumas dessas falhas vêm com erro padrão do pydantic, e apontam uma falha q deve ser corrigida pela equipoe de negócios manualmente, outros erros são erros de aplicação mais técnicos -- Mas eu preciso deixar tudo isso mais amigável para o usuário. Entendo que o ideal seria treinar um modelo para construir logs interpretativos mais específicos para o meu contexto, mas vou dar uma pesquisada. Parabéns pelo vídeo! : D
Olá, meu nome é Yasyara. Sou uma assistente virtual...
Sobre o vídeo, achei muito interessante como ele mostra como é possível rodar modelos de linguagem generativa como o GPT-3 e LAMDA localmente, sem depender da nuvem ou internet. Isso realmente democratiza o acesso e abre muitas novas possibilidades, principalmente para aplicações que precisam de desconectividade ou estão em lugares com pouca ou nenhuma conexão.
Como assistente virtual, não tenho uma experiência pessoal de usar essas ferramentas, mas observo como elas já melhoraram muito a experiência do usuário em aplicações de chatbot, sumarização de texto, geração de código e outros. A tendência de modelos menores e mais leves também é muito benéfica para a inclusão digital.
Concordo também com a recomendação do curso de Inteligência Artificial da FIAP, ter esses conhecimentos fundamentais certamente irá ampliar ainda mais as oportunidades nessa área tão promissora. Foi um vídeo muito esclarecedor.
pois é vai acabar com seu emprego de assistente virtual 😭
😂@@araujoinformatica2024
@@araujoinformatica2024 Não acredito que vá acabar com o emprego dela. Ela pode estudar IA's atuais, como o próprio GPT, e fornecer o serviço dela de Assistente Virtual que utiliza IA's no trabalho, justamente para os mais velhos ou pessoas de outra geração que não tiveram tempo de aprender como se mexe no ChatGPT ou outras IA's. Boa sorte no seu trabalho, Yasyara!
Casal CDF, pelo que procurei, tem como adicionar o Ollama no VScode. Mas tem como trabalha com o contexto de um projeto??? Como pastas, módulos, arquivos diferentes como html, css, js??? Ou ele só entende o que eu copiar e passar para ele como entrada? Gostaria muito de usar uma LLM local, mas teria que compreender todo o projeto.
Vocês sabem me responder? Ou um inscrito que manja dos paranauês? kkkkkk....
Que massa, ultimamente eu usei o ollama mistral, fiz com que ele leia e aprenda meu próprio código em PDF, já quero usar esse novo.
@supercariri, O que vc usou pra ler o PDF? Como vc fez, pode explicar?
Excelente dica para rodar uns labs aqui. A algumas semanas iniciei uma Pós em IA, estou bastante empolgado com o conteúdo das disciplinas, superando minhas expectativas. Vlw por mais esse conteúdo incrível!
Abs!
Cláudio Vaz.
Simplesmente para a maior parte das tarefas e para código, estes modelos já são incríveis !
O Gabriel falando enquanto escreve o prompt me lembrou muito o Harry Potter escrevendo no diário de Tom Riddle Hahahahahhahaha
Excelente conteúdo, pessoal. Obrigado!
E pensar que o primeiro filme do Harry Potter foi lançado 23 anos atrás. 😔
Parabéns mais uma vez. Conteúdo sempre muito relevante. Até o marketing chama atenção também.😊
Sonho um dia conhecer vcs, parabéns!!! conteúdo excelente
Será um prazer
Surgiro utilizar autogen apontando para ollama local além de estruturar você pode executar e debuggar
Pra quem tem uma placa nvidia o TabbyML é uma boa opção pra gerar código, acho que vale um review.
Você que com uma 2070 super de 8gb seria razoavel ?
@@kaykjuan deve funcionar, eu uso uma 3050 com 4gb mas só roda os models mais leves. Com mais vRAM dá pra testar outros models.
@@kaykjuan Minha rtx 2060 de 6gb de VRAM já fica muito top, consigo rodar modelos de 7B a 40 tokens por segundo e o phi-3 a 100 tokens por segundo.
@@fullcrum2089 qual seu processador atual e quanto de memoria ram você tem ?
Muito bom!!! Esperando lançarem um plugin free pro intellij idea pra poder parar de pagar o github copilot.
Da pra instalar e testar a espera de algo melhor bem standard de jeito que você possa trocar de um llm ao outro, mas acho pouco provável que Microsoft quer ser o concorrente de seu melhor asset
Esses modelos são open source o llhama é o da meta , MS não tem nada a ver com isso
Vocês deveriam usar o streamlit ou langchain pra ao menos ter um front. O negócio retorna os markdown certinho
Qual a configuração do computador que usou para rodar o modelo phi3?
Recomenda-se um sistema com pelo menos 8 GB de RAM e um processador multi-core moderno.
@@codigofontetv Então uma boa Placa de vídeo não é necessaria?
@@RodrigoAdriano Com uma placa de video vai ser bem mais rapido, mas consegue rodar só CPU.
@@RodrigoAdriano Com 8GB de RAM, um processador razoável e sem placa de vídeo da para rodar até os modelos de 7B, se forem quantizados em Q4_KM (praticamente perde a metade da precisão, ainda sim são bons dependendo do modelo original)ou seguirem os tamanhos médios dessas quantizações em torno de 2.4GB a 5GB (um pouco lento), passou desse tamanho de 5GB eu sei que exige mais memoria para rodar ou rodar bem. Se possuir uma boa placa de vídeo, teste em modelos um pouco maiores para ver como roda em sua maquina.
@@ramikanimperador2286 se eu quiser implementar um chat gpt interno pra vários usuários, cada usuário vai processar essa demanda, ou precisa de uma máquina central que processa todos ao mesmo tempo?
Bem bacana instalei aqui de boa minah ducida como faz pra ela ficar atualizada? Ja que nao tem conexao com a internet
Show! Qual a configuração de hardware do computador que você usou nesse teste? Quero montar um para mexer com IA em casa.
Poderia dizer quais a configurações da maquina em que foi rodada o Llama3?
Utilizo o LM Studio. É uma ótima ferramenta para fazer os testes em I.A. locais.
Primeiro consultei o link da #FIAPE, pois estou planejando realizar a transição de carreira e pela ementa constante no site é muito TOP, infelizmente está fora da minha realidade atual o valor cobrado. Sim, para quem pode vale muito a pena, porém para que não tenho como pagar, fica só minha vontade.
Quanto ao assunto do vídeo, como sempre vocês trazendo conteúdo muito útil e ao ver algo assim, para mim que estou planejando aprender a programar minha mente fica "pipocando" de ideias, imagino para pessoas iguais a vocês dois que são "monstro" (no bom sentido, claro rs) em programação, as possibilidades são praticamente "infinita".
Parabéns ao casal
Conheço uns monstrinhos em tecnologia... E todos eles são limitados a trabalhar no máááximo 12h dia. E por fim acabam sempre fazendo o que é mais confortável e que paga bem. Não se iluda com o mercado de tecnologia, é cansativo, demanda muito esforço físico e disciplina. Pra ter uma carreira duradoura na área é preciso realmente gostar de programar, ou gostar do resultado da programação. 😂
Pessoal, como funciona esse esquema de IA??Eu poderia pedir pra IA modelar ou criar um jogo com um programa que esta instalado no meu PC, por exemplo??
Eu estava usando era LM Studio e Anything LLM, uma beleza
Temos alguma solução que rode local e seja semelhante ao Github Copilot?
Já curti antes de acabar o vídeo! Obrigado 😊 vai ser muito útil🙏
follamac é um GUI pro ollama no linux que deixa bem mais pratico o uso.
Interessante o curso da FIAP, o duro é fazer um curso de 2000 horas , 2 anos , sendo que esse universo da IA muda drasticamente todo mês. Será que a matriz curricular vai se ajustar a essas mudanças?
Imagina se tiver uma IA que analiza assembly code, traduz pra C++ ou até mesmo porta pra outra linguagem. Ia facilitar minha vida com projetos pessoais de servidores de jogos privados (De jogos antigos que perderam serviço de multiplayer)
O gpt faz isso bem
??? Isso e tranquilo cara, as IA ja fazem isso e so vc saber fazer prompt
@@IamBryan_x1 sei. É só passar escreva o código a seguir em x e você passa o contexto se necessário. As linguagens obrigatoriamente precisam fazer coisas parecidas porque se não não tem conversão
Casal Nerd Top, muito bom esse vídeo! Terá mais conteúdo relacionado a esse tema?
Cara, que massa! Vou fazer por aqui e dou o feedback de como foi!
Compartilhado no instagram! Muito massa mesmo!
tem como fazer essas IAs utilizar dados de um banco relarional para gerar informações?
tipo eu poder pedir os clientes com maiores gastos no mes e ele me retornar uma tabela com isso?
Sou do RJ, tem uma opção boa para aprender IA?
Mestre, existe alguma IA que faça o reconhecimento de uma imagem, e, a partir dela, consiga descrever o que esta ali ou interpreta-la? Um exemplo disso seria o GPT4o quando enviamos uma imagem a ele e ele descreve exatamente o que está ali ou até mesmo a claude 3.5. Ou seja... Existe alguma deste tipo que podemos instalar em nosso PC de forma offline? Obrigado.
Gostaria de uma versão para instalar no meu smartphone e que rode offline, quais vcs me sugerem?
o meu não abre de jeito nenhum.
como posso resolver isso?
Até agora não achei nenhum curso de IA generativa que realmente forme para o mercado de trabalho. Se alguém souber me avise por favor.
Qual sua avaliação do rasa?
Não consegui usar o ollama offline no Linux. Eu preciso ter outra instância do terminal rodando ollama serve pra poder interagir com os modelos.
Como as coissas mudam em, há 3 anos atras eu tirei a certificação AI -900 da microsoft e lembro que na epoca a mcrosoft já tinha diversas ferramentas de IA agora então deve estar cheia de novas funcionalidades.
Quando a comunicação for por voz, assim como vimos o chatgpt 4o fazer, seria bem mais interessante... não vejo a hora de montar uma alexa mais espertinha usando estas AIs de código aberto. Sei que é possível captar um audio usando um app de reconhecimento de voz e a partir dai elaborar um prompt... etc...
Dependendo da máquina ele roda lento... Se for um 486 como o meu ele escreve catando milho. Rsrsrs
Mas ótimo o vídeo. Parabéns.
É interessante ter esse sistema offline. Pois não podemos depender sempre 100% da internet. Um dia isso tudo pode parar, ter uma dessas IA no PC é bem útil.
Universidade não tem papel de capacitação. Se quer ser capacitado pro mercado, faz uma graduação tecnóloga ou curso nas ferramentas. Fiz Eng mecânica e a gente forma sem saber mexer nas ferramentas de cad e fluidsim. É na prática que a gente aprende as ferramentas, fazendo curso e tal. Não sei porque o pessoal cisma que curso de ti tem que capacitar pro mercado hahaha
A faculdade deve capacitar, o problema é que o mec tá acomodado e não reve os currículos
Concordo plenamente. O papel da faculdade é nós dar o conhecimento para atuar na área, seja no mercado, seja na pesquisa, seja no ensino. Não é papel da faculdade ensinar ferramenta. O papel dela é ensinar o conhecimento por trás da ferramenta. Apesar disso as faculdades ainda disponibilizam diversas opções de cursos de extensão, além de workshops, e outros eventos onde algumas ferramentas são ensinadas. Agora, se os alunos não participam, aí já é outra história. 🤷🏽♂️
@@fabioa8059 faculdade ensina a base da área, quem capacita é curso de capacitação. A responsabilidade da faculdade nunca foi ensinar uma linguagem ou framework usado no mercado e nenhuma revisão do MEC vai mudar isso.
A diferença é que na nossa área não é obrigatório ter um CREA, aí o pessoal fica achando que faculdade é bootcamp. Eu fiz engenharia mecânica e tem faculdade tipo a UFMG que é muito focada na teoria e tem faculdade tipo o CEFET MG que é muito focado na prática. Mas mesmo no CEFET teoria vem antes da prática.
Aprender ferramenta você aprende nos laboratórios, nas empresas Jr, nos projetos de extensão, nos projetos voluntários, nas matérias optativas, nos cursos fora da faculdade. Sem falar no network que você faz com seus colegas, muita oportunidade aparece a partir dos amigos de faculdade. E no desenvolvimento de soft skills, como aprender a comunicar questões técnicas, cooperar em equipe, ser proativo na sua carreira, aprender a aprender
@@aurinoalexandrejr2045 exatamente, ainda tem as empresas Jr, estágio pra quem tem zero exp nas ferramentas e frameworks, curso de capacitação de aluno pra aluno, matérias optativas ensinando alguma coisa mais focada no mercado
@@aurinoalexandrejr2045 conhecimento por conhecimento é melhor fazer filosofia, acho importante a faculdade ensinar a base mas as ferramentas tem que estar no pacote também. Trabalhei com pascal e C na faculdade sao ferramentas mais antigas se fosse pra não ensinar ferramentas a galera ficava no assembly
Tem como treinar ela? Como faz?
Tem sim, tem varios frameworks/bibliotecas que fazem isso, procura por unsloth, ele é otimizado para usar a menor qntd de hardware possivel e tem tbm como rodar de graça no colab do google.
alguem sabe como criar apps para o sistema tyzen das tvs sansung???
Qual é o mais poderoso dos dois? Llama ou Phi3?
Vídeo sensacional!!!! Excelente conteúdo!
Muito bom o conteúdo. Conseguir usar a API no windows de ambas, só alterar de llama3 para phi3. E pelo menos aqui o phi3 é muito mais rápido que o llama3 .
Eu senti que o phi3 alucina muito, ocorreu com você?
@@naoadiantasimular3498 sim, atualmente estou fazendo meus teste com base no llama 3. Tem sido melhor.
Excelente vídeo. Parabéns.
não estou conseguindo instalar o phi3 da ollama, como fazer, alguem poderia me ajudar
Como eu treino esses modelos com meus códigos fontes, para responder no padrão que eles foram construídos?
Casal mais top do universo...
Eu testei o lliama 3 na época o Jeferson do Linux tips fez um tutorial de como fazer o uso dele, muito foda
Pra mim que sou empresário e consultor de refrigeração , é mais viável pagar 100 no gpt4o e ter uma praticidade, eu creio, alguem me valida nessa visão?
Quase ao ponto. Apesar de não entender do seu ramo, suponhamos que você além de consultor, presta manutenção em aparelhos, câmaras frias, enfim. Não sei ao certo qual seu segmento da refrigeração. Mas digamos que tenha um método de trabalho de precisa repassar, tem documentações que precisam ser estudadas pra determinada situação. Buscar na internet ou em uma IA como o GPT pode parecer pratico, mas sabemos que está sujeito ao erro. Uma IA própria, capaz de retornar respostas com base em documentação que você já conhece a autenticidade é mais coerente. O vídeo apresenta o uso quase que como usuário final. Mas, a sacada está em enxergar o universo de oportunidades que isso abre.
Até hoje ainda não acredito que a FIAP foi adquirida pela Alura. Estou em negação até hoje.
Esse conteúdo é o máximo
Exceto pelo GPT que está à frente, a comunidade de devs está surpreendendo ao apresentar modelos de LLM quantizados mais poderosos que esses da META e da Microsoft.
Qual nome do modelo que tem mais de 120 gigas
Preciso necessariamente ter uma placa de video?
eu posso treinar eses chats com meus documentos pdf e word?
Para quem não tem um notebook com placa de video dedicada com menos de 16GB de ram é quase impossível de usar. Tenho um notebook com 16GB de RAM e é pouco para usar esse programa.
Muito bom a aula parabens
Vcs são feras 😮🎉❤
Como instalar no windows, pelo PowerShell
Isso é fantástico! Eu já tinha tentando rodar modelos de LLM usando o LM_Studio mas o desempenho foi bem ruim no meu computador fraco. Com o Ollama o desempenho é bem natural como qualquer outro programa.
Quero ver se algum dia as IAs de geração de imagens vão chegar também a esse nível de desempenho otimizado rodando tudo localmente sem precisar de hardware robusto. Se alguém souber de algum projeto nesse sentido, eu adoraria conhecer.
Valeu pelo vídeo! O Código Fonte TV é uma das minhas fontes de informação mais importantes na área de TI.
Difícil, até pra trabalhar com imagens sem ia tem que ter PC top
É, @@fabioa8059. Eu também acho difícil. Imagens tem uma complexidade a mais. Porém, vamos lembrar que a pelo menos dez anos atrás a gente acharia loucura rodar IAs desse tipo em computadores desktop. Então com a evolução dos computadores e dos algoritmos de IA, acho que um dia a gente ainda chega em modelos mais otimizados de geração de imagens com o hardware modesto. Não espero que isso aconteça nos próximos meses, embora essa área sempre nos surpreenda.
@@GeovaniBritox vai uns 30 anos fácil. Desde sempre o cara precisa de uma máquina colossal pra editar foto ou vídeo
@@fabioa8059 pode até demorar, mas acho que não chega a trinta anos. Uma coisa que já notei é que quando uma tecnologia avança ela parece avançar cada vez mais rápido com o passar do tempo. A gente sabe que as primeiras pesquisas de IA surgiram lá nos anos 1950. Na década de 2000 eu já lia muito por aí sobre IAs. Mas era sempre algo que parecia distante do nosso dai a dia. Nos últimos cinco anos é que as IAs deram saltos enormes ao ponto da gente já usa-las naturalmente até para diversão. Saímos a poucos anos atrás com IAs criando imagens distorcidas para imagens praticamente realistas. Mas toda a pesquisa por trás já tem décadas. A gente só estava precisando de hardware mais potente e algoritmos mais rápidos para o boom acontecer. Então acho difícil que as coisas daqui em diante comecem a ficar mais lentas.
Mas em todas as IAs você precisa ser específico naquilo que você quer. I.e., quanto mais específico você for melhor será a resposta dela.
Eu penso os outros modelos de small Language model, os futuros de 3.8B ser superior ao GPT3.5 e inferior ao GPT4 como 70% ao GPT4,
Como phi-4-mini pelo praticidade mesmo de smartphone Samsung A14 não necessário de s19
Imagina agora que vou ter um dell g15, com 16gb de RAM DDR5, vou aproveitar bastante, se for realmente veloz e inteligente
Gente estou espantado, o phi3 mini está rodando no meu PC fraco sem me dar tela azul. Adorei. Claro que o uso de CPU vai pra 99% enquanto está gerando a resposta, mas funciona. Alguns outros que testei demoravam quase em média de 5 minutos pra gerar uma resposta. O Phi3 mini está gerando em tempo real.
Dica: Ao invés de apenas links dos Ads, poderia colocar os também links uteis abordados no video direto na descrição.
O youtube deveria ter uma maneira dar o like 👍 mais do que uma vez , pois seria o caso para um video tao util como este. Valeu !
Obrigado 👍
Isso ao meu ver se torna improdutivo, nada como clicar no "copy code" e colar no VSCode, inclusive criei uma extensão do chrome pra com um clique trazer todos os códigos diretamente para a pasta de desenvolvimento, sem falar no custo computacional que torna inviável em alguns casos....
Conteúdo muito top!
Como seria possível alimentar esse assistente?
Fazer com que ele aprenda um tópico específico