Cara seu vídeo é simplesmente incrível você explicou algo complexo de forma simples compreensível e prática parabéns pelo material e que venha muita audiência para seu canal
Algumas startups tem utilizado LLMs, especialmente GPT, para desenvolvimento de produtos de P&D. Como é o caso recente de estar utilizando para construção de melhores baterias. Você pode abordar isso em um próximo vídeo? Aplicação em P&D e o processo de treinamento?
@@inteligenciamilgrau Tenho sim o link dessa notícia. Procurei alguns papers para tentar replicar, ou entender, mas não consegui encontrar. Poderia trazer vídeos de aplicações em P&D? Gostaria de tentar aplicar a engenharia elétrica. (fui censurado por postar o link rsrs)
Parabéns, melhor conteúdo sobre questões conceituais das AI. Tenho usado Gemini para gerar variáveis qualitativas para meus bancos de dados a partir de análises de imagens. Uma percepção minha que as IA são especialmente eficientes no treinamento com imagens se comparado a modelos estatísticos complexos. Seria isso uma característica específica do uso de GPU no processamento dos treinamentos?
A performance pode ser até melhor em um modelo matemático do que com IA, porém o tempo de desenvolvimento é muito mais alto indo pela modelagem matemática! Por essa razão, basicamente todo mundo migrou para IA para processar imagens! O uso da GPU não explica muita coisa, porque a estatística, se ela for paralelizável, dá para fazer na GPU também! Dependendo do programa de reconhecimento de padrões ou imagens, por exemplo, reconhecimento de digitais, dá para fazer sem IA e conseguir performances melhores!! E conseguir explicar o porque da performance!! É que hoje quase não se fala mais disso, mas nos bastidores isso ainda acontece! Valeuuuuuuuuu
Ou seja pra diminuir o custo de treinar uma LLM, seria melhores placas, e um ecosistema bom, um jeito que penso seriam, energias reutilizaveis, como energia solar, ou termoeletrica gerada pelo calor das placas de vídeos.
òtimo video amigo, parabens. Amigo mudando de assunto, eu ja tentei de tudo para configurar meu tensorflow para utilizar a GPU, fiz todos os processos e não consegui, por favor pode me ajudar? Eu utilizo o Python 3.11.9, Tensorflow2.15.0 O meu torch reconhece a minha GPU, mas nenhuma versao do Tensorflow consegue reconhecer. Ja intaltei varias Cuda e cudnn e nada.
Valeuuuuuuuu Caíque!! Eu concordo, tensorflow é um pouquinho mais complexo quando não dá certo!! Eu recomendo criar um ambiente separado só para ele. Instala de novo e qualquer coisa dá uma olhada nesse passo a passo: saturncloud.io/blog/what-to-do-when-tensorflow-is-not-detecting-your-gpu/
@@inteligenciamilgrau Obrigado pelo apoio amigo, pode me ajudar com uma outra abordagem? Comecei recebendo um erro em um script e não consigo resolve-lo.
Faz fez os três passos básicos? 1) Jogou no chatgpt? 2) Joga=ou no google? 3) E se só achar solução inglês, ligou o tradutor de página? rsrs Depois disso se ainda tiver dando erro, pode mandar que se eu souber, ajudo!!
Acredito que uma llm Caseira, que fosse perfeita, seria antietica, no caso, não respeitaria a lei do copyright e utilizaria dados com copyright livros e afins.
A OpenAI e as pesquisas em geral estão tentando criar um modelo que aprende sem precisar usar dados da web!! Igual a gente que aprende a pensar sem precisar ler todo conteúdo da web!! Se isso acontecer, vai ser um grande avanço!! Valeuuuuuuuuuuu
Exatamente!! Deep Learning é uma rede neural profunda, isso significa que tem muitas camadas!! Quando a gente usa deep learning para reconhecimento de imagens, ela tem muitas camadas de matrizes de pixels!! Quando a gente fala de LLMs, elas tem muitas camadas de Transformers, que chamamos de "multi-headed attention"!! De forma resumida, são redes neurais cheias de camadas! Valeuuuuuuuuuuuu
Como sempre, um excelente vídeo e esclarecimentos!!! Valeu!!!
Faaaaaala Augusto!! Fico feliz que tenha gostado!! Valeuuuuuuuuuuu
Cara seu vídeo é simplesmente incrível você explicou algo complexo de forma simples compreensível e prática parabéns pelo material e que venha muita audiência para seu canal
Valeuuuuu
melhor vídeo explicando IA que encontrei na internet até agora, simplesmente sensacional
Valeuuuuuuuu, feliz demais em ler este comentário!!
Obrigado pelo vídeo, meu caro Zacarias ❤
kkkkkkk Uuuuuu huhuhu!!! Valeeeeeeeeeeeeeeeeuuuuuuuuuuuu!! Saudoso Zaca! rsrsrsrs
Muito bom Bob, parabéns!!!
Aeeeee Hugo!!! Obrigadão demais!!!
Rapaz, conteúdo muito bom, além de saudosista zaca era engraçado abesa 😂😂❤❤
kkkkkkkkkkkkkkkkkkk valeuuuuuuuuu
Bob é muito fera, videoZasso 👏🏼👏🏼👏🏼
Valeeeeeeeeu Alannnnnnnn!! Fico feliz demais em saber que gostou!!!!
Excelente, Gurizão!
Aeeeeeee Patraique!! Valeuuuuuuuuuuuuuuuuu
Parabéns!
Valeuuuu Henrique, obrigadão
Algumas startups tem utilizado LLMs, especialmente GPT, para desenvolvimento de produtos de P&D. Como é o caso recente de estar utilizando para construção de melhores baterias.
Você pode abordar isso em um próximo vídeo? Aplicação em P&D e o processo de treinamento?
Faaaaaala Caio!! Obrigado pelo contribuição!! Tem o link dessa notícia?
@@inteligenciamilgrau Tenho sim o link dessa notícia. Procurei alguns papers para tentar replicar, ou entender, mas não consegui encontrar. Poderia trazer vídeos de aplicações em P&D? Gostaria de tentar aplicar a engenharia elétrica. (fui censurado por postar o link rsrs)
Manda pelo insta! rsrs
@@inteligenciamilgrau enviado
Parabéns, melhor conteúdo sobre questões conceituais das AI. Tenho usado Gemini para gerar variáveis qualitativas para meus bancos de dados a partir de análises de imagens. Uma percepção minha que as IA são especialmente eficientes no treinamento com imagens se comparado a modelos estatísticos complexos. Seria isso uma característica específica do uso de GPU no processamento dos treinamentos?
A performance pode ser até melhor em um modelo matemático do que com IA, porém o tempo de desenvolvimento é muito mais alto indo pela modelagem matemática! Por essa razão, basicamente todo mundo migrou para IA para processar imagens! O uso da GPU não explica muita coisa, porque a estatística, se ela for paralelizável, dá para fazer na GPU também! Dependendo do programa de reconhecimento de padrões ou imagens, por exemplo, reconhecimento de digitais, dá para fazer sem IA e conseguir performances melhores!! E conseguir explicar o porque da performance!! É que hoje quase não se fala mais disso, mas nos bastidores isso ainda acontece! Valeuuuuuuuuu
Muito bom!!!
Aeeeeeeee Ramses valeuuuuuuuuuuuuuuuu!!!!
Interessante, por isso não ouvi sobre o gpt 1 ou 2, ou 3, mas sim o 3,5 quando foi para o publico.
Pois é!! Quando chegou a gente já de calça curta!! rsrs
Parabéns pelo conteúdo, você pretende falar mais sobre IA generativa no canal, ou até uma implementação com python?
Faaaala Renato!! Com certeza!! Esse é o foco agora!! Fico feliz que tenha perguntado!!
mega didatico e coeso. mto bom (y)
Valeeeeeeeeu Lukine!! Obrigadãooooooooooo!!
Cara pior que to tao na neura por ia que nao sei se o vídeo é uma ia 😂😂😂
Excelente conteudo!
Kkkkkkkkkkkkkkkkkkkkkkkkkkk Acho que em menos de um ano quem vai apresentar vai ser uma IA!! Minha voz clonada já trollou um monte de gente! rsrs
Ou seja pra diminuir o custo de treinar uma LLM, seria melhores placas, e um ecosistema bom, um jeito que penso seriam, energias reutilizaveis, como energia solar, ou termoeletrica gerada pelo calor das placas de vídeos.
Isso seria uma baita ideia!!! Essa questão energética certeza que vai virar pauta de muito governo!!
Exato, no caso, a maldade humana com i.a, não chegou nem nos 1% sendo que as melhores são guardadas a 7 chaves
Certezaaaaa!! A gente só conhece as "verdades" que dizem no jornal! rsrs
òtimo video amigo, parabens. Amigo mudando de assunto, eu ja tentei de tudo para configurar meu tensorflow para utilizar a GPU, fiz todos os processos e não consegui, por favor pode me ajudar? Eu utilizo o Python 3.11.9, Tensorflow2.15.0
O meu torch reconhece a minha GPU, mas nenhuma versao do Tensorflow consegue reconhecer. Ja intaltei varias Cuda e cudnn e nada.
Valeuuuuuuuu Caíque!! Eu concordo, tensorflow é um pouquinho mais complexo quando não dá certo!! Eu recomendo criar um ambiente separado só para ele. Instala de novo e qualquer coisa dá uma olhada nesse passo a passo:
saturncloud.io/blog/what-to-do-when-tensorflow-is-not-detecting-your-gpu/
@@inteligenciamilgrau Obrigado pelo apoio amigo, pode me ajudar com uma outra abordagem? Comecei recebendo um erro em um script e não consigo resolve-lo.
Faz fez os três passos básicos? 1) Jogou no chatgpt? 2) Joga=ou no google? 3) E se só achar solução inglês, ligou o tradutor de página? rsrs Depois disso se ainda tiver dando erro, pode mandar que se eu souber, ajudo!!
@@inteligenciamilgrau estou tentando passar meu e-mail ou contato por aqui, mas o TH-cam apaga imediatamente
@@inteligenciamilgrau mandei mensagem no seu direct do insta.
Acredito que uma llm Caseira, que fosse perfeita, seria antietica, no caso, não respeitaria a lei do copyright e utilizaria dados com copyright livros e afins.
A OpenAI e as pesquisas em geral estão tentando criar um modelo que aprende sem precisar usar dados da web!! Igual a gente que aprende a pensar sem precisar ler todo conteúdo da web!! Se isso acontecer, vai ser um grande avanço!! Valeuuuuuuuuuuu
LLM tem o mesmo conceito de Deep Learning, só muda a nomenclatura?
Exatamente!! Deep Learning é uma rede neural profunda, isso significa que tem muitas camadas!! Quando a gente usa deep learning para reconhecimento de imagens, ela tem muitas camadas de matrizes de pixels!! Quando a gente fala de LLMs, elas tem muitas camadas de Transformers, que chamamos de "multi-headed attention"!! De forma resumida, são redes neurais cheias de camadas! Valeuuuuuuuuuuuu
Seja o que vai acontecer no futuro, vamos ter que pagar para ver! kkk
rsrs O futuro vem vindo galopando!
@@inteligenciamilgrau , concordo! Acho que é melhor agirmos como ele sendo agora!