Extremamente preciso nas colocações, acredito que a engenharia de prompt como você bem mencionou pode maximizar muito o ganho de resultado, quanto mais a gente detalha e utiliza parâmetros mais afunilado fica e consequentemente o volume de dados e processamentos está mais "enquadrado". Ótimo conteúdo!!
Muito legal o conteúdo. Poderia fazer um vídeo de como utilizar o Llama3 usando como fonte arquivos locais, para responder perguntas utilizando o conteúdo criado dentro do seu Second Brain como os arquivos/pastas em MD do Obsidian do video do método Zettelkasten
@@AsimovAcademy Também estou interessado. Achei um vídeo perdido, de um asiático, que demonstrou isso através de um plugin menos conhecido do Obsidian.
Ótimo conteúdo! Acredito que além da engenharia de prompt, a depender do objetivo, técnicas de RAG e fine-tuning também são muito bem-vindas. Conseguindo associar isso tudo com essas técnicas de reasoning de agentes + acesso a funções, aí é 10/10 no cenário atual. Parabéns por trazer essas informações e citar o Ng e os talks da Sequoia, esses talks abriram muito minha mente pra testar novas abordagens.
Rapaz...esse vídeo não se tratou de quem concordou ou não concordou com vc...mas a clareza do tema, embora exista uma nuvem todavia ao entorno do destino das IA's...o fato é que apesar de, voce nos trouxe uma reflexão sobre o futuro das tomadas de decisão e o futuro das abordagens e metodologias na programação, na metanoya definitiva sobre o que iremos fazer e com quais ferramentas faremos...Te parabenizo por essa, tão feliz, reflexão e abordagem...Já me inscrevi no canal...rsrs
Esqueci de dizer tambem; que a Engenharia de Prompt é a Anamnese completa para um diagnóstico perfeito e returns ainda melhores. Console.log em todo o roteiro dos prompts...rs
Pensei que iria demorar essa "minificação" de modelos, mas tá acontecendo rápido demais e é inevitável esse caminho, o llama 3 8b, no meu caso de uso, já performa igual o gpt3.5 e às vezes até melhor, a api groq é bem barata nesse modelo. Estou bem entusiasmado com isso, O phi3-mini já roda no meu navegador e meu pc é de 4gb de vram. O ruim é que ele alucina muito ainda
muito bom talvez o tamanho das ias nao seja a coisa mais importante talvez possa ocorrer que possa ate atrapalhar a forma tudo isso se organiza e que vai determina uma boa ia ,
Show de video, estou montando um novo setup para trabalhar com i.a e data science, tenho muito curiosidade para saber qual setup vc me aconselha ter para quer está começando, outra dúvida qual é o setup que vc tem hoje para estar trabalhando ?
Professor quero montar uma IA para chatbot baseada nas regras e informações do meu negócio, qual curso posso fazer para aprender a criar e treinar esse modelo.
Oi, Mauricio! A trilha é a Aplicações IA com Python (o link está no comentário do vídeo). Temos todo o passo a passo para você atingir este objetivo lá!
Cara, TOP demais seu conteúdo, mas eu q sou velho fica foda escutar vc falando perto e longe do microfone, quando vc afasta do microfone fica bem baixo... som ficou desse video não ficou bom viu.
Sinceramente não achei, estou testando a alguns dias e claro... peguei a versão de 8b e sinceramente meu PC aguentou tranquilo... Ainda estou em testes mas percebi que essa versão usou menos potencial do computador que determinados jogos. Minha config. Xeon E5-2666 V3 10 núcleos e 20 threads GTX 1060 6gb 32gb Memoria Ram
Eu tenho comigo uma ideia que e "domino de seguimentos específicos" como ja era e sempre foi no campo da inteligência artificial que e pegar um modelo menor fazer o retreinamento para áreas especificas pois o custo pra isso e menor e os problema do mundo real pode ser resolvido com estiligue não com uma bazuca e este acredito ser uma visão melhor para tratar aprender como treinar usando dados sintéticos (dados criados exatamente para isso) que dará o melhor resultado para isso.
"Itere contigo mesmo", no sentido da palavra "iteração". No contexto, significa fazer uma nova versão da mesma tarefa com os aprendizados obtidos ao longo do processo.
Assistam até o final, o conteúdo completo passa uma visão do mercado diferente e interessante. Vou assistir o próximo vídeo
Agradecemos, Leo. Conte conosco!
Extremamente preciso nas colocações, acredito que a engenharia de prompt como você bem mencionou pode maximizar muito o ganho de resultado, quanto mais a gente detalha e utiliza parâmetros mais afunilado fica e consequentemente o volume de dados e processamentos está mais "enquadrado". Ótimo conteúdo!!
Agradecemos, Felipe. Conte conosco!
Muito legal o conteúdo.
Poderia fazer um vídeo de como utilizar o Llama3 usando como fonte arquivos locais, para responder perguntas utilizando o conteúdo criado dentro do seu Second Brain como os arquivos/pastas em MD do Obsidian do video do método Zettelkasten
Estou desenvolvendo este exato projeto!
@@AsimovAcademy Também estou interessado. Achei um vídeo perdido, de um asiático, que demonstrou isso através de um plugin menos conhecido do Obsidian.
Voce é calmo, didático e pouco fica querendo passar imagem de guru da tecnologia. Segue assim cara esse é o caminho.
Muito obrigado!!
Ótimo conteúdo! Acredito que além da engenharia de prompt, a depender do objetivo, técnicas de RAG e fine-tuning também são muito bem-vindas.
Conseguindo associar isso tudo com essas técnicas de reasoning de agentes + acesso a funções, aí é 10/10 no cenário atual.
Parabéns por trazer essas informações e citar o Ng e os talks da Sequoia, esses talks abriram muito minha mente pra testar novas abordagens.
Concordo muito com sua visão!
Video direto e objetivo, sem blábláblá. Obrigado por compartilhar seu conhecimento. Permaneça nessa fonte. Parabéns!
Ficamos felizes com o seu feedback, Lucio. Conte conosco!
Obrigado por compartilhar o seu conhecimento e a sua opinião!
Parabéns, pelo conteúdo. Difícil encontrar um conteúdo completo assim com esses assuntos aplicados.
Ficamos felizes por isso, Lohan. Conte conosco!
Massa o video, na proxima, deixa as referencias que vc usou. tmj
Rapaz...esse vídeo não se tratou de quem concordou ou não concordou com vc...mas a clareza do tema, embora exista uma nuvem todavia ao entorno do destino das IA's...o fato é que apesar de, voce nos trouxe uma reflexão sobre o futuro das tomadas de decisão e o futuro das abordagens e metodologias na programação, na metanoya definitiva sobre o que iremos fazer e com quais ferramentas faremos...Te parabenizo por essa, tão feliz, reflexão e abordagem...Já me inscrevi no canal...rsrs
Ficamos felizes, João. Conte conosco!
Certamente a necessidade processamentos cada vez maiores irá acelerar o desenvolvimento e difusão dos computadores quânticos
Top demais esse conteúdo. Tenho dito que estamos na era dos Agents.
Agradecemos! Conte conosco.
Excelente!
Excelente trabalho, nem muito aprofundado impossibilitando o entendimento nem tão superficial a Ponto de ser um conteúdo irrelevante. 👏👏👏
Esperando pelos próximos vídeos
TOP, CONCORDO!!!
Show! Top!
Excelente 👏👏
Essa "conversa com ele próprio" pode ser considerada como um análogo ao pensamento humano?
Exatamente, é este tipo de abordagem que os pesquisadores estão tentando implementar ao construir estes prontos: permitir que o modelo "pense".
Esqueci de dizer tambem; que a Engenharia de Prompt é a Anamnese completa para um diagnóstico perfeito e returns ainda melhores. Console.log em todo o roteiro dos prompts...rs
Fazendo uso de modelos open-source como Llama3 juntamente com CrewAI, as possibilidades são infinitas.
Pensei que iria demorar essa "minificação" de modelos, mas tá acontecendo rápido demais e é inevitável esse caminho, o llama 3 8b, no meu caso de uso, já performa igual o gpt3.5 e às vezes até melhor, a api groq é bem barata nesse modelo. Estou bem entusiasmado com isso, O phi3-mini já roda no meu navegador e meu pc é de 4gb de vram. O ruim é que ele alucina muito ainda
muito bom talvez o tamanho das ias nao seja a coisa mais importante talvez possa ocorrer que possa ate atrapalhar a forma tudo isso se organiza e que vai determina uma boa ia ,
Concordo 100%, inclusive com o anuncio da OpenAi e acredito que a Google nessa semana vai nessa linha também.
Ta maluco esse cara é o Andrew ng do Brazil o cara sabe muito
Muito legal o vídeo. Obrigado!
Sensacional esta abordagem!!!
Agradecemos, Kleber. Conte conosco!
Show de video, estou montando um novo setup para trabalhar com i.a e data science, tenho muito curiosidade para saber qual setup vc me aconselha ter para quer está começando, outra dúvida qual é o setup que vc tem hoje para estar trabalhando ?
Ele tem uma Mac e tem 32de ram vi ele comentando em próprio vídeo
Muito boa essa abordagem agents. Quero me aprofundar mais, tem alguma documentação de como executar em um notebook .
Oi, Alex! Tem sim, procura pela biblioteca Crew.AI que é hoje uma das principais do mundo para trabalhar com Agents.
esta ferramenta ainda não está disponível no Brasil ?
Professor quero montar uma IA para chatbot baseada nas regras e informações do meu negócio, qual curso posso fazer para aprender a criar e treinar esse modelo.
Oi, Mauricio! A trilha é a Aplicações IA com Python (o link está no comentário do vídeo). Temos todo o passo a passo para você atingir este objetivo lá!
@@AsimovAcademy vou acessar, muito obrigado pela informação.
Logo estará incorporado no celular
Muito interessante
Qual configuração do seu notebook?
Cara, TOP demais seu conteúdo, mas eu q sou velho fica foda escutar vc falando perto e longe do microfone, quando vc afasta do microfone fica bem baixo... som ficou desse video não ficou bom viu.
ah sai daí mano, tá ótimo o áudio.
Nem tinha reparado nisso
Pena que é uma paulada pra rodar o lhama
Sinceramente não achei, estou testando a alguns dias e claro... peguei a versão de 8b e sinceramente meu PC aguentou tranquilo... Ainda estou em testes mas percebi que essa versão usou menos potencial do computador que determinados jogos.
Minha config.
Xeon E5-2666 V3
10 núcleos e 20 threads
GTX 1060 6gb
32gb Memoria Ram
Eu tenho comigo uma ideia que e "domino de seguimentos específicos" como ja era e sempre foi no campo da inteligência artificial que e pegar um modelo menor fazer o retreinamento para áreas especificas pois o custo pra isso e menor e os problema do mundo real pode ser resolvido com estiligue não com uma bazuca e este acredito ser uma visão melhor para tratar aprender como treinar usando dados sintéticos (dados criados exatamente para isso) que dará o melhor resultado para isso.
Eu compartilho desta sua visão e acredito que o futuro será por aí!
gostaria de saber oque significa e intere...
Oi, amigo, acho que cortou sua dúvida...
@@AsimovAcademy ou sua fala no 8:52 kkkk
"Itere contigo mesmo", no sentido da palavra "iteração". No contexto, significa fazer uma nova versão da mesma tarefa com os aprendizados obtidos ao longo do processo.
não creio nessa linha.....ainda acho que a tendência de melhores processadores e menores abraçará toda essa tec.
Existe um limite na lei de moore e nós já chegamos nele
Existe um limite físico, por isso é importante outra abordagem,
Som baixo
Primeiro kkk