Assistants da Open AI vs RAG no N8N - Qual é o melhor?
ฝัง
- เผยแพร่เมื่อ 24 ก.ย. 2024
- Hoje comparei os agentes prontos do n8n com RAG no Supabase com o File Search da Open AI.
o Workflow do vídeo foi copiado de outro canal, foi feito só para comparar:
• This RAG AI Agent with...
Quer construir bots e automações inteligentes? Faça parte da Comunidade AI Builders:
aibuilders.com...
Construa seu primeiro bot em 81 minutos:
aibuilders.com...
--
Me siga!
Linkedin: / andrefprado
X: x.com/andrehfp
Instagram: / andrefprado
Show! Ótimo vídeo Andre. Estou na comunidade desde o lançamento, mas não consegui avançar muito no N8N e nos projetos
Tenho usado mais o Flowise para RAG, Chat. A versão 2 incluiu vários recursos, sendo possível um resultado como o seu mostrado no vídeo
Só um comentário que tenho usado no Flowise é combinar o modelo do LLM, Embeding e Chat do mesmo fornecedor, quando possível.
Acredito que faça um diferente, como bem mostrado no vídeo
Vida longa a Ai Builders! Vlw
O dify me salva nesses quesitos com maestria
o dify é muito bom, eu confesso que usei só uma vez e achei ok, mas a galera que eu tenho contato não gosta tanto não
Muito bom o conteúdo, comparação de primeira!!!!
Excelente conteúdo! Parabéns! Gratidão!
Cara, profunda admiração pelo seu trabalho e por sua pessoa. E vou dar o "play" no vídeo agora
muito obrigado! espero que tenha gostado do vídeo
Eu uso FAISS para fazer esse armazenamento já que utilizo o chatbot localmente pra mim mesmo.
top André !
sensacional! overlap seria sobreposição na tradução literal. E tem que usar a versão paga do Open AI para fazer essas automações?. Ah voce respondeu no proprio video com o FAQ
Muito bom o vídeo. Eu tinha já replicado aqui esse workflow. Achei interessante... mas para mim e não sei se para você já aconteceu, ele vai bem para arquivos pequenos... se você precisa usar para arquivos um pouco maiores trava. E em produção a gente se depara com um banco de dados maior.
acho que é uma questão de melhorar algumas variáveis, como o modelo, temperatura, chunks e overlaps no embedding...semana que vem vai sair um vídeo no meu canal onde eu mostro esse workflow numa aplicação prática
@@AndrePrado Obrigado por responder. Particulamente meu problema foi para uma chatbot de imobiliária. São 1000 imóveis com suas características. Isso foi demais para o vector... rs Tentei supabase, pinecone ( mais fácil de configurar). Já inscrito e curtindo os vídeos. abs
vou testar uma estratégia pra isso, mas não garanto, se der certo posto aqui no yt
André, não é bug do n8n, é assim que a estrutura de dados funciona!
mas antes funcionava de outro jeito
dessa forma ficou péssimo trabalhar com certas features no n8n
@@AndrePrado Acho que ficou confuso, ele sempre foi assim, quando não se passa um objeto json: {[]} nem que seja vazio, o nó não tem como ser referenciado, então ele para o fluxo, talvez você nunca tenha percebido, mas é assim que funciona o javascript, se ele tentasse consumir o nó sem nem um objeto vazio o nó continuaria com null e de qualquer jeito nao funcionaria.
eu sinceramente NUNCA tinha tido esse problema antes, agora até no switch tem dado esse problema, e tem causado suporte pra caramba pra nós hahahahah
Valeu André, muito show, se possível eu gostaria de ver na comunidade ou aqui testes com o Google Gemini, ele também tem chamadas de função e tem modelos como o flash que são concorrentes diretos do GPT4o-mini, porém é Gemini tem um preço por 1M bem menor.
boa ideia Mauricio! vamos fazer algo assim sim, acho interessante essas comparações
Agora sim!!!!!!!! André, a pergunta para tirar um 10... Vocês vão regravar o Automaster, Book keeper, 8Guru e o Tech Tutor, utilizando os agentes de IA do n8n? Obs. como sempre, você só trás conteúdo de primeira!!!!!
não temos nada planejado nesse sentido, mas com o que você aprende no curso, fazer isso aí é fácil demais.
talvez a gente faça, mas não oficialmente no curso, e sim como bônus na comunidade
Fala André. Primeiramente parabéns pelo vídeo. Agora uma duvida: olhando a pouca quantidade de linhas no BD, esse chunck não tá grande demais? Se você tem 7 ou 8 linhas no Supabase e vc retorna 20 pedaços do arquivo ele não irá retornar o arquivo inteiro neste caso?
obrigado!
o chunk vai buscar no arquivo 20 pedaços do arquivo que tem a ver com a pergunta, mas realmente, ele deve trazer o arquivo todo praticamente hahahah
vou fazer mais uns testes sobre isso, mas só repliquei as configurações da propria open ai
@@AndrePrado sim. Perfeito. Eu compreendi. Apenas fiquei encucado com isso. Pois pelo que entendi, cada chunck equivale a uma linha no supabase.... até acho que pra conteúdos menores seria interessante fazer o Chuck por parágrafos, ou até por linhas em uma tabela. Acho que pra Q&A funcionaria bem. De repente sai um vídeo sobre isso? Rsrs abraços
não sei se equivale a uma linha, sinceramente...precisamos fazer testes sobre isso
Show. Poderia compartilhar o arquivo do Workflow?
cara, vou fazer um github pra vcs poderem baixar os workflows, mas até lá, no vídeo original (que tá na descrição) tem o github do cara que fez =)
Eu uso pra buscar dados em uma planilha csv
ótima ideia também
@@AndrePrado não tinha pensado na opção de atualizar de forma autoamatica, vou implementar
é bom né? deixa tudo automático, dá pra fazer vários agentes que aprendem sozinhos e se atualizam automaticamente dessa forma