Olá, pessoal! É possível, sim. No vídeo, o Nicolas utilizou diferentes páginas do site. Nesse caso, vocês podem imaginar cada página sendo um PDF diferente. A única diferença é a forma que vocês irão fazer a extração dos textos do PDF. Aqui, a sugestão é que vocês vejam o framework chamado LlamaIndex - ele facilita lidar com diversos tipos de documento e como organizar esses textos extraídos antes de usar como contexto.
Olá, Bruno! Agradecemos pelo seu feedback :) Você pode utilizar qualquer tipo de documento como contexto para o modelo. Porém, é necessário realizar uma etapa de extração do conteúdo textual deste documento. No vídeo, nós utilizamos os textos extraídos do site; para documentos no formato PDF, procure bibliotecas em Python como o PyPDF2 para realizar a extração do texto.
Olá, boa noite ótimo conteúdo, uma pergunta, como faria para quando não tiver a resposta, o gpt pesquisar na sua base de dados ou internet e responda o usuário?
Olá, Tony! Primeiramente, agradecemos pelo comentário. Neste tutorial, o Nicolas utilizou a técnica Retrieval Augmented Generation (RAG), como mencionado no comentário anterior. Se você notar, no vídeo, foi especificado no prompt do modelo para que ele responda que não sabe responder caso não encontre uma resposta nos textos que passamos de entrada para ele. Caso você queira fazer perguntas utilizando apenas o conhecimento do modelo da OpenAI, você pode utilizar a API de forma simples. Consultando a documentação da OpenAI, você encontra diversos tutoriais de como realizar isso.
Muito top esse conteudo, gostaria de saber se tem como fazer o chatgpt acessar uma API ou um banco de dados e responder as perguntas de acordo com o conteudo.. Por exemplo, um api que me retorna dados financeiros como compra e valor. Ai eu perguntaria, onde eu mais gastei? ele iria fazer as contas e me responder, é possível isso?
estou nesse luta também, eu até consegui fazer a API conectar ao banco de dados e traduzir em SQL, porém ela traduz em SQL em nome de tabela padrão ao invés de trazer os nomes das tabelas do Proprio banco de dados, voce conseguiu evoluir algo com a ideia?
Uma duvida, o processamento é feito no proprio computador ou é feito no hardware da Open AI e retorna para o computador? Existe limitacao de dados ou caracteres que o modelo é limitado a gravar? Abs
Olá! Como demonstrado no vídeo, o processamento ocorre nos servidores da OpenAI. Cada solicitação é enviada através da API e processada remotamente, retornando apenas a resposta gerada pelo modelo. Quanto às limitações, elas podem variar de acordo com o modelo e plano que você está utilizando. Por isso, recomendamos consultar a documentação da OpenAI para obter informações mais atualizadas quanto às limitações de tokens.
Posso usar esse script para treinar a IA e fazer as perguntas pela API e retornar a Resposta, usando uma requisicao curl por exemplo ? Para integrar outras linguagens ?
Olá! Respondendo a primeira pergunta: você pode utilizar qualquer tipo de documento como contexto para o modelo. Porém, é necessário realizar uma etapa de extração do conteúdo textual deste documento. No vídeo, nós utilizamos os textos extraídos do site; para documentos no formato PDF, procure bibliotecas em Python como o PyPDF2 para realizar a extração do texto.
Já quanto à segunda pergunta, você deve adequar a chamada da API de acordo com a linguagem de programação que você está utilizando para desenvolver sua aplicação. É recomendado consultar a documentação da OpenAI para entender como adequar à sua necessidade.
se eu colocar um livro que estou escrevendo no treinamento, o gpt vai ficar limitado a aquele conteúdo e incapaz de me ajudar a criar mais conteúdo por eu não ter colocado uma quantidade massiva de dados como a openAI fez com o chatgpt ou essa capacidade já está no pré treinamento e ele vai aprender a história e seguir como assistente de escrita mesmo que eu pedir ajuda para escrever coisas que ainda não estão no texto?
Você pode enviar uma pergunta ou input, e enviar as "instruções" para ele. Exemplo Pegue o input e gere uma resposta com base no contexto: (Para comprar o meu produto você precisa acessar o site xxx etc.... ) Quem limita a resposta e você passando a instrução. Isso é útil para empresas quem vendem produtos ou dão suporte. Mas você pode fazer outras abordagens. Ai que entra a questão do NLP (processamento de linguagem natural). Você criar uma séria de instruções predefinidas, através de alguns algoritmos você vai transformar essa instrução em um vetor e armazenar em um banco de dados vetorial. Quando o usuário enviar um input, você vai consulta no banco qual é o vetor mais adequado e enviar como instrução para o LLM (IA), posteriormente você pode refazer esse processo para ajustar os inputs e resposta.
Excelente material, porem nao foi possivel visualizar a funcao create_context(). Poderiam disponibilizar algum material para conseguirmos replicar do nosso lado?
Fala amigão, estou começando um negócio e usando um sistema ERP, toda a documentação estão online no site do sistema, é tranquilo treinar o chatgpt para responder perguntas ou duvidas somente da documentação deste site, por meio do whatsapp ?
Olá! Como mencionado, caso você entre na plataforma e não tenha créditos disponíveis, é porque já acabou a validade de seus créditos. Nesse caso, é recomendado que você crie uma nova conta utilizando outro número de telefone. Outra possibilidade é utilizar outras plataformas como Anyscale, que disponibiliza créditos para testar outros modelos de LLM Open Source.
Impressionante. O conteúdo pode até ser interessante, mas não é possível acompanhar. O gerundismo utilizado é como um tapa a cada vez que é utilizado. HORRÍVEL.
from openai.datalib.numpy_helper import numpy as np from openai.datalib.pandas_helper import pandas as pd ModuleNotFoundError: No module named 'openai.datalib' Infelizmente n]ao estou conseguindo resolver o problema de pacotes. Código deve ser atualizado? Internet não achei uma solução que resolveu.
Baita conteúdo!
Mas um toque técnico: Isso não é treinamento em si, você está enriquecendo o contexto do input do modelo.
Obrigada pelo vídeo,vai ajudar bastante na iniciação dos meus estudos
Fenomenal! Parabéns pelo vídeo. Obrigado pelo seu tempo e generosidade no compartilhamento do seu conhecimento.
você é danado de bom, sigo acompanhando. Parabéns!
excelente, deu uma visão geral das utilidades e o funcionamento, aplicando agora na empresa, grato pelo conhecimento passado.
Muito bom mesmo. Direto, didatico e bom conteudo. Obrigado pelo seu tempo e compartilhar seu conhecimento. Sucesso e fique com Deus!!!
Parabéns pelo conteúdo.
Pessoal, boa tarde! Hoje pela manhã não foi postado no Chat o link do formulário com as questões do Tutorial. Vocês irão disponibilizá-lo?
Parabéns por passar conhecimento.
Show de bola, parabéns pelo conteúdo 👏👏👏👏 obrigado por compartilhar 🙏
Como eu poderia fazer simliar? Ao invés de usar urls de sites, gostaria de colocar 10 a 20 PDFs de um tema. Poderia acontecer?
Tbm gostaria de saber
queria fazer isso tbm
Olá, pessoal! É possível, sim. No vídeo, o Nicolas utilizou diferentes páginas do site. Nesse caso, vocês podem imaginar cada página sendo um PDF diferente. A única diferença é a forma que vocês irão fazer a extração dos textos do PDF. Aqui, a sugestão é que vocês vejam o framework chamado LlamaIndex - ele facilita lidar com diversos tipos de documento e como organizar esses textos extraídos antes de usar como contexto.
Muito Bom!!!
Cara sensacional obrigado pelos esclarecimento, fiquei com uma dúvida.
Como fariamos pra treinar caso o site da empresa forneça pdfs com o conteudo ?
Voce pode combinar uma tecnica chamada RaG com o FineTuning
Olá, Bruno! Agradecemos pelo seu feedback :)
Você pode utilizar qualquer tipo de documento como contexto para o modelo. Porém, é necessário realizar uma etapa de extração do conteúdo textual deste documento. No vídeo, nós utilizamos os textos extraídos do site; para documentos no formato PDF, procure bibliotecas em Python como o PyPDF2 para realizar a extração do texto.
Olá, boa noite ótimo conteúdo, uma pergunta, como faria para quando não tiver a resposta, o gpt pesquisar na sua base de dados ou internet e responda o usuário?
Pesquise sobre rag
Olá, Tony! Primeiramente, agradecemos pelo comentário.
Neste tutorial, o Nicolas utilizou a técnica Retrieval Augmented Generation (RAG), como mencionado no comentário anterior. Se você notar, no vídeo, foi especificado no prompt do modelo para que ele responda que não sabe responder caso não encontre uma resposta nos textos que passamos de entrada para ele.
Caso você queira fazer perguntas utilizando apenas o conhecimento do modelo da OpenAI, você pode utilizar a API de forma simples. Consultando a documentação da OpenAI, você encontra diversos tutoriais de como realizar isso.
Muito top esse conteudo, gostaria de saber se tem como fazer o chatgpt acessar uma API ou um banco de dados e responder as perguntas de acordo com o conteudo.. Por exemplo, um api que me retorna dados financeiros como compra e valor. Ai eu perguntaria, onde eu mais gastei? ele iria fazer as contas e me responder, é possível isso?
estou nesse luta também, eu até consegui fazer a API conectar ao banco de dados e traduzir em SQL, porém ela traduz em SQL em nome de tabela padrão ao invés de trazer os nomes das tabelas do Proprio banco de dados, voce conseguiu evoluir algo com a ideia?
É possível criar uma ia offline para Android?
Queria muito fazer isso localmente!
nesse caso a gente tem usado o Llama
@@BIXTecnologia ótimo conteúdo!!!!
@@BIXTecnologia tem vídeo sobre?
@@erickson_lopes no nosso canal ainda não temos, mas a gente tem feito e funciona bem, é ótimo para privacidade, custo e aprendizado
Uma duvida, o processamento é feito no proprio computador ou é feito no hardware da Open AI e retorna para o computador? Existe limitacao de dados ou caracteres que o modelo é limitado a gravar? Abs
Olá! Como demonstrado no vídeo, o processamento ocorre nos servidores da OpenAI. Cada solicitação é enviada através da API e processada remotamente, retornando apenas a resposta gerada pelo modelo. Quanto às limitações, elas podem variar de acordo com o modelo e plano que você está utilizando. Por isso, recomendamos consultar a documentação da OpenAI para obter informações mais atualizadas quanto às limitações de tokens.
muito bom, Parabens pelo trabalho!
teria como eu consumir os dados de pdfs?
Procure sobre rag
@@VeshaSec vlw mano
Por nada irmão, essa comunidade precisa crescer! Quiser entrar em contato para tirar duvidas e precisar de suporte pode dar o papo.@@JoaoSilva-in8ht
@@VeshaSec pô mano tava querendo, esatava querendo utilizar em uma aplicação, tô meio perdido com isso ainda kkkkk, agradeço muito pela atenção
@@VeshaSec vc tá falando sobre "geração aumentada de recuperação"? queria usar pdfs num projeto do estágio
Posso usar esse script para treinar a IA e fazer as perguntas pela API e retornar a Resposta, usando uma requisicao curl por exemplo ? Para integrar outras linguagens ?
Excelente aula!
2 dúvidas:
1- como faço para usar PDFs no ligar de site?
2- como usar esse modelo como uma api para ser usado por outro app meu?
Olá! Respondendo a primeira pergunta: você pode utilizar qualquer tipo de documento como contexto para o modelo. Porém, é necessário realizar uma etapa de extração do conteúdo textual deste documento. No vídeo, nós utilizamos os textos extraídos do site; para documentos no formato PDF, procure bibliotecas em Python como o PyPDF2 para realizar a extração do texto.
Já quanto à segunda pergunta, você deve adequar a chamada da API de acordo com a linguagem de programação que você está utilizando para desenvolver sua aplicação. É recomendado consultar a documentação da OpenAI para entender como adequar à sua necessidade.
E claro, agradecemos pelo feedback sobre o tutorial! 😁
se eu colocar um livro que estou escrevendo no treinamento, o gpt vai ficar limitado a aquele conteúdo e incapaz de me ajudar a criar mais conteúdo por eu não ter colocado uma quantidade massiva de dados como a openAI fez com o chatgpt ou essa capacidade já está no pré treinamento e ele vai aprender a história e seguir como assistente de escrita mesmo que eu pedir ajuda para escrever coisas que ainda não estão no texto?
Você pode enviar uma pergunta ou input, e enviar as "instruções" para ele. Exemplo Pegue o input e gere uma resposta com base no contexto: (Para comprar o meu produto você precisa acessar o site xxx etc.... ) Quem limita a resposta e você passando a instrução. Isso é útil para empresas quem vendem produtos ou dão suporte. Mas você pode fazer outras abordagens. Ai que entra a questão do NLP (processamento de linguagem natural). Você criar uma séria de instruções predefinidas, através de alguns algoritmos você vai transformar essa instrução em um vetor e armazenar em um banco de dados vetorial. Quando o usuário enviar um input, você vai consulta no banco qual é o vetor mais adequado e enviar como instrução para o LLM (IA), posteriormente você pode refazer esse processo para ajustar os inputs e resposta.
Excelente material, porem nao foi possivel visualizar a funcao create_context(). Poderiam disponibilizar algum material para conseguirmos replicar do nosso lado?
Basta seguir a documentação
Fala amigão, estou começando um negócio e usando um sistema ERP, toda a documentação estão online no site do sistema, é tranquilo treinar o chatgpt para responder perguntas ou duvidas somente da documentação deste site, por meio do whatsapp ?
Sim..simples de se fazer.....e até mesmo integrar no WhatsApp
@@teclesoft1 tem algum video ensinando como ?
@@ToniPLay-xs8pw mas qual é o seu ERP neste caso?
formulário para certificado? Grata
Posso colocar no Whatsapp?
O pode porém vai ter que ter o auxílio de uma ferramenta chamada many chat ou similar
Alguém tentou fazer e não ganhou os créditos?
você precisa de um conta de email e numero novo, tenta fazer isso
Olá! Como mencionado, caso você entre na plataforma e não tenha créditos disponíveis, é porque já acabou a validade de seus créditos. Nesse caso, é recomendado que você crie uma nova conta utilizando outro número de telefone. Outra possibilidade é utilizar outras plataformas como Anyscale, que disponibiliza créditos para testar outros modelos de LLM Open Source.
Olá
Só prestei atenção na quantidade de Éeeeee que vc falou. Nossa!
Faz melhor amigão. Chato pra caramba hein.
Parece um notebook travando: eheeeeeee ihiiiiii ahaaaaaa ohooooo Terrível.
Enrola muito. Tem que ser mais objetivo.... E pra que se mostrar com inglês... Gzuis
Impressionante. O conteúdo pode até ser interessante, mas não é possível acompanhar. O gerundismo utilizado é como um tapa a cada vez que é utilizado. HORRÍVEL.
Gerundismo...
from openai.datalib.numpy_helper import numpy as np
from openai.datalib.pandas_helper import pandas as pd
ModuleNotFoundError: No module named 'openai.datalib'
Infelizmente n]ao estou conseguindo resolver o problema de pacotes. Código deve ser atualizado? Internet não achei uma solução que resolveu.