Muy bien explicado lo que haces y porqué. Seguiré revisando tus videos para aprender más. Estaria genial que hicieras un ejemplo con un LLM como Mistral, que es gratuito. De este modo, todo tu ejemplo no tendria coste. Me equivoco?
A nice general idea, unfortunately, LLamaindex updated their library and most of the tutorials gave errors, so I ended up spending more time researching and updating my code but using Carlos's outline. I did run it on my computer but it is slow, I have an i7 with 32 GB RAM all solid state drives. This was a good start thank you, Carlos.
Hola Carlos, buen videos! Tengo una pregunta: Que extensión utilizas en Chrome para gestionar los api keys? Cuando vas a buscar las Api Keys abres un cuadro de busqueda... Gracias.
Excelente video Carlos, muchas gracias por estos aportes. Tengo la siguiente por si me ayudas a aclararla: Para armar la BD vectorial con base el transcript se usa el modelo de embeddings de HF que es para inglés, por qué al momento de hacer el query que lo tienes en español el modelo de embeddings que es para inglés funciona bien para poder hacer la búsqueda de similitud en la BD vectorial y poder pasarle ese contexto al LLM? Creía que para estos casos donde se quieren hacer preguntas en español sobre una info que se tiene en inglés tocaba usar un modelo de embeddings que soporte los idiomas que voy a usar. Gracias!
Hola, todos tus videos son muy interesantes. Estoy trabando hace un tiempo con Ollama y modelos como Phi3 y Llama3 y algunos modelos específicos dedicados a Embedding. Lo que no he podido resolver cuando son varios documentos similares por ejemplo procedimientos, como puedo traer el dato correcto siendo tan parecidos. Me trae la información, sin embargo, siempre la mezcla. Saludos y gracias por tu tiempo.
Excelente tutorial, quedo con la duda sobre la privacidad de la información ya que el modelo de todos modos va a Internet. Consulta, los embeddings se podrían utilizar para imágenes?, digamos para reconocimiento facial o de objetos?
Una consulta, llamaindex necesita de una api key de openAI con saldo existente para poder utilizarse. Entonces no comprendo cuando dicen que es gratuito el uso con llamaindex?
Hola casi es, mira el video que subí hoy No te Quedes Atrás: Guía Completa para Implementar Llama 3 y Phi 3 en Tu PC ¡GRATIS! th-cam.com/video/cthSyDFOIag/w-d-xo.html puedes usar Ollama desde llama index
Hola Carlos, excelente video, me ha ayudado mucho. En el caso de querer utilizar llm para hacer consultas a base de datos con lenguaje natural, también podría utilizar llamaindex? Por ejemplo si ya tengo una colección de ventas, tendría que vectorizarla a través de embedding para poder hacerle consultas?
Hola Carlos, primero que todo te agradezco por los conocimientos entregados! Quería comentarte de un error al traer estas librerías: import chromadb from llama_index.vector_stores import ChromaVectorStore from llama_index.embeddings import HuggingFaceEmbedding from llama_index.storage.storage_context import StorageContext from llama_index.service_context import ServiceContext from llama_index.prompts import PromptTemplate Me está dando un error en la línea: from llama_index.vector_stores import ChromaVectorStore ModuleNotFoundError Traceback (most recent call last) in () 1 import chromadb ----> 2 from llama_index.vector_stores import ChromaVectorStore 3 from llama_index.embeddings import HuggingFaceEmbedding 4 from llama_index.storage.storage_context import StorageContext 5 from llama_index.service_context import ServiceContext ModuleNotFoundError: No module named 'llama_index.vector_stores' --------------------------------------------------------------------------- NOTE: If your import is failing due to a missing package, you can manually install dependencies using either !pip or !apt. Ya instalé llama-index, pero igual resulta el error en google colab. ¿Crees que falte algo que tenga que tener como requisito para ejecutar bien esta librería?
@@alarcon7a Gracias Carlos! Adicionalmente a esto actualicé estas librerias por estos módulos que encontré en la documentación oficial de Llama indez para que a otro que le pase lo mismo pueda usarlo: import chromadb from llama_index.vector_stores.chroma import ChromaVectorStore from llama_index.embeddings.huggingface import HuggingFaceEmbedding from llama_index.core.storage.storage_context import StorageContext from llama_index.core.indices.service_context import ServiceContext from llama_index.core import PromptTemplate, Settings Y te agradezco por explicar temas complejos como este de manera tan sencilla, no soy programador pero he aprendido a hacerlo con tus videos. Saludos!
Muchas gracias por compartir este contenido! es justo lo que estaba buscando! Conoces otro modelo para generar embeddings que funcione bien en español?
Hola Carlos, tengo una consulta, como puedo revisar el contexto que le voy a mandar al Llm, estoy trabajando con un archivo grande y no me da respuestas muy precisas, estoy intentando detectar cual es el problema para poder ajustarlo
Muy buenoooo, una consulta yo estuve armando un agente que quería me conteste de un libro, utilizaba Chromadb y el embedding de Google. Y me costó mucho que me responda correctamente, cuando la información es de un libro en PDF habría que realizarle algún preproceso? Tipo para ordenar mejor el texto?
Hola Carlos, me he encontrado con varios problemas, creo que tienen qu ver con la version de Llama-indez, al momento de instalar las las dependencias saltan errores constantemente y he tenido que remplazar casi todas!, solo pasaba a comentar eso muy buen video, bien informativo! PD(luego de varias pruebas he llegado a la conclusion de que el separadaros e indexdador de texto de Llama utiliza GPT, y sin la api key es imposible ejecutarlo)
Si, las librerías cambian constantemente y para el primer paso usa API key por default y luego ya cuando se usa emvrddigns de huggingface no es necesario
Hola gracias las otras tambien cambiaron en la nueva version lo dejo por si le pasa a alguien from llama_index.llms.openai import OpenAI from llama_index.core import VectorStoreIndex, SimpleDirectoryReader from llama_index.core.response.notebook_utils import display_response
En realidad se debe usar las 2 API, Gemini no puede procesar ese tipo de base, quien lo procesa es OpenAI, hasta el momento el que da mejores resultados es Ollama 3.1
Ya realice el Embedding, con una base de datos vectorial con Gemini!, si esta mucho mejor, el procesamiento de los datos es mucho más rápido, pero es otro procedimiento.
@@alarcon7a , en realidad estoy usando LlamaIndex; lo usé con phi3, Ollama3.1, y ahora con Gema 1.5 Pro experimental, en este último, los resultados son otros nivel.
@@alarcon7a, te comento hay un embedding que me recomendaron y va de perlas, sobre todo que es local; ahora para que leas la base vectorial , usa la api de geminis experimental, con tu interfaz con streamlit y tendrás un RAG de lujo.
Podrías usar Ollama y llama 3.1, acá como usarlo y para el resto solo cambia el conector del LLM a Ollama th-cam.com/video/cthSyDFOIag/w-d-xo.htmlsi=yiLnLXU5esxsmgvs
Hola Carlos, puede ser que llama_index.llms no este soporte 'Gemini'? porque me arroja el siguiente error: ImportError: cannot import name 'Gemini' from 'llama_index.llms' (/usr/local/lib/python3.10/dist-packages/llama_index/llms/__init__.py)
Que buen video y que fácil lo hiciste. muchas gracias!!!!!, felicidades por tu canal.
Muchas gracias
Ya me suscribí. Mil gracias por compartir Carlos. Eres admirable. Que talentazo colombiano!!!
Que gran video profe Alarcon, muchas gracias.
Excelentes todos tus vídeos, Me ayudan muchísimo para aprender LA. Muchas Gracias, Felicitaciones!
Siempre un gusto, no olvides compartir y suscribirte 🚀
Brutal este tutorial y todo con open source! Muchas gracias por traernos este tipo de contenido, Crack!
Siempre un placer mi hermano, comparte y suscríbete 💪🏼
Que buen video, solo me hubiese gustado ver cuantos tokens consumió Gemini o saber el costo para darte una idea en el próximo video, igual crack
Muy bien explicado lo que haces y porqué. Seguiré revisando tus videos para aprender más. Estaria genial que hicieras un ejemplo con un LLM como Mistral, que es gratuito. De este modo, todo tu ejemplo no tendria coste. Me equivoco?
A nice general idea, unfortunately, LLamaindex updated their library and most of the tutorials gave errors, so I ended up spending more time researching and updating my code but using Carlos's outline. I did run it on my computer but it is slow, I have an i7 with 32 GB RAM all solid state drives. This was a good start thank you, Carlos.
Ohh, that’s awesome, your welcome
Hola Carlos, buen videos! Tengo una pregunta: Que extensión utilizas en Chrome para gestionar los api keys? Cuando vas a buscar las Api Keys abres un cuadro de busqueda... Gracias.
Bitwarden, es muy buena
Muy buen contenido y en español!!! es un sueño hecho realidad :) Mucas gracias, ¿puedes hacer un video con pdfs o matrices de excel?
Si, lo tengo pensado !
Muchas Gracias Carlos, clarísima tu explicación!!
Que bueno que te gustó !
Excelente video Carlos, muchas gracias por estos aportes.
Tengo la siguiente por si me ayudas a aclararla: Para armar la BD vectorial con base el transcript se usa el modelo de embeddings de HF que es para inglés, por qué al momento de hacer el query que lo tienes en español el modelo de embeddings que es para inglés funciona bien para poder hacer la búsqueda de similitud en la BD vectorial y poder pasarle ese contexto al LLM? Creía que para estos casos donde se quieren hacer preguntas en español sobre una info que se tiene en inglés tocaba usar un modelo de embeddings que soporte los idiomas que voy a usar. Gracias!
El modelo de embeddings es multi language ✌️
Hola, todos tus videos son muy interesantes. Estoy trabando hace un tiempo con Ollama y modelos como Phi3 y Llama3 y algunos modelos específicos dedicados a Embedding. Lo que no he podido resolver cuando son varios documentos similares por ejemplo procedimientos, como puedo traer el dato correcto siendo tan parecidos. Me trae la información, sin embargo, siempre la mezcla. Saludos y gracias por tu tiempo.
Hay técnicas como re tanking o parent retrieval que te puede. Ayudar
@@alarcon7a muchas gracias por tu ayuda investigaré sobre el tema que me indicas, saludos.
Excelente tutorial, quedo con la duda sobre la privacidad de la información ya que el modelo de todos modos va a Internet. Consulta, los embeddings se podrían utilizar para imágenes?, digamos para reconocimiento facial o de objetos?
Depende de cada llm que uses y las políticas de manejo de datos de estos, y si los modelos multimodales reconocen imágenes
Una consulta, llamaindex necesita de una api key de openAI con saldo existente para poder utilizarse. Entonces no comprendo cuando dicen que es gratuito el uso con llamaindex?
Hola casi es, mira el video que subí hoy No te Quedes Atrás: Guía Completa para Implementar Llama 3 y Phi 3 en Tu PC ¡GRATIS!
th-cam.com/video/cthSyDFOIag/w-d-xo.html puedes usar Ollama desde llama index
Hola Carlos, excelente video, me ha ayudado mucho. En el caso de querer utilizar llm para hacer consultas a base de datos con lenguaje natural, también podría utilizar llamaindex? Por ejemplo si ya tengo una colección de ventas, tendría que vectorizarla a través de embedding para poder hacerle consultas?
Así es, los sources de vuelven sql y puedes hacerlo… puedo sacar un tutorial de ello 👌
@@alarcon7a Sería buenísimo! Ya que no he encontrado. Y si lo pudieras hacer con MongoDb 🤯
excelente video Carlos, te sugiero borrar la api key de openai, en el minuto 14:52 se ve. Saludos y por mas videos!
Están eliminadas, muchas gracias !
Hola Carlos, primero que todo te agradezco por los conocimientos entregados!
Quería comentarte de un error al traer estas librerías:
import chromadb
from llama_index.vector_stores import ChromaVectorStore
from llama_index.embeddings import HuggingFaceEmbedding
from llama_index.storage.storage_context import StorageContext
from llama_index.service_context import ServiceContext
from llama_index.prompts import PromptTemplate
Me está dando un error en la línea:
from llama_index.vector_stores import ChromaVectorStore
ModuleNotFoundError Traceback (most recent call last)
in ()
1 import chromadb
----> 2 from llama_index.vector_stores import ChromaVectorStore
3 from llama_index.embeddings import HuggingFaceEmbedding
4 from llama_index.storage.storage_context import StorageContext
5 from llama_index.service_context import ServiceContext
ModuleNotFoundError: No module named 'llama_index.vector_stores'
---------------------------------------------------------------------------
NOTE: If your import is failing due to a missing package, you can
manually install dependencies using either !pip or !apt.
Ya instalé llama-index, pero igual resulta el error en google colab. ¿Crees que falte algo que tenga que tener como requisito para ejecutar bien esta librería?
intenta instalando esta version !pip install -q llama-index==0.9.1 chromadb
@@alarcon7a Gracias Carlos! Adicionalmente a esto actualicé estas librerias por estos módulos que encontré en la documentación oficial de Llama indez para que a otro que le pase lo mismo pueda usarlo:
import chromadb
from llama_index.vector_stores.chroma import ChromaVectorStore
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.core.storage.storage_context import StorageContext
from llama_index.core.indices.service_context import ServiceContext
from llama_index.core import PromptTemplate, Settings
Y te agradezco por explicar temas complejos como este de manera tan sencilla, no soy programador pero he aprendido a hacerlo con tus videos. Saludos!
@@alarcon7a Me funcionó! Eres tremendo!
Muchas gracias por compartir este contenido! es justo lo que estaba buscando! Conoces otro modelo para generar embeddings que funcione bien en español?
los de openAI
Gracias Carlos, ¡saludos!
Hola! Cómo se integraría en este caso LLAMA2 como LLM?
Debes utilizar el modelo con la integración desde huggingface o sobre un servicios cloud con llama index, podría sacar un video de esto
@@alarcon7a Estaría genial, gracias!
Hola Carlos, tengo una consulta, como puedo revisar el contexto que le voy a mandar al Llm, estoy trabajando con un archivo grande y no me da respuestas muy precisas, estoy intentando detectar cual es el problema para poder ajustarlo
Puede ser como se están haciendo los chunks del texto no sea la mejor manera, se pueden evaluar otros tamaños u otros formatos
Muy buenoooo, una consulta yo estuve armando un agente que quería me conteste de un libro, utilizaba Chromadb y el embedding de Google. Y me costó mucho que me responda correctamente, cuando la información es de un libro en PDF habría que realizarle algún preproceso? Tipo para ordenar mejor el texto?
Así es, podemos cortar por capítulo o por markdown en vez de por cantidad de tokens
@@alarcon7a gracias CRACK das algún curso langchain o parecido?
@@eliasfarias3670 tenemos un curso en platzi de manejo de documentos con langchain
@@alarcon7a aaah me pareció haberte visto en alguna publicidad de platzi ajajja
Hola Carlos, me he encontrado con varios problemas, creo que tienen qu ver con la version de Llama-indez, al momento de instalar las las dependencias saltan errores constantemente y he tenido que remplazar casi todas!, solo pasaba a comentar eso muy buen video, bien informativo! PD(luego de varias pruebas he llegado a la conclusion de que el separadaros e indexdador de texto de Llama utiliza GPT, y sin la api key es imposible ejecutarlo)
Si, las librerías cambian constantemente y para el primer paso usa API key por default y luego ya cuando se usa emvrddigns de huggingface no es necesario
Hola me esta dando este error cannot import name 'OpenAI' from 'llama_index.llms' (unknown location)
prueba con from llama_index.llms.openai import OpenAI
Hola gracias las otras tambien cambiaron en la nueva version lo dejo por si le pasa a alguien
from llama_index.llms.openai import OpenAI
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
from llama_index.core.response.notebook_utils import display_response
para local y con UI, sabes si hay algo?
Si, mira este video
No te Quedes Atrás: Guía Completa para Implementar Llama 3 y Phi 3 en Tu PC ¡GRATIS!
th-cam.com/video/cthSyDFOIag/w-d-xo.html
En realidad se debe usar las 2 API, Gemini no puede procesar ese tipo de base, quien lo procesa es OpenAI, hasta el momento el que da mejores resultados es Ollama 3.1
Ya realice el Embedding, con una base de datos vectorial con Gemini!, si esta mucho mejor, el procesamiento de los datos es mucho más rápido, pero es otro procedimiento.
Siiii tengo un tutorial con Ollama pero con langchain que podría interesarte, que tal con los embedings de Google en español ?
@@alarcon7a , en realidad estoy usando LlamaIndex; lo usé con phi3, Ollama3.1, y ahora con Gema 1.5 Pro experimental, en este último, los resultados son otros nivel.
@@alarcon7a, te comento hay un embedding que me recomendaron y va de perlas, sobre todo que es local; ahora para que leas la base vectorial , usa la api de geminis experimental, con tu interfaz con streamlit y tendrás un RAG de lujo.
De que manera se puede hacer sin google ni apis si no 100% Local ? gracias
Podrías usar Ollama y llama 3.1, acá como usarlo y para el resto solo cambia el conector del LLM a Ollama
th-cam.com/video/cthSyDFOIag/w-d-xo.htmlsi=yiLnLXU5esxsmgvs
Pero por detrás siempre hay un costo. Es posible tener todo el potencial local sin conectarse a Gemini u Openai?
si, te invito a ver este video! th-cam.com/video/cthSyDFOIag/w-d-xo.html
la clave de openIA es necesaria que sea de paga?
Si, pero estoy sacando un video que no lo requiere
@@alarcon7a gracias, lo esperaré con ansias
Llama index es ollama?
No, Ollama es para correr modelos open en local y escalarlo
No pude pasar del segundo codigo. HIce lo que está en los comentarios y no me dejo. puros errores. Las librerias han cambiado
Lo reviso y actualizo, usaste el notebook de la descripción ?
@@alarcon7a
Si.
Hice las modificaciones de los comentarios pero nada. Gracias. Espero ansioso tu actualización 👌
Ya no funciona su runbook de colab pero ya lo arregle :)
Cuál es el error, para actualizarlo ?
pense que era una iguana 😂
Hola Carlos, puede ser que llama_index.llms no este soporte 'Gemini'? porque me arroja el siguiente error:
ImportError: cannot import name 'Gemini' from 'llama_index.llms' (/usr/local/lib/python3.10/dist-packages/llama_index/llms/__init__.py)
Prueba con esto %pip install llama-index-llms-gemini
tambien me puedes mencionar la version de llama index que usas