Otros vÃdeos que podrÃan interesarte: ðĶCOMO AGREGAR DOCUMENTOS A LLAMA 3 8B en LOCAL - RAG con CHROMA - 100% PRIVADO Y GRATIS â REPO th-cam.com/video/vjQAxJ7OVxw/w-d-xo.html CÃģmo ejecutar OpenWebUI en local con Llama3-8b en local y Ollama ðŧðĪ th-cam.com/video/xQLzkx6PWHo/w-d-xo.htmlsi=LIbXA-49lL83M9sr TUTOR DE IDIOMAS EN LOCAL th-cam.com/video/sg_XoPrwjI0/w-d-xo.htmlsi=geqA3ercAce002hD
ÂĄPor supuesto! Si tu empresa tiene documentos y quieres aprovechar las capacidades de una IA usarlos, es ideal. Ahora, de las IAs que he probado, llama-3 8b NO es la mejor, es buena si tiene la informaciÃģn necesaria, pero tiende a alucinar y no siempre sigue al pie de la letra las instrucciones. Te recomendarÃa que vieras el Último vÃdeo que subÃ, tiene un repo que te puede ser de mucha utilidad
ÂĄMuchas gracias por tu comentario! Poco a poco estoy intentando mejorar la calidad de los vÃdeos, no hago guiones asà que a veces me equivoco en las palabras pero bueno, con la ediciÃģn a veces corrijo. QuÃĐ bueno que te haya gustado.
@@joselimo4156 Admito que no he probabo LM Studio, aunque trabajo con dos mÃĄquinas y una de ellas lo tiene, al tener una API tipo OpenAI hace que el paso de cambio pueda ser tan pequeÃąo como un endpoint.
ÂĄEn el futuro puede ser! Ahora estoy siendo mÃĄs constante y eso trae sus frutos, ÂĄgracias por tu comentario! Espero que te siga gustando la informaciÃģn
me gustarÃa que hubiese una herramienta (opensource) que transcriba videos de youtube o cualquier fuente (o descargue las transcripciones existentes en los subtÃtulos con AutoSubSync) para resumirlos con chatgpt u otra ia, pero todo integrado, que solo tenga que pasarle la url o la ruta local del video y poder preguntarle con prompts para pedirle que me haga un resumen o cualquier pregunta relacionada, eso ahorrarÃa muchisimo tiempo a muchÃsima gente, para no tener que ver aburridas conferencias o reuniones completas, te animas? :)
@@leonardox222 de hecho ya tengo una herramienta similar que hice para traducir los vÃdeos que hago y agregarles las transcripciones, serÃa de colocarle una nueva feature y hacer el vÃdeo. Excelente idea amigo ððŧ siÃĐntate y prepÃĄrate y cuando lo suba lo verÃĄs. Aunque habrÃa que usar Whisper timestamped en local
Muy buenos tus videos!!!. Como puedo hacer para crear un chat que lea datos de un archivo de Excel y responda sobre ese contenido?. Es posible descargar los modelos y agregarlos en mis proyectos?. Continua con tus videos y ayudando a los que estamos comenzando. Exitos!!!
Ya tengo una app que es capaz de leer archivos y responder sobre ellos, te explico cÃģmo hacerlo: Si lo haces con Python, ten en cuenta que es cuestiÃģn de usar librerÃas como csv para extraer el texto del archivo csv que puedes exportar de Excel, pasÃĄrselo al modelo en el mensaje del usuario y claro, adaptar el prompt segÚn lo que deseas conseguir. Limitaciones: Ten en cuenta que los modelos actuales de IA no son buenos para matemÃĄticas, asà que el csv es un archivo Útil si quieres usar la IA para anÃĄlisis y entender de quÃĐ van los datos o quizÃĄs llenar espacios que faltan, pero no matemÃĄticas. Y sÃ, tambiÃĐn es posible descargar los modelos para usarlos en tus proyectos, con ollama puedes hacerlo, aunque yo te recomendarÃa no tenerlos en los mismo proyectos porque dependiendo de dÃģnde lo tienes desplegado puede tener problemas de performance, lo modelos pequeÃąos puedes correr en CPU, pero para modelos mÃĄs grandes ya necesitas mayor capacidad de cÃģmputo. En estos dÃas voy a desplegar una instancia de Llama en Azure, cuando lo haga hago un vÃdeo de cÃģmo lo hice. ÂĄMuchas gracias por tu comentario!
@@ai.charly Muchas gracias por la respuesta, empecÃĐ a ver tus videos desde el principio y tienes una forma de explicar las cosas de manera muy simple. Podrias hacer un video mostrando como empezar con un proyecto simple, pero como lo harÃas de forma "profesional"?. Muchas gracias espero tus proximos videos!!
Acabo de subir un vÃdeo hace rato de un repo con Chroma y Llama, ademÃĄs que tiene un pequeÃąo script con internet aÚn en desarrollo, cuando estÃĐ listo subo un vÃdeo sobre eso. th-cam.com/video/vjQAxJ7OVxw/w-d-xo.htmlsi=TF_6vYy41p97VWCS
@@ai.charly Seria interesante ese video. El despliegue en azure es en servidor gratuito de pruebas o de pago? Lo haces sobre cpu solo, o se contrata gpu tambien?
De hecho quiero hacer un vÃdeo en detalle sobre eso, los precios de Azure para mÃĄquina potentes me parecen exorbitantes y la verdad la interfaz es HORRIBLE, peor que Google Cloud, entonces estoy viendo cuÃĄl es la mejor alternativa para desplegar modelos grandes no tan grandes, y modelos muy grandes en el futuro.
Es posible conectarlo a whastapp o telegram, ademas de que tenga historial o memoria de cada persona con la que hablas integrado con un prompt? . gracias
Sà se podrÃa, subà otro vÃdeo en el que le agrego Chroma y un pequeÃąo servidor de Fastapi que se puede customizar para usar la API de Telegram (que es mucho mÃĄs developer friendly que la de WhatsApp). Con respecto a la memoria, con pasar los Últimos 4 mensajes suele ser suficiente, y si ya quieres una memoria mÃĄs a largo plazo podrÃa usar una base de datos vectorial y que se vayan pasando en como extra contexto en cada iteraciÃģn
hermano una consulta este modelo hay una forma de que se pueda conectar a internet ? osea por medo de una api mandarlo una pregunta y el modelo busque en internet y te muestre los datos resumidos ?
Correcto, con OpenAI tendrÃĄs que tener crÃĐditos para poder usar la API, y los crÃĐditos son bÃĄsicamente convertidos a USD, entonces puedes empezar por un monto pequeÃąo y ver cÃģmo te va, segÚn tu uso tampoco es demasiado caro. Hoy en dÃa la tendencia es bajarle el precio a los modelos, y eso implica que a la larga muchas personas podrÃĄn incluso preferir trabajar con una API de terceros por su rÃĄpida respuesta y no tener la necesidad de ejecutar sus modelos en local.
*AHORA HACE UN VIDEO DE COMO CREAR IMAGENES CON STABLE DIFFUSION SIN USAR LA INTERFACE COMFYUI, OSEA DIRECTAMENTE DESDE LA LINEA DE COMANDOS, HACIENDO Q LAS IMAGENES GENERADAS LA GUARDE EN UNA CARPETA SIN MOSTRARLAS SOLO CREARLAS CON EL PROMPT Q UNO LE DE Y LISTO*
Puedes usar la API de stable diffusion, es la forma mÃĄs fÃĄcil, o intentar correrlo en local, un pequeÃąo script de Python para recibir el input y listo
*NO SE NESECITA **#TARGETA** DE VIDEO EXTERNA PARA CORRER LLAMA NI OLLAMA, YO TENGO CORRIENDO EN MI PC, CON TARGETA DE VIDEO INTERNA OSEA CON SOLO CPU LO ESTOY CORRIENDO, Y TENGO EL MODELO PHI3 Y LLAMA 3 Q SON LOS MEJORES ACTUALMENTE Y FUNCIONAN REGULARMENTE NO RAPIDO PERO FUNCIONAN Y SOLO TENGO 4GB DE MEMORIA RAM*
ÂĄMuchÃsimas gracias! Ya estaba casi desanimÃĄndome pero tres comentarios en un vÃdeo es para mà un gran logro. Ya voy a empezar a colocar: "Se vienen cosas" jajajaj, pero es la verdad, intentarÃĐ hacer cada vez cosas que me parezcan mÃĄs interesantes para mostrarle a la gente, no importa si no entienden, lo importante es saber que estamos en una ÃĐpoca de contÃnuos cambios a nivel tecnolÃģgico que son interesantes de apreciar. ÂĄFeliz dÃa!
@@ai.charly Todo lleva su proceso, no te desanimes si no ves muchos comentarios. Siempre sÃĐ fiel a lo que sea que te guste y desees compartir, las personas que sepan apreciar ese contenido y que tengan la misma pasiÃģn llegarÃĄn. Tal vez no haya entendido, pero estos vÃdeos siempre abren una puerta a la gente curiosa como yo y quiÃĐn sabe, tal vez algÚn dÃa podrÃa dedicarme a esto. ÂĄFelÃz dÃa para ti tambiÃĐn! Y mucha suerte con tu canal. Saludos.
Hay temas y videos que el problema no es del que transmite que lo hace con esfuerzo. Valoralo. Esfuerzate. Tal vez no eres la persona adecuada para verlo.
ÂŋQuÃĐ parte se te hizo mÃĄs complicada? Estoy considerando hacer una segunda parte de ese vÃdeo para mostrar mÃĄs cosas que se pueden hacer en local.
Otros vÃdeos que podrÃan interesarte:
ðĶCOMO AGREGAR DOCUMENTOS A LLAMA 3 8B en LOCAL - RAG con CHROMA - 100% PRIVADO Y GRATIS â REPO
th-cam.com/video/vjQAxJ7OVxw/w-d-xo.html
CÃģmo ejecutar OpenWebUI en local con Llama3-8b en local y Ollama
ðŧðĪ th-cam.com/video/xQLzkx6PWHo/w-d-xo.htmlsi=LIbXA-49lL83M9sr
TUTOR DE IDIOMAS EN LOCAL
th-cam.com/video/sg_XoPrwjI0/w-d-xo.htmlsi=geqA3ercAce002hD
buen video, ya tienes un suscriptor mas :)
muy importante poner las especificaciones tecicas de tu ordenador de pruebas , mas que todo de tu gpu, por lo demas muy buen bideo.
Sos lo mÃĄs grande que hay amigo. Impresionante y recomendable
MuchÃsimas gracias por tu comentario, Alejandro, ÂĄme alegra que te haya parecido Útil la informaciÃģn!
Excelente, gracias.
Seria super crear uno para consultar informaciÃģn local de la empresa.
ÂĄPor supuesto! Si tu empresa tiene documentos y quieres aprovechar las capacidades de una IA usarlos, es ideal. Ahora, de las IAs que he probado, llama-3 8b NO es la mejor, es buena si tiene la informaciÃģn necesaria, pero tiende a alucinar y no siempre sigue al pie de la letra las instrucciones. Te recomendarÃa que vieras el Último vÃdeo que subÃ, tiene un repo que te puede ser de mucha utilidad
Enhorabuena. Buena explicacion y precisa. Suerte y exito en tu canal
ÂĄMuchas gracias por tu comentario! Poco a poco estoy intentando mejorar la calidad de los vÃdeos, no hago guiones asà que a veces me equivoco en las palabras pero bueno, con la ediciÃģn a veces corrijo. QuÃĐ bueno que te haya gustado.
Excelente espero que tu canal crezca+++, excelente contenido
Muchas gracias por tu comentario, cuando alguien comenta me anima a seguir haciendo vÃdeos
Muchas gracias!
Muy buen canal! Me suscribà ð
buenisimo ðĨðĨ
@@M3taDarko gracias por tu comentario, me alegra que te haya gustado ððŧ
Amigo gracias por la explicaciÃģn, una consulta se puede usar LM Studio en vez de ollama? Para realizar e asistente de voz
@@joselimo4156 Claro que sÃ, es cuestiÃģn de ver la documentaciÃģn.
@@joselimo4156 Y mientras respondÃa el mensaje lo hice, y la respuesta es: Use models through the in-app Chat UI or an OpenAI compatible local server
@@joselimo4156 Admito que no he probabo LM Studio, aunque trabajo con dos mÃĄquinas y una de ellas lo tiene, al tener una API tipo OpenAI hace que el paso de cambio pueda ser tan pequeÃąo como un endpoint.
Le faltan tres ceros a tu nÚmero de suscriptores. Eres un crack.
ÂĄEn el futuro puede ser! Ahora estoy siendo mÃĄs constante y eso trae sus frutos, ÂĄgracias por tu comentario! Espero que te siga gustando la informaciÃģn
me gustarÃa que hubiese una herramienta (opensource) que transcriba videos de youtube o cualquier fuente (o descargue las transcripciones existentes en los subtÃtulos con AutoSubSync) para resumirlos con chatgpt u otra ia, pero todo integrado, que solo tenga que pasarle la url o la ruta local del video y poder preguntarle con prompts para pedirle que me haga un resumen o cualquier pregunta relacionada, eso ahorrarÃa muchisimo tiempo a muchÃsima gente, para no tener que ver aburridas conferencias o reuniones completas, te animas? :)
@@leonardox222 de hecho ya tengo una herramienta similar que hice para traducir los vÃdeos que hago y agregarles las transcripciones, serÃa de colocarle una nueva feature y hacer el vÃdeo. Excelente idea amigo ððŧ siÃĐntate y prepÃĄrate y cuando lo suba lo verÃĄs. Aunque habrÃa que usar Whisper timestamped en local
@@ai.charly genial!!! ð, lo espero ancioso, muchas gracias!! Lo compartirÃĐ con todos mis contactos
Hola! Se puede instalar llama 3.1 en oobaboonga web ui?
Muy buenos tus videos!!!. Como puedo hacer para crear un chat que lea datos de un archivo de Excel y responda sobre ese contenido?. Es posible descargar los modelos y agregarlos en mis proyectos?. Continua con tus videos y ayudando a los que estamos comenzando. Exitos!!!
Ya tengo una app que es capaz de leer archivos y responder sobre ellos, te explico cÃģmo hacerlo:
Si lo haces con Python, ten en cuenta que es cuestiÃģn de usar librerÃas como csv para extraer el texto del archivo csv que puedes exportar de Excel, pasÃĄrselo al modelo en el mensaje del usuario y claro, adaptar el prompt segÚn lo que deseas conseguir. Limitaciones: Ten en cuenta que los modelos actuales de IA no son buenos para matemÃĄticas, asà que el csv es un archivo Útil si quieres usar la IA para anÃĄlisis y entender de quÃĐ van los datos o quizÃĄs llenar espacios que faltan, pero no matemÃĄticas.
Y sÃ, tambiÃĐn es posible descargar los modelos para usarlos en tus proyectos, con ollama puedes hacerlo, aunque yo te recomendarÃa no tenerlos en los mismo proyectos porque dependiendo de dÃģnde lo tienes desplegado puede tener problemas de performance, lo modelos pequeÃąos puedes correr en CPU, pero para modelos mÃĄs grandes ya necesitas mayor capacidad de cÃģmputo. En estos dÃas voy a desplegar una instancia de Llama en Azure, cuando lo haga hago un vÃdeo de cÃģmo lo hice.
ÂĄMuchas gracias por tu comentario!
@@ai.charly Muchas gracias por la respuesta, empecÃĐ a ver tus videos desde el principio y tienes una forma de explicar las cosas de manera muy simple. Podrias hacer un video mostrando como empezar con un proyecto simple, pero como lo harÃas de forma "profesional"?. Muchas gracias espero tus proximos videos!!
Acabo de subir un vÃdeo hace rato de un repo con Chroma y Llama, ademÃĄs que tiene un pequeÃąo script con internet aÚn en desarrollo, cuando estÃĐ listo subo un vÃdeo sobre eso.
th-cam.com/video/vjQAxJ7OVxw/w-d-xo.htmlsi=TF_6vYy41p97VWCS
@@ai.charly Seria interesante ese video. El despliegue en azure es en servidor gratuito de pruebas o de pago? Lo haces sobre cpu solo,
o se contrata gpu tambien?
De hecho quiero hacer un vÃdeo en detalle sobre eso, los precios de Azure para mÃĄquina potentes me parecen exorbitantes y la verdad la interfaz es HORRIBLE, peor que Google Cloud, entonces estoy viendo cuÃĄl es la mejor alternativa para desplegar modelos grandes no tan grandes, y modelos muy grandes en el futuro.
Es posible conectarlo a whastapp o telegram, ademas de que tenga historial o memoria de cada persona con la que hablas integrado con un prompt?
. gracias
Sà se podrÃa, subà otro vÃdeo en el que le agrego Chroma y un pequeÃąo servidor de Fastapi que se puede customizar para usar la API de Telegram (que es mucho mÃĄs developer friendly que la de WhatsApp). Con respecto a la memoria, con pasar los Últimos 4 mensajes suele ser suficiente, y si ya quieres una memoria mÃĄs a largo plazo podrÃa usar una base de datos vectorial y que se vayan pasando en como extra contexto en cada iteraciÃģn
El video estÃĄ genial, pero tengo una pregunta, en caso de que ya no quiero tenerlo en local, como le hago para desinstalar el modelo?
Desinstalar el modelo es igual de fÃĄcil, Âŋle gustarÃa ver un tutorial de cÃģmo hacerlo?
hermano una consulta este modelo hay una forma de que se pueda conectar a internet ? osea por medo de una api mandarlo una pregunta y el modelo busque en internet y te muestre los datos resumidos ?
ÂĄClaro que sÃ! Si este comentario llega a 5 likes, subo un tutorial de cÃģmo modificarlo
hay una forma de conectar llama 3 a internet o sea que trabaje con datos actuales ?
ÂĄPor supuesto! Hay muchas formas de hacerlo, podrÃas usar requests en Python, o podrÃas usar SerpAPI para obtener resultados de Google a una query
Hola, gracias por el video! Tengo entendido que OpenAi no es gratuita, verdad?
Correcto, con OpenAI tendrÃĄs que tener crÃĐditos para poder usar la API, y los crÃĐditos son bÃĄsicamente convertidos a USD, entonces puedes empezar por un monto pequeÃąo y ver cÃģmo te va, segÚn tu uso tampoco es demasiado caro. Hoy en dÃa la tendencia es bajarle el precio a los modelos, y eso implica que a la larga muchas personas podrÃĄn incluso preferir trabajar con una API de terceros por su rÃĄpida respuesta y no tener la necesidad de ejecutar sus modelos en local.
ÂĄMuchas gracias por tu comentario!
*AHORA HACE UN VIDEO DE COMO CREAR IMAGENES CON STABLE DIFFUSION SIN USAR LA INTERFACE COMFYUI, OSEA DIRECTAMENTE DESDE LA LINEA DE COMANDOS, HACIENDO Q LAS IMAGENES GENERADAS LA GUARDE EN UNA CARPETA SIN MOSTRARLAS SOLO CREARLAS CON EL PROMPT Q UNO LE DE Y LISTO*
Puedes usar la API de stable diffusion, es la forma mÃĄs fÃĄcil, o intentar correrlo en local, un pequeÃąo script de Python para recibir el input y listo
*NO SE NESECITA **#TARGETA** DE VIDEO EXTERNA PARA CORRER LLAMA NI OLLAMA, YO TENGO CORRIENDO EN MI PC, CON TARGETA DE VIDEO INTERNA OSEA CON SOLO CPU LO ESTOY CORRIENDO, Y TENGO EL MODELO PHI3 Y LLAMA 3 Q SON LOS MEJORES ACTUALMENTE Y FUNCIONAN REGULARMENTE NO RAPIDO PERO FUNCIONAN Y SOLO TENGO 4GB DE MEMORIA RAM*
Realmente los modelos pequeÃąos corren bastante bien en CPU, tan solo necesitas mÃĄs poder si vas a usar modelos muy grandes
Lama 3 funciona incluso en Android usando lama cpp en termux.
No entendà nada, pero buen vÃdeo bro!
ÂĄMuchÃsimas gracias! Ya estaba casi desanimÃĄndome pero tres comentarios en un vÃdeo es para mà un gran logro.
Ya voy a empezar a colocar: "Se vienen cosas" jajajaj, pero es la verdad, intentarÃĐ hacer cada vez cosas que me parezcan mÃĄs interesantes para mostrarle a la gente, no importa si no entienden, lo importante es saber que estamos en una ÃĐpoca de contÃnuos cambios a nivel tecnolÃģgico que son interesantes de apreciar.
ÂĄFeliz dÃa!
@@ai.charly Todo lleva su proceso, no te desanimes si no ves muchos comentarios. Siempre sÃĐ fiel a lo que sea que te guste y desees compartir, las personas que sepan apreciar ese contenido y que tengan la misma pasiÃģn llegarÃĄn.
Tal vez no haya entendido, pero estos vÃdeos siempre abren una puerta a la gente curiosa como yo y quiÃĐn sabe, tal vez algÚn dÃa podrÃa dedicarme a esto.
ÂĄFelÃz dÃa para ti tambiÃĐn! Y mucha suerte con tu canal. Saludos.
LM STUDIO? GPT4ALL
Para allÃĄ vamos, hay que analizar cuÃĄles son los mejores
Muy poco didÃĄctico, contenido atropellado. Tienes grandes conocimientos en computaciÃģn, pero pocos o nada como docente. No me gustÃģ, lo siento.
@@akhathos1618 estÃĄ muy bien, no tiene que gustarle a todos, imagino que buscas algo mÃĄs desde cero. ÂĄGracias por tu comentario!
Muy complicado, un ejemplo y deja de dar tantas vueltas ..malo
Hay temas y videos que el problema no es del que transmite que lo hace con esfuerzo. Valoralo. Esfuerzate. Tal vez no eres la persona adecuada para verlo.
ÂŋQuÃĐ parte se te hizo mÃĄs complicada? Estoy considerando hacer una segunda parte de ese vÃdeo para mostrar mÃĄs cosas que se pueden hacer en local.