Anything LLM - Conecta tus documentos con agentes LLM locales, remotos y mucho más!

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 ต.ค. 2024

ความคิดเห็น • 69

  • @LaHoraMaker
    @LaHoraMaker  4 หลายเดือนก่อน +10

    Gracias a Javi nos dimos cuenta en el minuto 9:27 que no estabamos compartiendo la pantalla! Puedes saltar directamente a ese punto para ver cómo se configura Anything LLM para conectar con cualquier fuente!

  • @graphenowolf
    @graphenowolf 9 วันที่ผ่านมา

    Realmente excelente tu video, desde que vi tu canal veo explicas de una manera fácil y con ejemplos prácticos y reales, gracias!!

  • @fblua
    @fblua 4 หลายเดือนก่อน +2

    Excelente. Muy útil. Se agradece el esfuerzo y la generosidad de compartir vuestro conocimiento. Que continúen los vídeos.
    Gracias nuevamente. Saludos desde Buenos Aires, Argentina.

  • @ecmiguel
    @ecmiguel 2 หลายเดือนก่อน +1

    Eres lo máximo,,,, todos tus videos son interesantes. Saludos desde Perú.!

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน

      Saludos y gracias. Me alegro mucho de que te gusten los videos.

  • @josecomas150
    @josecomas150 4 หลายเดือนก่อน

    Justo estaba pensando lo extraño que era que no tuvieses la pantalla puesta y has contestado al instante la pregunta de Javi. Ha parecido magia, muy bueno todo fenómeno.

  • @pako360
    @pako360 2 หลายเดือนก่อน

    Perfecto lo que estuve buscando hace mucho tiempo!!!!! Gracias miles Maestro

  • @javaboy6581
    @javaboy6581 4 หลายเดือนก่อน

    Buenas Maestro, me guardo el vídeo que lo acabo de ver. Tiene pintaza

    • @LaHoraMaker
      @LaHoraMaker  4 หลายเดือนก่อน

      Ya me dirás a ver qué te parece!

  • @marianodeiriondo6120
    @marianodeiriondo6120 2 หลายเดือนก่อน

    Muy bueno y muy claro!
    En la empresa donde trabajo estamos buscando desarrollar un chatbot que le sirva de soporte a los empleados de mesa de entrada (quienes reciben las llamadas y consultas) para poder dar respuesta sobre procesos muy secuenciados y procedimentados a los clientes.
    Para que tener un poco mas de contexto: La empresa es una incubadora de emprendedores que presta ayuda a pequeñas empresas en lo referido a aplicación a prestamos, grants, seguros necesarios para la accion, constitución de la empresa, etc.
    Crees que utilizar LLM Studio con Ollama + Anything LLM puede ser una buena opcion para lograr esto? Hay alguna otra opcion que creas viable u optima?
    En lo referido a los Inputs: se puede usar una base de datos MySQL? Audios de llamadas transcriptos?
    Desde ya muchas gracias!

  • @IO-Labs-123
    @IO-Labs-123 หลายเดือนก่อน

    Que buen video, muchas gracias!!

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน

      Gracias a ti por comentar!

  • @fernandoament
    @fernandoament หลายเดือนก่อน +1

    MUCHAS GRACIAS MUY INTERESANTE¡¡

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน

      Muchas gracias por tu comentario Fernando. Me alegro que te gustara el video.

  • @walterhectorgonzalesarnao1869
    @walterhectorgonzalesarnao1869 4 หลายเดือนก่อน +1

    saludos desde le Peru !!!!

    • @LaHoraMaker
      @LaHoraMaker  4 หลายเดือนก่อน

      Saludos Walter, desde Madrid!

  • @zonadock
    @zonadock 4 หลายเดือนก่อน +1

    Muy interesante. Gracias, César.

  • @EDGSV-f3m
    @EDGSV-f3m 22 วันที่ผ่านมา

    🎯 Key points for quick navigation:
    00:00:08 *🚀 Overview of Anything LLM*
    - Introduction to Anything LLM, a solution for connecting various LLMs with data sources.
    - Benefits include running agents, querying documents, and connecting to different platforms like TH-cam.
    00:02:08 *🧩 Installation and Features*
    - Installation process on different operating systems and the integration of local and remote services.
    - Discussion on the tool's features, including embeddings, transcription, and model integration.
    00:05:06 *🛠️ Configuration and Usage*
    - Explanation of workspace setup and configuration options, including setting up local services like Olama.
    - Discussion on choosing embedding models and how they affect performance based on document language.
    00:11:10 *📄 Document Integration*
    - Guide on adding documents and generating embeddings for more effective querying.
    - Example of integrating documents from DSPy and utilizing them in the workspace for reference.
    00:19:06 *🔗 Connectivity with Local Tools*
    - Connectivity with local tools like LLM Studio, allowing for embedded document management.
    - Explanation on setting up LLM Studio as a server for enhanced local processing and efficiency.
    00:22:56 *🖥️ Local LLM Performance*
    - Discussing the setup and compatibility of local models with OpenAI and others,
    - Comparison of models and setup for better performance evaluation,
    - Explanation of loading models onto GPU to enhance processing speed.
    00:28:02 *🚀 Using LLM Studio and Server Setup*
    - Transitioning LLM Studio to a server setup for local use,
    - Demonstrating the steps to activate server mode and its benefits,
    - Details on changing models and server access permissions.
    00:33:11 *🔀 Switching Between Local and Remote Models*
    - Flexibility of switching between local models and remote services like Grok,
    - Performance considerations and efficiency contrasts between different setups,
    - Demonstrating practical applications and tests in real-time.
    00:37:47 *📊 GROK Demonstration and API Usage*
    - Introduction to Grok, highlighting its high-speed capability,
    - Practical examples showing the performance of answering queries using Grok,
    - Discussion on the services and documentation access through Grok.
    00:42:24 *📂 Using Agents and Advanced Features*
    - Exploring the agent functionalities within LLM, such as RAG and web browsing,
    - Overview of data integration features like Document Connectors and multi-source imports,
    - Demonstration of using agents to summarize and interact with various datasets.
    00:46:47 *🎥 Video Transcription and Application*
    - Utilizing agents to extract and summarize video transcriptions from TH-cam,
    - Demonstration of integrating video transcripts into LLM for querying,
    - Examples of practical use and the potential of these features inside LLM environments.
    00:47:15 *📂 Document Management in GitHub Repositories*
    - Managing and downloading files from GitHub repositories,
    - Using a script to convert GitHub to file archives efficiently,
    - Exploring directory contents and ensuring full repository downloads for comprehensive access.
    00:51:21 *⬇️ Data Connection and Website Download Configuration*
    - Demonstrating how to download specific levels of website documentation,
    - Configuring data limits for efficient information retrieval,
    - Exploring document embedding and search functionality.
    00:56:33 *🧠 Developing Prototypes with Flowise and Rivet*
    - Discussing Flowise AI as a visual low-code interface for workflows,
    - Comparing prototype development tools: Flowise and Rivet,
    - Highlighting ease of use for rapid prototyping and integration with model testing.
    01:02:29 *⚙️ Configuring Rivet for Llama and Plugin Integration*
    - Setting up Rivet for seamless execution using Llama and plugins,
    - Configuring node types for plugin compatibility,
    - Leveraging Rivet for structured workflow with prompt-response dynamics.
    01:08:51 *🛠️ Rivet’s Functional Capabilities and Demonstration*
    - Demonstrating dynamic content updates and formatting within Rivet,
    - Utilizing plugins for diverse model access and seamless data processing,
    - Exploring Rivet's flexibility in composing agents and workflows effectively.

  • @josemalive
    @josemalive 2 หลายเดือนก่อน +1

    Hola Cesar, una pregunta. Permite Anything LLM levantar un servidor como hace LM Studio para poder beneficiarse de ese "pseudoRag" que has montado con Anything LLM y los documentos en vectorial?
    Muchas gracias y excelente video.

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน +1

      Hola Josema, si y no... Tiene su API pero no es compatible con la de OpenAI. docs.anythingllm.com/features/api

    • @josemalive
      @josemalive หลายเดือนก่อน

      @@LaHoraMaker Muchas gracias por la respuesta. Saludos!

  • @jackgaleras
    @jackgaleras 4 หลายเดือนก่อน

    9:26 con pantalla ja ja gracias buen video tomatu like

  • @williams7073
    @williams7073 2 หลายเดือนก่อน +1

    Buenas, un buen trabajo, te vas un poco a veces por los cerros de Ubeda de lo que es el contexto del directo, pero aún así creo que lo explicas todo bastante bien y se ve que controlas de lo que hablas. Así que enhorabuena por el trabajo....😂😂😂
    Una duda personal, entre Anything LLM y Open Webui, cual crees que es más eficiente y da mejores resultados?
    Propuesta: Seria interesante que hablaras de AutoGPT, considero que ese programa le vendría bien conocerlo a la mayoría de los que estamos aquí.
    Con respecto a AutoGPT me surge la duda de si usar Auto-GPT 5.1 con la Gui de Neuronic, o usar directamente uno con Gui integrada como podría ser el tractr/auto-gpt:4.0.
    Ya nos dirás cual es tu experiencia al respecto, si los probaste, o sino animate un día, considero que es un programa muy interesante.
    Bueno, te mando un saludo y se agradecen tus comentarios.

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน +1

      Los directos siempre son un reto, porque ando haciendo una tarea y leyendo las dudas y comentarios de las personas que están en directo y... a veces acabamos totalmente en Úbeda!
      La parte buena, es que a veces descubrimos cosas nuevas que pueden interesar a otra gente.
      En cuanto a AnythingLLM y OpenWebUI creo que depende mucho de lo que quieras hacer con ellos. AnythingLLM tiene la parte de agentes (pero nunca me han llegado a funcionar super bien con modelos locales). OpenWebUI tiene las librerías de templates y documentos muy fáciles (y tengo la sensación de que las últimas versiones tienen muchas funcionalidades extra). Por mi parte, para comparar salidas de modelos estoy probando otro UI sobre Ollama que se llama Msty.
      Me apunto AutoGPT para probarlo y compartir impresiones. He probado varios frameworks de agentes y uno de los retos es encontrar ejemplos que interesen (y que no sean super complejos)

    • @williams7073
      @williams7073 หลายเดือนก่อน

      @@LaHoraMaker lo primero, gracias por responder.
      En segundo lugar, he probado autogpt e investigado más a fondo, y considero que le queda mucho trabajo por detrás que hacer aún para que sea realmente útil. Por ahora pcoo más que para jugar con el vale. Aunque está en constante actualización y podría ser interesante de cara a un futuro próximo.
      Pero Autogen Studio 2 si que parece que ya tiene más trabajo hecho (dado que está Microsoft por detrás) y da la impresión de que podria ser la base de GPT 5. Con lo cual te cambio la idea de traer AUTGPT para traer AUTOGEN, que además nos será más fácil de entender y usar a los que no sabemos tanto de programación o workflows agenticos de los que estamos por aquí, ya que es low code.
      En cuanto a los directos, no era una critica, sino más bien una critica constructiva, tu hazlo como buenamente puedas y quieras, que para eso es tu canal.
      Un saludo y espero ver cosas interesantes por aquí... 😉

  • @MartinRodrigo-s2x
    @MartinRodrigo-s2x 3 หลายเดือนก่อน

    Hola, tengo una duda. Si quiero vincularlo con Poe, es posible? porque hay un apartado, pero sólo recomienda Modal

  • @bechelego5337
    @bechelego5337 2 หลายเดือนก่อน +1

    Hola César, ¿qué tal? Antes que nada me gustaría felicitarte por tu labor, ya son varios vídeos tuyos los que he visto y los encuentro de gran valor divulgativo, estoy aprendiendo mucho. Sin embargo, tengo una consulta específica que no he logrado resolver a día de hoy. Se me ha encargado generar una base de datos que contenga todos los conocimientos pertenecientes a artículos, libros y podcasts de un experto en neurociencia con el fin de que una ia se alimente de estos y pueda manejar información de neurociencia que pertenezca a las conclusiones de este experto. El caso es que tengo un quebradero de cabeza porque no sé cómo hacerlo. He intentado el RAG pero he descubierto que hay un máximo de tokens por interacción, cuando el objetivo final de esta ia es que con una sola pregunta pueda responder basándose en la información de todos los documentos (que son alrededor de 1000000 de palabras, lo que equivale a muchísimos tokens). Entonces contemplé el fine-tuning, pero no sé si es algo accesible para mí o se debería contratar un servicio. No sé si es una tarea que pueda solventarse con RAG ya que no llego a entender del todo cómo funciona el tema de los tokens, en el sentido de cómo lee los documentos, si lo hace todo del tirón, si va en busca de palabras clave para poder abarcar mucho más texto sin tener que analizarlo todo... Mi pregunta es, sin hacerte perder tiempo, si se te ocurre alguna forma de abarcar esta tarea, o cuál es la mejor. Mil gracias de antemano.

    • @remota2acosta756
      @remota2acosta756 หลายเดือนก่อน +1

      Hola saludos, simplemente una opinion para que lo tengas en cuenta por ejemplo: en cloud de antrop. nos dice que cuando subes un archivo sea lo mas preciso con el pront ya que "siempre se vuelve a leer el archivo entero" para poder dar una mejor respuesta. con respecto a tu aplicacion claramente (1000000 de palabras) es demasiado una base de inicio que considero es que puedas generar distintos temas resumidos por ejemplo : 300pag,200pag,300pg... ect que cada uno hable dentro de cierto contexto y cuando tengas que resivir una respuesta basada en el pensamiento de este (experto en neurociencia ) puedas conseguir dicha respuesta, teniendo en cuenta que justamente un RAG es para que el LLM "Aprenda" de tus documentos en una forma directo. simplemente es una opinion que tal vez te oriente y puedas probar.
      saludos!!!

    • @bechelego5337
      @bechelego5337 หลายเดือนก่อน +1

      @@remota2acosta756 Aplicaré tus consejos ya que la información fragmentada y resumida es lo que parece que mejor funciona a día de hoy en un RAG. Muchas gracias por tu gran respuesta y por tomarte el tiempo de contestarme, eres un crack!! ❤

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน

      Hola! Estoy retomando los comentarios que se me quedaron en el tintero estas vacaciones. En cuanto a la generación de contenidos, con el RAG vas a poder avanzar mucho. El reto fundamental es como extraer la información de forma precisa y luego recuperarla ante distintas preguntas. Existen frameworks específicos para este tipo de tareas como LlamaIndex o Haystack. Con estos podras leer los documentos y almacenarlos en una base de datos vectorial. De hecho, podrás también decidir cuántos fragmentos recuperar hasta completar el tamaño de tu ventana de contexto (8k para los modelos más pequeños y 128k para modelos más grandes).
      De cara a hacer fine-tuning, hay herramientas específicas como augmentoolkit para generar conjuntos de datos a partir de documentos base: github.com/e-p-armstrong/augmentoolkit (Eso si, no son triviales del todo de usar)
      Espero que te resulte útil!

  • @juanpabloabedala5828
    @juanpabloabedala5828 2 หลายเดือนก่อน +1

    que crack

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน

      Gracias por comentar Juan Pablo!

  • @juancazares-du4vs
    @juancazares-du4vs 4 หลายเดือนก่อน

    Muy bueno gracias amigo

  • @jribesc
    @jribesc 4 หลายเดือนก่อน

    Gracias Cesar !!!

  • @ser12369
    @ser12369 4 หลายเดือนก่อน +1

    Muchas gracias

  • @JO-rp2ec
    @JO-rp2ec 4 หลายเดือนก่อน

    he intentado hacer lo mismo pero con llama3 y LMStudio y no me ha citado los txt. alguna pista? es posible que no tenga agentes mi ia a traves del servidor de LMStudio?

  • @nyambe
    @nyambe 3 หลายเดือนก่อน

    Interesante contenido

  • @pablodaff
    @pablodaff 3 หลายเดือนก่อน +1

    Buenas, yo quiero que solo me responda lo que hay en los documentos y que si no lo hay me diga que no tiene la respuesta, es posible esto? porque le subi todos documentos tecnicos y cuando le pregunte como hacer un sandwich me respondio... estoy perdido la verdad.

    • @LaHoraMaker
      @LaHoraMaker  2 หลายเดือนก่อน +1

      Gran pregunta. Según los modelos, pueden funcionar mejor o peor detectando cuando el contexto y la pregunta no tienen mucho que ver. Supongo que para este caso de uso, tendrías que indicarle en el prompt qué parte es la pregunta y cuál la información de contexto.

  • @toniduque4882
    @toniduque4882 4 หลายเดือนก่อน

    Anything LLM te descarga todo o hay que descargar los modelos aparte? lo he ejecutado y en llm preferences y embedder no me carga ningún modelo al elegir ollama como provider (en la ventana chat model selection y embedding selection aparece en ambas --loading available models --)

    • @ccristian1
      @ccristian1 3 หลายเดือนก่อน

      me paso exactamente lo mismo, incluso ingrese la url de ollama local (que me aparece corriendo sin ningun problema) y no aparecen modelos ni embed disponibles para elegir, continue usando la configuracion de anything pero lo ideal seria seguir este video que esta genial por lo demas, gracias!, ¿alguien conoce este error?.

    • @Ger-IO
      @Ger-IO 27 วันที่ผ่านมา

      Yo instale Ollama y por defecto viene Solar. Luego, desde PowerShell, me descargué el modelo embebed que menciona, con el comando:
      ollama pull nomic-embed-text:latest
      Luego ya aparecerá para seleccionar en embebed si mantienes Ollama ejecutado. PowerShell si se puede cerrar.

  • @jjen9595
    @jjen9595 4 หลายเดือนก่อน +1

    Hola, se puede abrir lm studio a travez de langchain?

    • @LaHoraMaker
      @LaHoraMaker  4 หลายเดือนก่อน

      Puedes llamar desde Langchain a LM Studio con el módulo de OpenAI. Lo único que tienes que definie el parametro openai_api_base='localhost:1234/v1" para que conecte con el servidor local.
      api.python.langchain.com/en/latest/llms/langchain_openai.llms.base.OpenAI.html

    • @jjen9595
      @jjen9595 4 หลายเดือนก่อน

      @@LaHoraMaker genial, aunque ahora debo convertirlo a typescrib, gracias

  • @Jesulex82
    @Jesulex82 หลายเดือนก่อน

    podrias hacer un tutorial para chat de voz y que vaya tan rapido como LLM Studio? gracias

  • @locusruizlopez5997
    @locusruizlopez5997 หลายเดือนก่อน

    yo estoy teniendo problema con Lm studios intentando conectarme con el sdk desde mis programas, a ver si con AnythingLLM lo consigo

    • @LaHoraMaker
      @LaHoraMaker  หลายเดือนก่อน

      ¿Qué tal te ha funcionado AnythingLLM?

  • @estebanfranco5939
    @estebanfranco5939 4 หลายเดือนก่อน

    Muy buen video. Estoy tratando de nutrir un bot en azure con mis documentos de atlassian y consumirlos desde microsoft teams, es posible?

    • @LaHoraMaker
      @LaHoraMaker  4 หลายเดือนก่อน

      Anything LLM tiene conector para Confluence como origen de los datos y puede conectar con Azure OpenAI como backend. La propia herramienta también tiene una API que permite ofrecer las capacidades configuradas vía AnythingLLM, aunque no la he probado todavía: docs.useanything.com/features/api
      Así que sería posible conectar este chatbot para que tirara de las fuentes de Confluence con este sistema.

  • @Edu2pc
    @Edu2pc 4 หลายเดือนก่อน +1

    Me interesa herramientas low code tipo flowiseai

  • @LIGTH-BIT
    @LIGTH-BIT 4 หลายเดือนก่อน

    como se podria hacer con pytho?

  • @MachineLearning-b4n
    @MachineLearning-b4n 4 หลายเดือนก่อน

    Parece que no corre con la GPU y no veo opción de modificar este parametro como en LLM Studio

    • @LaHoraMaker
      @LaHoraMaker  4 หลายเดือนก่อน +1

      ¿En qué sistema operativo lo estás probando? En Windows, incluye Ollama que debería detectar automáticamente tu GPU.
      Por otra parte, ¿has probado a conectar Anything LLM a tu LM Studio local?

    • @leadnauta
      @leadnauta 4 หลายเดือนก่อน +1

      Si a mi no me funciono el embedding con Ollama, tuve que correrlo con Llm studio, prueba a ver, y el modelo ollama3 si pude correrlo con Ollama, que dio problemas con los puertos al inicio

    • @MachineLearning-b4n
      @MachineLearning-b4n 4 หลายเดือนก่อน

      @@LaHoraMaker
      Hola , lo primero gracias por contestar y enhorabuena por tu canal .
      Estoy usando W10 y como LLMProvider los modelos que proporciona por defecto AnythingLLM , en concreto Llama2 7B , mi procesador tiene una GPU integrada y es esa la que Anything está usando , eso es lo que veo al monitorizar los recursos del sistema mientras lanzo preguntas , para salir de dudas desconecté la RTX3060 del equipo y el Anything se comporta igual , este comportamiento me recuerda a LLM Studio cuando no activas la opción de uso del 100% de la GPU Nvidia .
      Probaré a usar como servidor LLMStudio a ver si de esta manera solvento el problema y comentaré resultados.
      Un saludo

    • @MachineLearning-b4n
      @MachineLearning-b4n 4 หลายเดือนก่อน

      @@LaHoraMaker Solucionado , con Ollama como Servidor como muestras en el video , cargandole Llama3 8b todo ok , parece que el problema es que usando como LLMProvider el propio Anything corre los modelos sobre la CPU o eso parece .....

  • @yedaiescueladerobotica3694
    @yedaiescueladerobotica3694 4 หลายเดือนก่อน

    Gracias Cesar, no conocia ninguna de las aplicaciones, yo trabajo con FlowiseAI, para la creacion y puesta en produccion de flujos para llms.
    Estaría bien hacer algun flujo con ollama y como usar memorias, embedins y demas en Rivet
    Gracias de nuevo

  • @adanpalma4026
    @adanpalma4026 2 หลายเดือนก่อน

    He visto cientos de videos que prometen eso he probado todo y el porcentaje de éxito de la recuperación 60% si acaso
    Y eso estoy hablando de documentos sencillos cuando hablamos de documentos complejos ni te cuento
    Termina uno pagando servicios como la llamaparsw de llamaindex y usando modelos de pago porque si el proceso de Chungking y en Bing es malo pues el modelo te va a responder mal

  • @sebastianmt02
    @sebastianmt02 2 หลายเดือนก่อน

    me volvi loco con esta aplicacion, la verdad probé varios modelos entre ellos Llama3.1, tiene un nivel de error enorme, no es confiable, le cargue varios CSV, PDF, terrible el error, no se si hay alguna version paga o que pero mi experiencia es mala o tal vez los documentos deben cumplir cierto requisito, no se, espero saber el comentario de otros usuarios

  • @LaCompulab
    @LaCompulab 4 หลายเดือนก่อน +2

    Soy yo el único que piensa que nos estas compartiendo la pantalla y no lo estas haciendo? Edito: vale, ya, jaja

    • @LaHoraMaker
      @LaHoraMaker  4 หลายเดือนก่อน +1

      Así fue hasta el minuto 9! Pero gracias a Javi, pudimos solucionarlo antes de que fuera demasiado tarde!

  • @pagutierrezn
    @pagutierrezn 4 หลายเดือนก่อน +1

    Se oye demasiado bajo

    • @LaHoraMaker
      @LaHoraMaker  4 หลายเดือนก่อน

      ¿En qué momento del video se escucha demasiado bajo? ¿O es todo el video en general?

    • @pagutierrezn
      @pagutierrezn 4 หลายเดือนก่อน

      @@LaHoraMaker Desde el principio.

    • @jribesc
      @jribesc 4 หลายเดือนก่อน +1

      @@pagutierrezn Lo siento, pero se oye perfectamente.

  • @nkipa
    @nkipa 4 หลายเดือนก่อน

    comprate un microfono