Si conozco los modelos hasta el modelo 3b, por que no tengo más de 8 gb ram y puedo decir que de agradece que ofrezcan para todas las necesidades desde el 0.5b .. hasta que no tenga un dispositivo de 16 gb supongo para el año que biene para usar el de 7b o el 14b quantificado a ver si puedo con q4Km que es lo más decente en respuestas de calidad Gracias por tu video y a Alibaba
Si! Realmente estos modelos tan pequeños son excelentes para algunas tareas no tan complejas y en proyectos que podamos sacarle el provecho. Espero te resulten muy útiles. Gracias por comentar! 👋
Tengo una Ryzen 7 5700X, 32gb de RAM 3200mhz. Si ejecutas modelos con Ollama, según su documentación te pide el doble de gb de RAM conforme a los parámetros del modelo, por ejemplo, si descargas un modelo de 7 mil millones de parámetros, necesitarías como mínimo 14gb de RAM para ejecutarlo correctamente. ¡Saludos!
Interesante las novedades que presentas. Quisiera consultarte si me puedes dar algunas pautas para poder hacer uso del modelo haciendo uso de API de HuggingFace. Quisiera integrarlo con PHP.
Muchas gracias por compartir este excelente material! Me ha resultado muy útil. Tengo una consulta respecto al formulario de evaluación del modelo: ¿Podrías recomendar alguna fuente bibliográfica o artículo para profundizar más en este tema?
Los dejé en la descripción del video, pero igual te los comparto. En casi todos los videos comparto siempre enlaces para que puedan profundizar en los temas: Enlaces importantes: 🔗 Prueba Qwen2.5 en HuggingFace: huggingface.co/spaces/Qwen/Qwen2.5 🔗 Descarga Qwen2.5 en Ollama: ollama.com/library?q=qwen2.5 🔗 Accede al modelo Qwen2.5-72B Instruct en Open Router: openrouter.ai/models/qwen/qwen-2.5-72b-instruct 🔗 Blog: t.co/3zHNhRKM1m 🔗 Blog (LLM): t.co/b6vjxo0E7t 🔗 Blog (Coder): t.co/a9nDIIXjeS 🔗 Blog (Math): t.co/4VuZi0vlJw
Hola amigo... Gracias por tu trabajo...Te quería contar que lo usé para una "revisión de literatura", sin embargo las "fuentes" las inventó aunque me dió las citas con revista, año en incluso páginas (todo inventado)...Hay que tener cuidado!!!!!!
Para investigación no es bueno y no es recomendable, debido a que no tienen acceso a internet y si suelen inventarse las citas, te recomiendo que para esa tarea utilices otro tipo de herramientas que ya tengan navegación integrada. 👋
Pregunta, tienes un vídeo de cómo usar con proyectos y archivos locales? Es decir que pueda tener memoria, para hacer consultas específicas. Use open web ui, y solo me sirvió para la primera consulta.
Uy que buena pregunta, pues la verdad creo que están compitiendo en ese lugar entre Aider y Claude Dev, ambas opciones son realmente muy buenas. Y ya en cuanto a modelos que puedes usar dentro de cada herramienta que mencione, pues dependerá si quieres usar modelos locales, comerciales o gratuitos (como Gemini, Groq, etc)
LobeChat es una interfaz para implementar APIs de terceros como de OpenAI, Anthropic, DeepSeek, Groq, OpenRouter, etc Y Open Router es un servicio especializado que te brinda la mayoría de modelos disponibles en el mercado a través de una sola API, y no tener que estarte registrando en cada plataforma por separado. También una ventaja es que a veces por ser de algún país, región, idioma, suscripción, etc, tenemos limitaciones para obtener API de alguna empresa, Open Router puede brindarte acceso sin necesidad de procesos muy complicados.
Pues paso a paso, creo que en este punto podría ser la nueva versión de 01-preview, alguna herramienta que trabaje con agentes-subagentes para resolver el problema en partes, o como en el video mencionan, con Qwen pero sus modelos especializados en matemáticas tienen esta funciona de “cadena de pensamientos”. No los he probado, pero estaría muy bueno quizá implementar algún problema así para evaluarlos.
Yo he probado con el de 7b y la verdad es que codificar muy bien lo que se dice muy bien no lo hace, los ejemplos con respecto a otros codificadores son muy básicos, y la verdad es que a veces pierde un poco el contexto. Por lo menos en modo local con 7 b no es muy bueno programando
Si conozco los modelos hasta el modelo 3b, por que no tengo más de 8 gb ram y puedo decir que de agradece que ofrezcan para todas las necesidades desde el 0.5b .. hasta que no tenga un dispositivo de 16 gb supongo para el año que biene para usar el de 7b o el 14b quantificado a ver si puedo con q4Km que es lo más decente en respuestas de calidad
Gracias por tu video y a Alibaba
Muchas gracias a ti por tu comentario y apoyo. Saludos! 👋
Gracias
Buen material¡¡¡
Gracias por apoyar el contenido! 👋
Muy buenos videos. Eres un entusiasta de la IA, ¡Buen nicho!
Muchas gracias por apoyar y comentar! Saludos! 👋
Es una locura porfin podré añadirlo al modelo pequéño a mis proyectos
Si! Realmente estos modelos tan pequeños son excelentes para algunas tareas no tan complejas y en proyectos que podamos sacarle el provecho. Espero te resulten muy útiles. Gracias por comentar! 👋
Muchas gracias por compartir conocimientos.
Gracias a ti por comentar, saludos! 👋
Que buen contenido, gracias por compartir.
Gracias a ti por comentar y apoyar el contenido! 👋
Muy buen vídeo.
Podrías hablarnos de tu setup? Con que ordenador lo ejecutas en local? Qué características recomiendas?
Gracias
Tengo una Ryzen 7 5700X, 32gb de RAM 3200mhz. Si ejecutas modelos con Ollama, según su documentación te pide el doble de gb de RAM conforme a los parámetros del modelo, por ejemplo, si descargas un modelo de 7 mil millones de parámetros, necesitarías como mínimo 14gb de RAM para ejecutarlo correctamente. ¡Saludos!
Gracias por compartir amigo... Cómo siempre un crack....
Gracias a ti por comentar ! 👋
Interesante las novedades que presentas. Quisiera consultarte si me puedes dar algunas pautas para poder hacer uso del modelo haciendo uso de API de HuggingFace. Quisiera integrarlo con PHP.
una pregunta en la pagina ya no sale Q8 solo hay Q4_K_M su ultima Updated 3 days ago
Muchas gracias por compartir este excelente material! Me ha resultado muy útil. Tengo una consulta respecto al formulario de evaluación del modelo: ¿Podrías recomendar alguna fuente bibliográfica o artículo para profundizar más en este tema?
Los dejé en la descripción del video, pero igual te los comparto. En casi todos los videos comparto siempre enlaces para que puedan profundizar en los temas:
Enlaces importantes:
🔗 Prueba Qwen2.5 en HuggingFace: huggingface.co/spaces/Qwen/Qwen2.5
🔗 Descarga Qwen2.5 en Ollama: ollama.com/library?q=qwen2.5
🔗 Accede al modelo Qwen2.5-72B Instruct en Open Router: openrouter.ai/models/qwen/qwen-2.5-72b-instruct
🔗 Blog: t.co/3zHNhRKM1m
🔗 Blog (LLM): t.co/b6vjxo0E7t
🔗 Blog (Coder): t.co/a9nDIIXjeS
🔗 Blog (Math): t.co/4VuZi0vlJw
Hola amigo... Gracias por tu trabajo...Te quería contar que lo usé para una "revisión de literatura", sin embargo las "fuentes" las inventó aunque me dió las citas con revista, año en incluso páginas (todo inventado)...Hay que tener cuidado!!!!!!
Para investigación no es bueno y no es recomendable, debido a que no tienen acceso a internet y si suelen inventarse las citas, te recomiendo que para esa tarea utilices otro tipo de herramientas que ya tengan navegación integrada. 👋
Pregunta, tienes un vídeo de cómo usar con proyectos y archivos locales? Es decir que pueda tener memoria, para hacer consultas específicas. Use open web ui, y solo me sirvió para la primera consulta.
Usa el memgpt
Y para el rag de documentos te recomiendo el anything llm
Crea tu propio rag con Llamaindex
🎉 gracias bro!
A ti por tu comentario! 😄
Excelente...👏👏👏👏
Gracias por tu comentario! 👋
estimado, para ud hasta ahora cual es mejor generador de programas via prompt? gracias
Uy que buena pregunta, pues la verdad creo que están compitiendo en ese lugar entre Aider y Claude Dev, ambas opciones son realmente muy buenas.
Y ya en cuanto a modelos que puedes usar dentro de cada herramienta que mencione, pues dependerá si quieres usar modelos locales, comerciales o gratuitos (como Gemini, Groq, etc)
Bravo 💪
Muchas gracias por el apoyo! 👋
Muchas gracias por compartir, para ti cual es mejor Lobechat o Open Router?
LobeChat es una interfaz para implementar APIs de terceros como de OpenAI, Anthropic, DeepSeek, Groq, OpenRouter, etc
Y Open Router es un servicio especializado que te brinda la mayoría de modelos disponibles en el mercado a través de una sola API, y no tener que estarte registrando en cada plataforma por separado. También una ventaja es que a veces por ser de algún país, región, idioma, suscripción, etc, tenemos limitaciones para obtener API de alguna empresa, Open Router puede brindarte acceso sin necesidad de procesos muy complicados.
@@Conciencia_Artificial Muchas gracias!
Mamaaaaa uuuu uuu uuuu
Vamos a ponerlo en la pagina de nosotros😂vamos a tener mas modelos disponibles en la web
Excelente, pero a mi no me deja aun desde ollama descargar el de 32b. Muchos exitos.
Ya aparece en la lista, no te deja por algún error o no te aparecía?
@@Conciencia_Artificial Bueno, me confundi, coder no tiene mas opciones en cambio la version no coder si trae muchas.
conoces alguna ia a la que se le pueda pasar una formula y la resuelva paso a paso?
Pues paso a paso, creo que en este punto podría ser la nueva versión de 01-preview, alguna herramienta que trabaje con agentes-subagentes para resolver el problema en partes, o como en el video mencionan, con Qwen pero sus modelos especializados en matemáticas tienen esta funciona de “cadena de pensamientos”. No los he probado, pero estaría muy bueno quizá implementar algún problema así para evaluarlos.
Bienvenido sea, ahora por qué un regalo para occidente?
*Muy buen canal*
Saludos
Gracias por el apoyo y por tu comentario! 👋
Yo he probado con el de 7b y la verdad es que codificar muy bien lo que se dice muy bien no lo hace, los ejemplos con respecto a otros codificadores son muy básicos, y la verdad es que a veces pierde un poco el contexto. Por lo menos en modo local con 7 b no es muy bueno programando
Interesante, para que lenguaje y tecnologías lo has aplicado? Lo pregunto porque, quizá tenga cierta debilidad con alguno en específico
@@Conciencia_Artificial lo aplico con el lenguaje PHP.