Cuanto se te echa de menos cuando no estas, maestro. Me encantan los RAGS, LORAS Y TTS en modo local, alucino con estas cosas. Que pena que para un LORA local no tengo GPU
Hola, me encantan tus videos. En tu experiencia cual sería el mejor dispositivo para montar un micro server arm que pueda ejecutar ia generativa? Habrá salido alguno nuevo interesante?
@@TheJaaavier a corto plazo probablemente pero si tomamos en cuenta el consumo de electricidad, el tamaño que ocupa en un departamento y la necesidad de refrigeración entonces un modesto arm puede ser ideal para servidor personal en un futuro.
@@mariron42 a largo plazo si le quieres sacar todo el jugo posible a un servidor vas a necesitar mas ram. Todavia no hay mucho en arm las rasberry son para entretenerse corriendo juegos retro o multimedia, eso si, tendrás que cambiar las sd muy seguido que mueren solas al exigirles correr un sistema operativo. Quizas si qualcom compra intel como se rumorea la cosa podría cambiar
En espacial si quieres correr AI que valgan la pena necesitaras montones de ram y procesamiento. Son muy llamativas por su tamaño chiquito pero no lo valen tanto. Nvidia esta fabricando minis cacharros para correr AI. como la orin nano viene con arm. Sera mas barato y potente una mini-atx ordinaria pero si te interesa lo super mini podría ser una opción
Hola Cesar cómo estás? te quería preguntar qué esperas de los nuevos procesadores de AMD con NPU de 50TOPS, AMD Ryzen AI 9 HX 370, crees que será suficiente para ejecutar modelos de lenguaje de forma local? tienes alguna expectativa sobre esta nueva generación de procesadores? un saludo
Sabes si es posible correr estos modelos aue rscibwn imágenes de manera local? He visto aue en los modelos de Llama hay uno llamado Lava y wuisoera probar en alguna herramienta como Anything LLM para hacer pruebas como las que acabas de hacer Gracias por la info, nuevo sub!
Hola a ver pruebo, gracias crack
A ver que tal te funciona este modelo! Ya nos contarás!
como siempre el mejor canal de IA
Gracias por el cumplido Jaime!
Muchas gracias
Gracias por comentar. Seguimos explorando los últimos modelos y compartiendo los resultados en abierto!
Gracias, César
Cuanto se te echa de menos cuando no estas, maestro. Me encantan los RAGS, LORAS Y TTS en modo local, alucino con estas cosas. Que pena que para un LORA local no tengo GPU
Hola te hago una consulta.. o a la comunidad: que modelo me recomiendan para traducir textos. son textos académicos, complejos.
Hola, me encantan tus videos. En tu experiencia cual sería el mejor dispositivo para montar un micro server arm que pueda ejecutar ia generativa? Habrá salido alguno nuevo interesante?
No es más barato, confiable y potente usar cualquier pc viejo?
@@TheJaaavier a corto plazo probablemente pero si tomamos en cuenta el consumo de electricidad, el tamaño que ocupa en un departamento y la necesidad de refrigeración entonces un modesto arm puede ser ideal para servidor personal en un futuro.
@@mariron42 a largo plazo si le quieres sacar todo el jugo posible a un servidor vas a necesitar mas ram. Todavia no hay mucho en arm las rasberry son para entretenerse corriendo juegos retro o multimedia, eso si, tendrás que cambiar las sd muy seguido que mueren solas al exigirles correr un sistema operativo. Quizas si qualcom compra intel como se rumorea la cosa podría cambiar
En espacial si quieres correr AI que valgan la pena necesitaras montones de ram y procesamiento. Son muy llamativas por su tamaño chiquito pero no lo valen tanto. Nvidia esta fabricando minis cacharros para correr AI. como la orin nano viene con arm. Sera mas barato y potente una mini-atx ordinaria pero si te interesa lo super mini podría ser una opción
Hola Cesar cómo estás? te quería preguntar qué esperas de los nuevos procesadores de AMD con NPU de 50TOPS, AMD Ryzen AI 9 HX 370, crees que será suficiente para ejecutar modelos de lenguaje de forma local? tienes alguna expectativa sobre esta nueva generación de procesadores? un saludo
Sabes si es posible correr estos modelos aue rscibwn imágenes de manera local? He visto aue en los modelos de Llama hay uno llamado Lava y wuisoera probar en alguna herramienta como Anything LLM para hacer pruebas como las que acabas de hacer
Gracias por la info, nuevo sub!
cómo puedo tener esto en mi pc?
con ollama