No puedes usar su API de forma gratis y de poderse sería algo súper limitado usado plataforma de terceros como Open router. De algo tienes que vivir esa gente
si existe diferencia, pero para saber exactamente cuanta, dependerá del modelo que instales de forma local, ya que puedes instalar distintas versiones, con distintas cuantizaciones. Si quieres la potencia máxima podrías optar por consumir su API pero de proveedores que ofrezcan el modelo en servidores occidentales, esto lo menciono por que algunos también no quieren que se envie su información a China, esta sería una muy buena alternativa.
tenerlo montado de forma local t Pues tanto Ollama, LM Studio y Msyt levantar un servidor local para que apuntes a ellos y utilices los modelos en bolt.diy generando una api yo lo hice pero no se si se la potencia pero se queda pensando cuando empiezas un proyecto desde cero me funciono pero a medida que crea los archivos de una aplicacion ahi es donde se pone lento y ahi quede
No entiendo muy bien por qué dices que la primera opción es más personalizable, por el contexto del vídeo parece que es mejor la segunda ¿no?, por el tema del internet y subir archivos
Ah es que tiene disponible más configuraciones avanzadas o muy técnicas. La segunda opción es más amigable en su interfaz, más fácil de usar, y brinda más opciones pero para usuarios generales. De hecho la segunda opción si es más cómoda debido a las facilidades que brinda en general, pero la primera podría considerarse para usuarios un poco más "técnicos".
Ufffff, si R1 logra casi igualar o en algunos aspectos súperar a O1 de chay gpt , cuando salga R2 sera una verdadera joya para el aprendizaje,lo probe para ejercicios de ecuaciones diferencial y integracion ,y a diferencia de chat gpt tiene mucho menos errores k gpt
Holaaa,sabras si con una 4070 ti ,puedo correr la versión mas potente de DeepSeek en local ,y si acaso se asemejaría a la cálidad de respuesta de R1 desde la app?
Lamentablemente esto modelo es demasiado exigente, como mencionaron otros usuarios, necesitarías hardware demasiado potente para correr el mejor modelo completo. Y respondiendo a la segunda pregunta, si lograraras ejecutar el más pesado en un equipo, si deberías lograr obtener el mismo rendimiento que ofrece desde su app.
Excelente hermano, mi computadora soporta DeepSeek de hasta 14b, intenté con 32b pero va extremadamente lento en la interfaz de terminal con ollama. No he encontrado comparativa entre llama 3.2 vision 11b y DeepSeek r1 14b. Tú sabes cuál tiene mejor rendimiento?
deepseek r1 no es para manejo de imagenes ni tool por ahora , es un modelo de razonamiento, comprar esos dos no es valido. seria mejor uan comparatiba de phi 4 vs deepseek r1. no crees?
Hola, como dijo @kevink1xwl , DeepSeek r1 no tiene visión, muy probablemente sean de las próximas actualizaciones, pero tocará esperar un poco más En cuanto a calidad en generación de texto DeepSeek r1 mencionan que es mejor. Podrías utilizar ambos para que se complementen 👌
@@jersainpasaran1931 si es posible , al final de video habla de eso , tambien puedes usarlo en cmd directo , o openwebui. yo llprobe el 32b (rtx4070ti super+rtx 3060) y algo asombroso.
Pues puedes descargar las aplicaciones oficiales para Android e IOS de DeepSeek y utilizarlo de forma gratuita. Búscalas en las tiendas de tu equipo y te deben aparecer👌
@@Conciencia_Artificial si ya la tengo hace rato, queria era correrla en local. Se que se podria hacer emulando pero queria saber si habia una forma mas facil. De todas maneras intentare emulando.
COMO PODRIAMOS TENER UN LLM gratis y en local , ponerlo con fast api a servir en localhost y poder consumir ese LLM ? . es que lo de dar todo lo que hagamos a un tercero no mola mucho. Gracias
O sea todo tenerlo montado de forma local te refieres? Pues tanto Ollama, LM Studio y Msyt (esto me enteré cuando hice el video) levantan un servidor local para que apuntes a ellos y utilices los modelos en tus proyectos.
yo lo probe de las dos formas. La primera no corrio y la segunda si pero es muy malo y lento. En español no sabe ni escribir bien. Puede ser que sea mi maquina que no es adecuada para correr esta aplicacion.
Es importante que la máquina donde lo ejecutes cumpla con los requisitos mínimos, sobre todo el tamaño de la memoria RAM. Cuáles son las especificaciones de tu equipo? Y qué modelo descargaste?
Soy fan de tus vídeos
Pero este formato se vídeo está súper genial. Eres de los mejores
Dios bendiga tu trabajo, el cual si es util
Muchas gracias por tu comentario! Me motiva saber que el contenido es útil para ti. 💪
El mejor trayéndonos nuevas tecnologías IA
Me alegra que te guste el contenido y te agradezco mucho por tu comentario! 👋
Cuales son los requisitos minimos para cada parametro?
Quiero saber si estoy dentro de los requisitos
Sería bueno un vídeo de como usar su api de forma gratis
Voy a ver si realizo un video más corto y rápido para compartir dicha información. Gracias por la sugerencia!
No puedes usar su API de forma gratis y de poderse sería algo súper limitado usado plataforma de terceros como Open router. De algo tienes que vivir esa gente
Ftk, se puede usar cuando estés utilizando código, integrándolo en el mismo. Es muy sencillo.
@@jesuspunzon5407hola, cómo sería?
Hola. ¿ Que diferencia hay entre la versión web y la versión en modo local en cuanto a rendimiento ?
si existe diferencia, pero para saber exactamente cuanta, dependerá del modelo que instales de forma local, ya que puedes instalar distintas versiones, con distintas cuantizaciones. Si quieres la potencia máxima podrías optar por consumir su API pero de proveedores que ofrezcan el modelo en servidores occidentales, esto lo menciono por que algunos también no quieren que se envie su información a China, esta sería una muy buena alternativa.
Buenazo Bro eres un tigre
Muchas gracias por tu apoyo. Saludos! 👋
tenerlo montado de forma local t Pues tanto Ollama, LM Studio y Msyt levantar un servidor local para que apuntes a ellos y utilices los modelos en bolt.diy generando una api yo lo hice pero no se si se la potencia pero se queda pensando cuando empiezas un proyecto desde cero me funciono pero a medida que crea los archivos de una aplicacion ahi es donde se pone lento y ahi quede
No entiendo muy bien por qué dices que la primera opción es más personalizable, por el contexto del vídeo parece que es mejor la segunda ¿no?, por el tema del internet y subir archivos
Ah es que tiene disponible más configuraciones avanzadas o muy técnicas. La segunda opción es más amigable en su interfaz, más fácil de usar, y brinda más opciones pero para usuarios generales. De hecho la segunda opción si es más cómoda debido a las facilidades que brinda en general, pero la primera podría considerarse para usuarios un poco más "técnicos".
Cómo lo puedo instalar en un cluster de pcb Orange pi 5????
Tienes que comprar una cpu más potente enganchada al esportón
Eso sí sería interesante!!!
Ufffff, si R1 logra casi igualar o en algunos aspectos súperar a O1 de chay gpt , cuando salga R2 sera una verdadera joya para el aprendizaje,lo probe para ejercicios de ecuaciones diferencial y integracion ,y a diferencia de chat gpt tiene mucho menos errores k gpt
Holaaa,sabras si con una 4070 ti ,puedo correr la versión mas potente de DeepSeek en local ,y si acaso se asemejaría a la cálidad de respuesta de R1 desde la app?
Jamás, para eso necesitas como mínimo una RTX 5090 de 32 GB VRAM y eso que aún así no correría el modelo completo.
😂 para esa versión mínimo una A100 o la 5090
Lamentablemente esto modelo es demasiado exigente, como mencionaron otros usuarios, necesitarías hardware demasiado potente para correr el mejor modelo completo. Y respondiendo a la segunda pregunta, si lograraras ejecutar el más pesado en un equipo, si deberías lograr obtener el mismo rendimiento que ofrece desde su app.
Excelente hermano, mi computadora soporta DeepSeek de hasta 14b, intenté con 32b pero va extremadamente lento en la interfaz de terminal con ollama. No he encontrado comparativa entre llama 3.2 vision 11b y DeepSeek r1 14b. Tú sabes cuál tiene mejor rendimiento?
deepseek r1 no es para manejo de imagenes ni tool por ahora , es un modelo de razonamiento,
comprar esos dos no es valido.
seria mejor uan comparatiba de phi 4 vs deepseek r1. no crees?
Hola, como dijo @kevink1xwl , DeepSeek r1 no tiene visión, muy probablemente sean de las próximas actualizaciones, pero tocará esperar un poco más
En cuanto a calidad en generación de texto DeepSeek r1 mencionan que es mejor. Podrías utilizar ambos para que se complementen 👌
Para local Cuál modelo sería el mejor para visión y programación?
Suena interesante, pero ¿es seguro instalar DeepSeek R1 localmente? ¿Qué riesgos podría tener al usar una versión local de este tipo?
ningun riesgo y es mejor local para no subir info a servers chinos
En local es riesgo es muchísimo menor que usar la versión online.
Existe forma de correr Deepseek con ollama?
Si también es posible, en el video lo mencionó pero ya no lo muestro, al final Msyt utiliza ollama para ejecutar los modelos que usa e integra
@@jersainpasaran1931 si es posible , al final de video habla de eso , tambien puedes usarlo en cmd directo , o openwebui. yo llprobe el 32b (rtx4070ti super+rtx 3060) y algo asombroso.
Se puede desde movil?
Pues puedes descargar las aplicaciones oficiales para Android e IOS de DeepSeek y utilizarlo de forma gratuita. Búscalas en las tiendas de tu equipo y te deben aparecer👌
@@Conciencia_Artificial si ya la tengo hace rato, queria era correrla en local. Se que se podria hacer emulando pero queria saber si habia una forma mas facil. De todas maneras intentare emulando.
COMO PODRIAMOS TENER UN LLM gratis y en local , ponerlo con fast api a servir en localhost y poder consumir ese LLM ? . es que lo de dar todo lo que hagamos a un tercero no mola mucho. Gracias
O sea todo tenerlo montado de forma local te refieres? Pues tanto Ollama, LM Studio y Msyt (esto me enteré cuando hice el video) levantan un servidor local para que apuntes a ellos y utilices los modelos en tus proyectos.
la host iapu ta 😳
No me gusto, me encanto 🤗
jaja muchas gracias por tu comentario! 👋👋
yo lo probe de las dos formas. La primera no corrio y la segunda si pero es muy malo y lento. En español no sabe ni escribir bien. Puede ser que sea mi maquina que no es adecuada para correr esta aplicacion.
Es importante que la máquina donde lo ejecutes cumpla con los requisitos mínimos, sobre todo el tamaño de la memoria RAM. Cuáles son las especificaciones de tu equipo? Y qué modelo descargaste?