Instala Localmente DeepSeek R1: Tu ChatGPT Más Poderoso y GRATUITO

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ก.พ. 2025

ความคิดเห็น • 45

  • @eddygok
    @eddygok วันที่ผ่านมา +1

    Soy fan de tus vídeos
    Pero este formato se vídeo está súper genial. Eres de los mejores
    Dios bendiga tu trabajo, el cual si es util

    • @Conciencia_Artificial
      @Conciencia_Artificial  13 ชั่วโมงที่ผ่านมา

      Muchas gracias por tu comentario! Me motiva saber que el contenido es útil para ti. 💪

  • @KedryDev
    @KedryDev 2 วันที่ผ่านมา +1

    El mejor trayéndonos nuevas tecnologías IA

    • @Conciencia_Artificial
      @Conciencia_Artificial  วันที่ผ่านมา

      Me alegra que te guste el contenido y te agradezco mucho por tu comentario! 👋

  • @DilanCorrea01
    @DilanCorrea01 วันที่ผ่านมา +1

    Cuales son los requisitos minimos para cada parametro?
    Quiero saber si estoy dentro de los requisitos

  • @Anyistcolk
    @Anyistcolk 2 วันที่ผ่านมา +7

    Sería bueno un vídeo de como usar su api de forma gratis

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 วันที่ผ่านมา +4

      Voy a ver si realizo un video más corto y rápido para compartir dicha información. Gracias por la sugerencia!

    • @ftk6802
      @ftk6802 วันที่ผ่านมา

      No puedes usar su API de forma gratis y de poderse sería algo súper limitado usado plataforma de terceros como Open router. De algo tienes que vivir esa gente

    • @jesuspunzon5407
      @jesuspunzon5407 21 ชั่วโมงที่ผ่านมา +1

      Ftk, se puede usar cuando estés utilizando código, integrándolo en el mismo. Es muy sencillo.

    • @elmagnificomaximo
      @elmagnificomaximo 14 ชั่วโมงที่ผ่านมา

      ​@@jesuspunzon5407hola, cómo sería?

  • @metalic80
    @metalic80 5 ชั่วโมงที่ผ่านมา

    Hola. ¿ Que diferencia hay entre la versión web y la versión en modo local en cuanto a rendimiento ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  ชั่วโมงที่ผ่านมา

      si existe diferencia, pero para saber exactamente cuanta, dependerá del modelo que instales de forma local, ya que puedes instalar distintas versiones, con distintas cuantizaciones. Si quieres la potencia máxima podrías optar por consumir su API pero de proveedores que ofrezcan el modelo en servidores occidentales, esto lo menciono por que algunos también no quieren que se envie su información a China, esta sería una muy buena alternativa.

  • @Dimarcot11
    @Dimarcot11 วันที่ผ่านมา

    Buenazo Bro eres un tigre

    • @Conciencia_Artificial
      @Conciencia_Artificial  13 ชั่วโมงที่ผ่านมา

      Muchas gracias por tu apoyo. Saludos! 👋

  • @vivehoyconproposito07
    @vivehoyconproposito07 41 นาทีที่ผ่านมา

    tenerlo montado de forma local t Pues tanto Ollama, LM Studio y Msyt levantar un servidor local para que apuntes a ellos y utilices los modelos en bolt.diy generando una api yo lo hice pero no se si se la potencia pero se queda pensando cuando empiezas un proyecto desde cero me funciono pero a medida que crea los archivos de una aplicacion ahi es donde se pone lento y ahi quede

  • @Kepa_Quetón
    @Kepa_Quetón 12 ชั่วโมงที่ผ่านมา

    No entiendo muy bien por qué dices que la primera opción es más personalizable, por el contexto del vídeo parece que es mejor la segunda ¿no?, por el tema del internet y subir archivos

    • @Conciencia_Artificial
      @Conciencia_Artificial  ชั่วโมงที่ผ่านมา

      Ah es que tiene disponible más configuraciones avanzadas o muy técnicas. La segunda opción es más amigable en su interfaz, más fácil de usar, y brinda más opciones pero para usuarios generales. De hecho la segunda opción si es más cómoda debido a las facilidades que brinda en general, pero la primera podría considerarse para usuarios un poco más "técnicos".

  • @teloensenoen3minutos2023
    @teloensenoen3minutos2023 2 วันที่ผ่านมา +2

    Cómo lo puedo instalar en un cluster de pcb Orange pi 5????

    • @pacomg2092
      @pacomg2092 2 วันที่ผ่านมา

      Tienes que comprar una cpu más potente enganchada al esportón

    • @CeroCool212004
      @CeroCool212004 2 วันที่ผ่านมา

      Eso sí sería interesante!!!

  • @jakongj132
    @jakongj132 วันที่ผ่านมา

    Ufffff, si R1 logra casi igualar o en algunos aspectos súperar a O1 de chay gpt , cuando salga R2 sera una verdadera joya para el aprendizaje,lo probe para ejercicios de ecuaciones diferencial y integracion ,y a diferencia de chat gpt tiene mucho menos errores k gpt

  • @jakongj132
    @jakongj132 วันที่ผ่านมา

    Holaaa,sabras si con una 4070 ti ,puedo correr la versión mas potente de DeepSeek en local ,y si acaso se asemejaría a la cálidad de respuesta de R1 desde la app?

    • @juansotoramirez8420
      @juansotoramirez8420 วันที่ผ่านมา +1

      Jamás, para eso necesitas como mínimo una RTX 5090 de 32 GB VRAM y eso que aún así no correría el modelo completo.

    • @pepcuenca4758
      @pepcuenca4758 20 ชั่วโมงที่ผ่านมา +1

      😂 para esa versión mínimo una A100 o la 5090

    • @Conciencia_Artificial
      @Conciencia_Artificial  ชั่วโมงที่ผ่านมา

      Lamentablemente esto modelo es demasiado exigente, como mencionaron otros usuarios, necesitarías hardware demasiado potente para correr el mejor modelo completo. Y respondiendo a la segunda pregunta, si lograraras ejecutar el más pesado en un equipo, si deberías lograr obtener el mismo rendimiento que ofrece desde su app.

  • @arqcruzmtz
    @arqcruzmtz 2 วันที่ผ่านมา

    Excelente hermano, mi computadora soporta DeepSeek de hasta 14b, intenté con 32b pero va extremadamente lento en la interfaz de terminal con ollama. No he encontrado comparativa entre llama 3.2 vision 11b y DeepSeek r1 14b. Tú sabes cuál tiene mejor rendimiento?

    • @kevink1xwl
      @kevink1xwl 2 วันที่ผ่านมา +1

      deepseek r1 no es para manejo de imagenes ni tool por ahora , es un modelo de razonamiento,
      comprar esos dos no es valido.
      seria mejor uan comparatiba de phi 4 vs deepseek r1. no crees?

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 วันที่ผ่านมา +1

      Hola, como dijo @kevink1xwl , DeepSeek r1 no tiene visión, muy probablemente sean de las próximas actualizaciones, pero tocará esperar un poco más
      En cuanto a calidad en generación de texto DeepSeek r1 mencionan que es mejor. Podrías utilizar ambos para que se complementen 👌

    • @elmagnificomaximo
      @elmagnificomaximo 14 ชั่วโมงที่ผ่านมา

      Para local Cuál modelo sería el mejor para visión y programación?

  • @InnovaTechIA
    @InnovaTechIA วันที่ผ่านมา

    Suena interesante, pero ¿es seguro instalar DeepSeek R1 localmente? ¿Qué riesgos podría tener al usar una versión local de este tipo?

    • @josegamer99raps88
      @josegamer99raps88 18 ชั่วโมงที่ผ่านมา

      ningun riesgo y es mejor local para no subir info a servers chinos

    • @juliopb1982
      @juliopb1982 15 ชั่วโมงที่ผ่านมา

      En local es riesgo es muchísimo menor que usar la versión online.

  • @jersainpasaran1931
    @jersainpasaran1931 2 วันที่ผ่านมา

    Existe forma de correr Deepseek con ollama?

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 วันที่ผ่านมา

      Si también es posible, en el video lo mencionó pero ya no lo muestro, al final Msyt utiliza ollama para ejecutar los modelos que usa e integra

    • @kevink1xwl
      @kevink1xwl 2 วันที่ผ่านมา

      @@jersainpasaran1931 si es posible , al final de video habla de eso , tambien puedes usarlo en cmd directo , o openwebui. yo llprobe el 32b (rtx4070ti super+rtx 3060) y algo asombroso.

  • @juliopb1982
    @juliopb1982 15 ชั่วโมงที่ผ่านมา

    Se puede desde movil?

    • @Conciencia_Artificial
      @Conciencia_Artificial  13 ชั่วโมงที่ผ่านมา

      Pues puedes descargar las aplicaciones oficiales para Android e IOS de DeepSeek y utilizarlo de forma gratuita. Búscalas en las tiendas de tu equipo y te deben aparecer👌

    • @juliopb1982
      @juliopb1982 12 ชั่วโมงที่ผ่านมา

      @@Conciencia_Artificial si ya la tengo hace rato, queria era correrla en local. Se que se podria hacer emulando pero queria saber si habia una forma mas facil. De todas maneras intentare emulando.

  • @stokmarketrobot2012
    @stokmarketrobot2012 2 วันที่ผ่านมา

    COMO PODRIAMOS TENER UN LLM gratis y en local , ponerlo con fast api a servir en localhost y poder consumir ese LLM ? . es que lo de dar todo lo que hagamos a un tercero no mola mucho. Gracias

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 วันที่ผ่านมา +1

      O sea todo tenerlo montado de forma local te refieres? Pues tanto Ollama, LM Studio y Msyt (esto me enteré cuando hice el video) levantan un servidor local para que apuntes a ellos y utilices los modelos en tus proyectos.

  • @estrelladeorion4748
    @estrelladeorion4748 วันที่ผ่านมา

    la host iapu ta 😳

  • @nanocode10
    @nanocode10 วันที่ผ่านมา +1

    No me gusto, me encanto 🤗

  • @viloriarj
    @viloriarj 23 ชั่วโมงที่ผ่านมา

    yo lo probe de las dos formas. La primera no corrio y la segunda si pero es muy malo y lento. En español no sabe ni escribir bien. Puede ser que sea mi maquina que no es adecuada para correr esta aplicacion.

    • @Conciencia_Artificial
      @Conciencia_Artificial  13 ชั่วโมงที่ผ่านมา

      Es importante que la máquina donde lo ejecutes cumpla con los requisitos mínimos, sobre todo el tamaño de la memoria RAM. Cuáles son las especificaciones de tu equipo? Y qué modelo descargaste?