¡DeepSeek Coder 2: El Nuevo Rey de la Programación! (supera a GPT-4o, Gemini, Codestral y Claude-3)
ฝัง
- เผยแพร่เมื่อ 19 พ.ย. 2024
- 🔥 ¡Descubre el increíble poder de DeepSeek Coder 2 en nuestro último video! 🔥
Bienvenidos a Conciencia Artificial, tu canal favorito de tecnología y avances en inteligencia artificial. Hoy te traemos un análisis completo del nuevo modelo DeepSeek Coder 2, la última versión del popular modelo de codificación DeepSeek.
🚀 ¿Qué es DeepSeek Coder 2?
DeepSeek Coder 2 es un modelo revolucionario diseñado específicamente para tareas de codificación, superando a gigantes como GPT-4 Turbo en benchmarks clave. Con una impresionante cantidad de 236 billones de parámetros en su versión principal y 16 billones en su versión lite, este modelo ofrece un rendimiento excepcional tanto en la nube como localmente.
💡 Características Destacadas:
Soporte para más de 300 lenguajes de programación.
Longitud de contexto de 128 mil.
Precios asequibles y licencia MIT para usos comerciales.
Benchmarks impresionantes: ¡supera a los modelos más avanzados en tareas de codificación y matemáticas!
🛠️ Pruebas en Acción:
En este video, te mostramos cómo DeepSeek Coder 2 maneja diversas tareas de codificación, desde crear aplicaciones gráficas en Python con Tkinter hasta generar juegos en JavaScript y HTML. ¡Mira cómo se desempeña en pruebas reales y descubre si es la herramienta que necesitas para tus proyectos!
🔗 Prueba DeepSeek Coder 2 Hoy Mismo:
Prueba el modelo en DeepSeek Chat de forma gratuita: chat.deepseek....
GitHub DeepSeek Coder 2: github.com/dee...
Descarga los modelos desde Hugging Face: huggingface.co...
Descarga los modelos desde Ollama: ollama.com/lib...
👉 ¡No te pierdas esta revolución en la codificación! Dale un 👍 si te gustó el video y suscríbete para más contenido sobre tecnología y AI. Activa la campanita 🔔 para no perderte ninguna actualización.
💬 Déjanos tus comentarios: ¿Quieres ver un tutorial sobre cómo configurar DeepSeek Coder 2 como tu copiloto en tu editor de código? ¡Haznos saber en los comentarios y haremos un video especialmente para ti!
❤️ Apoya nuestro canal: Considera donar a través de la opción de súper gracias debajo del video para ayudarnos a seguir creando contenido de calidad.
Gracias por ver Conciencia Artificial. ¡Nos vemos en el próximo video!
#DeepSeekCoder2 #inteligenciaartificial #programacion #Codificación #IA #Copilot #gpt4 #gpt4o #gemini #herramientas #programacion #code #Gratis #DesarrolloWeb #desarrollo #tecnología #tutorial #fyp
El vídeo para usarlo como copilot!! Genial!! Gracias alto video
Ahi se las manda, 1 millon de visitas!.
Ya se está realizando, muchas gracias por el apoyo!
Por favor el video para utilizarlo como Copilot gracias, Sos increible.🤗
Claro! El día lunes a más tardar ya lo estaré compartiendo por aquí! 👋
Excelente vídeo. Espero que se haga un vídeo de como importarlo al editor de código🤗
Muchas gracias por tu apoyo! 👋
quiero un video para usarlo de forma local y de copilot!
¡Ya se encuentra publicado el video! th-cam.com/video/KFEVDOXOQpE/w-d-xo.html
Muchas gracias por comentar y disculpa la demora.
Por favor el video para utilizarlo como Copilot de autocompletado gracias 👍
Excelente vídeo. Espero que se haga un vídeo de como importarlo al editor de código.
Muchas gracias por comentar y por el apoyo, ya se está preparando el video. Saludos!
Sí, por favor, supongo que sería algo con Ollama y la extensión Continue para Visual Studio Code
Si, aunque hay otras formas de implementarlo y también estoy considerando mostrar mediante API por si alguien quiere pagarlo, ya que es de los más económicos, está casi 10 veces más barato que Claude 3 opus, GPT-4, GPT-4 turbo y Gemini 1.5 pro
si, porfafor haz un video de como usarlo como copilot, gracias!! excelente video
Hola, muchas gracias por el apoyo, ya fue realizado y publicado el video, te lo comparto: th-cam.com/video/KFEVDOXOQpE/w-d-xo.html
Enséñanos como añadirlo a copilot, muchas gracias!!
¡Con gusto! Gracias a ti por comentar
Sería excelente maestra añadir los requerimientos mínimos de hardware para poder usar cada modelo que se informe al canal, saludos
Es una muy buena recomendación, lo tendré muy en cuenta para futuros videos, ¡muchas gracias por comentar y apoyar el contenido!
Información importante y muy reelevante, lo que no me gusta es que su versión completa es más lenta y se asemeja a chatgpt, y si me gustaria que hicieras un video haciendo a github copilot.... gracias
Si, lamentablemente las versiones más pesadas se vuelven más lentas, el futuro es que las comiencen hacer más pequeñas manteniendo/mejorando el rendimiento y la “inteligencia” de estos modelos
Si el video para implementarlo en Vscode seria genial
Muchas gracias por tu comentario, ya se encuentra disponible por si gustas verlo: th-cam.com/video/KFEVDOXOQpE/w-d-xo.htmlsi=MdmGSShLI1T_G2P4
Muy interesante, seria genial poder utilizarlo como una API localmente que interactúe con nuestro código
Muchas gracias por la sugerencia, lo tendré en cuenta para el siguiente video. Saludos! 👋
Que más quiere? Que te pague también por usarlo? Y que te regalen ropa o comida?
hola, cual recomendarias para uso local , 4070ti super? gracias
Chulada de GPU 👌, yo tengo una 4070 con 12 de vram, y el modelo de 16B de DeepSeek Coder V2 jala bastante bien para generación de código y cómo autocompletado, te recomiendo que utilices este modelo, es bastante bueno 👌, también hay un modelo más chico CodeQwen, para autocompletado podría ser una excelente opción
Acabo de subir un video donde muestro cómo utilizar el modelo de forma local por si quieres echarle un vistazo: th-cam.com/video/KFEVDOXOQpE/w-d-xo.htmlsi=t68HECWROgna4RvB
Gracias por comentar y apoyar el contenido!
Un tutorial sobre cómo crear un modelo propio a partir de un modelo existente, con la posibilidad de mejorar el modelo mediante la incorporación de más información, sería genial.
Muchas gracias por la sugerencia, si me han comentado algo similar, aunque no lo tengo en próximos videos cercanos voy a ir revisando cuál sería la mejor opción para realizarlo. Gracias por el apoyo!
como siempre un excelente contenido y bien explicado, gracias 👍
Muchas gracias por comentar y apoyar todo el contenido! 👋
Me encantaria poder usar como Copilot este modelo desde Api y que pueda tener autocompletado de codigo. ❤❤
Gracias por comentar, si también tengo pensando en mostrar cómo utilizarlo a través de su API oficial, igual los precios que manejan son los más bajos que he visto por millón de tokens, por lo que puede resultar muy útil para personas que busquen otras opciones.
Es un modelo impresionante, pero más impresionante aún es que sea libre 😮
¿Entre este (el lite) y codeqwen:7b cual ves mejor para implementar en VS Code? 🤔
Gracias por toda la info que nos traes. Es impresionante lo rápido que eres para traernos cada noticia
Muy buena pregunta, me parece que podrías implementar ambos, creo que CodeQwen puedes utilizarlo para el autocompletado de código y Deepseek Coder 2 lite para tenerlo como asistente de chat. Realmente ambos son muy buenos, y faltan más pruebas para ver cuál es mejor entre estos 2, pero CodeQwen sigue siendo una excelente opción.
Sobre traer nuevas noticias y herramientas, si me lleva algo de tiempo porque realizo una investigación profunda, pero muchas gracias por tu comentario, eso me motiva a seguir creando contenido de calidad. Saludos!👋
El vídeo para usarlo como copilot!!
Ya se encuentra publicado, te lo comparto para que lo veas:
th-cam.com/video/KFEVDOXOQpE/w-d-xo.html
Gracias por comentar!
Muy interesante. Me gustaría ver como integrarlo en sublimetext
No estoy seguro si en sublime text se puede, ya que se utiliza extensiones de terceros que vienen en el market de visual studio code y Cursor. Y tiene mucho años que no toco sublime, no sé si maneja extensiones así también. Pero voy a revisarlo, gracias por tu comentario!
Es posible usarlo como una API? Por ejemplo hacer solicitar desde mi celular, y una laptop o raspberry en local recibir las solicitudes ??
Si, puede ser de dos formas, uno instalando el modelo local, por ejemplo, puedes utilizar Ollama, y este programa te brinda una URL para acceder a los modelos que vayas descargando en tu equipo, la URL por default de Ollama es 127.0.0.1:11434.
La segunda opción es mediante su API oficial, pero debes pagar para acceder, por primera vez puedo recomendar que, si vale la pena pagar, ya que es un modelo muy potente y casi 100 veces más barato que Claude 3 opus y GPT-4.
Acabo de publicar un video donde muestro como instalarlo con Ollama y también como obtener su API, y en ambas opciones enseño como configurarlas como nuestro GitHub Copilot (por si te interesa) th-cam.com/video/KFEVDOXOQpE/w-d-xo.htmlsi=vSOS1DSWGS5lqGOK
¡Gracias por comentar y apoyar el contenido! Cualquier pregunta o duda que tengas aquí estoy para apoyarte.
Excelente estimado, son muy valiosos sus aportes. Ya me suscribí al canal!
Te lo agradezco mucho, y que bueno que te resulten útiles los videos 👋
Hace el video para usarlo localmente
Ya se está realizando! Gracias por apoyar el contenido ✌️
Muy bien… pero mi pregunta es, este modelo puede leer un archivo que le proporcione para que pueda analizar el código y me de soluciones como lo hace ChatGPT4??
Si, lo acabo de probar tanto de forma local como mediante su API y si logro responder algunas preguntas en base a un PDF que le compartí.
Si te interesa probarlo de forma local o ver el funcionamiento mediante su API (que es demasiado económica, casi 100 veces más barata que Claude 3 Opus y GPT-4) te invito a que veas nuestro video más reciente: th-cam.com/video/KFEVDOXOQpE/w-d-xo.html
Hola, puedo correr estos tipos de modelos localmente con 16GB de Ram, un I5 y una gráfica de 4GB? GRACIAS! Muy buen video!
Si, de echo probé el modelo de 16B en una computadora con un Ryzen 5 5600g y 16gb de ram (sin gpu, solo con los gráficos integrados) y si funcionó bien. Lo más probable es que en tu equipo también funcione bastante bien 👍
Si porfaaaaaaaaa Con visual studiooo code, y si lo haces con el visual studio (el morado) te estaré eternamente agradecido!!!
Ya se encuentra publicado el video por si te interesa verlo con vs code: th-cam.com/video/KFEVDOXOQpE/w-d-xo.html
Sobre usarlo con Visual Studio (el morado), aún no existe el plugin ahí, pero se los han estado solicitando mucho a sus creadores y mencionaron que en un futuro podría tener una versión, pero parece que podrá tardar un poco más, te comparto una URL de la discusión de GitHub donde lo han estado solicitando: github.com/continuedev/continue/issues/759
@@Conciencia_Artificial graciassss
cuando dice que es compatible con la API de open ai significa que es compatible con la semántica y son los mismos llamados y todo?
Se refiere a que es compatible con OpenAI al llamar/invocar el modelo, mira te comparto su documentación oficial donde mencionan específicamente y dan un ejemplo de la compatibilidad: platform.deepseek.com/api-docs/
¡Muchas gracias por comentar y apoyar el contenido!
@@Conciencia_Artificial gracias, creo que aparece en el github pero no vi el link directo, lo vi muy por encima por falta de tiempo. Muchas gracias!
Gracias por el video, de todos los modelos open source de pocos billones de parámetros, cual crees que es el mejor? Yo he probado llama 3 8b, qwen 2 7b, mistral 0.3v 7b, yi, y me quedo de calle el llama 3 8b.
Que conste que no me refiero en código, me refiero en raciocinio y logica.
Muy buena pregunta, pues dependerá realmente de tus necesidades, CodeQwen 7B es considerado el mejor para codificación (de los chicos), Llama 3 8B obtienes muy buenos resultados en usos generales. Me parece que, de los modelos considerados chicos para poder correrlos de forma local y con mejores resultados para uso general, Llama 3 8B si está posicionado dentro de los mejores.
Estaría muy interesante poder realizar unas pruebas para comprobar rendimiento y calidad de respuestas. Ojalá pueda realizar en un futuro una comparativa y traerla al canal.
@@Conciencia_Artificial la verdad es que si hicieses un video sobre esto, estaría muy bien, también como recomendación te pediría que probaras el programa anything llm, puedes vincularlo con lm studio y ollama, gpt, Claude... hacer rag con pdfs, doc, txt... incluso agentes de gpt, para mi si no fuese porque lm studio está mejor optimizado, sería perfecto, lo recomiendo, gracias de nuevo por el vídeo.
@@jossejosse952 muchas gracias por la recomendación!, voy a revisarlo y si puedo realizaré también un video después de analizarlo. Gracias a ti por seguir comentando y apoyando este pequeño canal. ¡Saludos!
Interesante lo probaré
¡Muchas gracias por comentar! Saludos 👋
Es.... Fascinante!
Será gratuito siempre o después solicitarán un pago por Suscripción
Realmente no mencionan nada específico sobre dicha información, pero me imagino que lo van a dejar gratis un buen tiempo, ya que es un modelo muy barato (para usarse mediante su API). O quizá siempre lo dejen gratis y pongan algunos límites de uso como ChatGPT en su versión gratis y Claude. Hay que aprovecharlo mientras siga gratuita 👌👍
Siii por favor tutorial tutorial tutorial
Gracias!! 👋
Seria bueno el video de como añadirlo a copilot 🫣
Ya se encuentra el video publicado, por si gustas verlo: th-cam.com/video/KFEVDOXOQpE/w-d-xo.html
¡Muchas gracias por comentar y apoyar el contenido!
tutorial por favor como usarlo en vscode
¿Es posible utilizarlo como copilot con API para no usarlo localmente?
Si, también estoy considerando mostrarlo en el próximo video, ya que el precio de su uso es muchísimo más barato a comparación de los otros modelos.
@@Conciencia_Artificial increíble, y tiene un uso gratuito? Como codestral
@@Conciencia_Artificial cuando hablas de precio, qué se paga si es gratis?
@@vicmandevhola, puedes descargar el modelo gratis y usarlo de forma ilimitada en tu equipo, solo que usará los recursos de tu computadora. Lo que mencionó de precio es que hay muchas personas que tienen equipos muy antiguos y/o prefieren utilizar el modelo mediante un API, y a esta última opción me refiero que es mucho más barato que todos.
No supera a gpt-4o pero dices en el titulo que sí xd
Supera a GPT-4o solo en la prueba de Code Fixing en Aider, aunque solo es en una prueba si lo llega a superar, en todo lo demás sigue siendo superior GPT-4o.
El único que ya supera en todo a GPT-4o es Claude 3.5 Sonnet. Aunque no creo que tarde mucho OpenAI en sacar algo mejor jaja
Gracias por comentar! 👋
@@Conciencia_Artificial Ah bueno eso si. Y si concuerdo, openai inevitablemente siempre tendrá la delantera
Los billones en inglés son mil millones en español uU'
Sería excelente un modelo deepseek copilot mejor q copilot
muchas gracias por tu comentario y por apoyar el contenido!
cree el video como usarlo como copilot
Ya está apuntando en la lista para próximos videos. Gracias por tu comentario!
❤
enseñame como instalarlo como copilot gracias
Lo anotaré para el próximo video, gracias por tu comentario!
Pues aquí está el comentario de solicitando un mini tuto para integrarlo como copilot! :D
gracias por comentar! lo apuntamos para el próximo video
Todo supera a chatgpt 4o en papel pero en práctica en el día día ninguno se acerca
Ya ha sido superado el día de ayer por Claude 3.5 Sonnet. En nuestro video mostramos la comparativa y pruebas con el nuevo modelo, y ahora si le quitaron el puesto del rey a GPT-4o, aunque lo más seguro es que la próxima semana OpenAI saque algo mejor jaja
Te comparto el video por si gustas verlo: th-cam.com/video/jUG_dPaJEtw/w-d-xo.html
claude 3.5 sonnet barre al piso contra deepseek
Eso si, pero que deepseek tenga un excelente rendimiento y sea open source es una excelente alternativa para muchas personas y proyectos 👌
es raro pero a mi me contesta en chino y ya puedo decir lo que quiera que me responde en chino
Lo descargaste con ollama verdad? Lo menciono porque si notificaron que había un problema con una plantilla de ollama y hacía que siempre respondiera en Chino, ya fue corregido, solo actualiza ollama y actualiza el modelo con el comando
ollama pull [nombre del modelo]
Y ya debería corregirse todos los problemas
Muchas gracias lo intentaré ver si se soluciona
Copilot
Un tutorial sobre cómo crear un modelo propio a partir de un modelo existente, con la posibilidad de mejorar el modelo mediante la incorporación de más información, sería genial.
Muchas gracias por la sugerencia, lo voy a tener muy en cuenta. Gracias por el apoyo!
@@Conciencia_Artificial Creo que nuestro amigo se refiere a como entrenar a un modelo ya existente con datos propios. Sería muy interesante uin video sobre ello!
@@crisuar1989 Correcto !!
quiero un video para usarlo de forma local y de copilot!
¡Gracias por comentar! Ya se encuentra publicado el nuevo video para configurarlo como Copilot: th-cam.com/video/KFEVDOXOQpE/w-d-xo.html