DeepSeek Coder V2: La Mejor Alternativa y ÂĄEl MEJOR COPILOTO LOCAL GRATUITO! | Tutorial

āđāļŠāļĢāđŒ
āļāļąāļ‡
  • āđ€āļœāļĒāđāļžāļĢāđˆāđ€āļĄāļ·āđˆāļ­ 2 āļ•.āļ„. 2024
  • 🚀 ÂĄREVOLUCIÓN EN LA PROGRAMACIÓN! DeepSeek Coder 2 estÃĄ aquí para cambiar el juego ðŸŽŪ
    ÂŋCansado de pagar fortunas por asistentes de IA? ðŸ’ļ ÂĄDescubre cÃģmo DeepSeek Coder 2 te da el poder de GPT-4 a una fracciÃģn del costo! ðŸ˜ą
    En este video, te revelaremos:
    ✅ CÃģmo instalar y usar DeepSeek Coder 2 GRATIS en tu PC
    ✅ Por quÃĐ es 100 VECES mÃĄs barato que GPT-4, Claude 3 y Gemini 1.5 Pro
    ✅ CÃģmo convertirlo en tu propio GitHub Copilot personal
    ✅ Trucos para maximizar su potencial en Visual Studio Code
    ðŸ”Ĩ BONUS: Te mostramos cÃģmo usar su API por centavos y generar millones de tokens
    No te pierdas la oportunidad de elevar tu coding al siguiente nivel. Este video podría ahorrarte CIENTOS de dÃģlares en suscripciones a IA. 💊ðŸ’ŧ
    🔧 Enlaces Útiles:
    📌 Video comparativa con otros modelos: â€Ē ÂĄDeepSeek Coder 2: El ...
    📌 Sitio web oficial de ollama: ollama.com/
    📌 Sitio web oficial de DeepSeek: platform.deeps...
    📌 EvalPlus: evalplus.githu...
    📌 Video para obtener API de Codestral GRATIS: â€Ē Codestral (22B): ÂĄYa e...
    👍 Dale like, comparte y suscríbete a Conciencia Artificial para mÃĄs contenido increíble sobre lo Último en tecnología e inteligencia artificial.
    🔔 ÂĄActiva la campanita para no perderte ningÚn video nuevo!
    #programacion #github #githubcopilot #IA #codemasters #Gratis #OpenSource #ai #ias #DesarrolloDeSoftware #TechTips #vscode #Ollama #Groq #Continue #deepseek #tutorial #inteligenciaartificial #fyp #code #llm #copilot

āļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ • 54

  • @Conciencia_Artificial
    @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +2

    Ya estÃĄ disponible el autocompletado de cÃģdigo mediante el API oficial de DeepSeek-Coder-V2 + Continue. Solo tengan cuidado ya que con el autocompletado se les pueden acabar muy rÃĄpidamente los tokens disponibles.
    - Captura de pantalla del archivo de config.json: shrtm.nu/TqSbnIT
    - Ejemplo de cÃģmo debe quedar la parte en el archivo de config.json:
    {
    "models": [],
    "tabAutocompleteOptions": {
    "template": "Please teach me what I should write in the `hole` tag, but without any further explanation and code backticks, i.e., as if you are directly outputting to a code editor. It can be codes or comments or strings. Don't provide existing & repetitive codes. If the provided prefix and suffix contain incomplete code and statement, your response should be able to be directly concatenated to the provided prefix and suffix. Also note that I may tell you what I'd like to write inside comments.
    {{{prefix}}}{{{suffix}}}

    Please be aware of the environment the hole is placed, e.g., inside strings or comments or code blocks, and please don't wrap your response in ```. You should always provide non-empty output.
    ",
    "useCache": true,
    "maxPromptTokens": 2048
    },
    "tabAutocompleteModel": {
    "title": "DeepSeek-V2",
    "model": "deepseek-coder",
    "apiKey": "[YOUR_API]",
    "contextLength": 8192,
    "apiBase": "api.deepseek.com",
    "completionOptions": {
    "maxTokens": 4096,
    "temperature": 0,
    "topP": 1,
    "presencePenalty": 0,
    "frequencyPenalty": 0
    },
    "provider": "openai",
    "useLegacyCompletionsEndpoint": false
    }
    }

  • @TheEltictacdicta
    @TheEltictacdicta 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

    Me encanta este canal! Seguid así!

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      Muchísimas gracias por comentar y por apoyar! Tus comentarios me motivan a seguir creando contenido de calidad 👋

  • @davidreyna7198
    @davidreyna7198 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +2

    Dios mío!! por que este canal no tiene mas suscriptores, te agradezco por ese informaciÃģn.

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      MÃĄs del 88% de personas que ven los videos no estÃĄn suscritos ðŸĨē pero espero poco a poco vayan suscribiÃĐndose, me ayudarían muchísimo
      Igual muchas gracias por ese comentario hermano, me motivas a seguir creando y mejorando el contenido 💊

  • @erosjoseadarragajimenez
    @erosjoseadarragajimenez 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

    Hola , buenas tardes . En mi caso tengo un i5 12600k con 32 de ram , pero no poseo ninguna GPU . ÂŋEn ese caso si me serviría o tendría que ocupar alguna GPU y cuÃĄl sería la mÃĄs bÃĄsica?

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +2

      De acuerdo a la informaciÃģn oficial de Ollama, si debe funcionarte bastante bien el modelo de forma local, ya que pide un aproximado de 20gb de RAM para correr el modelo. InstÃĄlalo y cuÃĐntanos que tal funciona en tu equipo, igual tus comentarios nos pueden ayudar a muchos a ver el rendimiento en un equipo como el tuyo. ÂĄSaludos!

  • @MatiasZulberti
    @MatiasZulberti 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Honestamente, he estado usando Copilot durante el Último aÃąo y en comparaciÃģn con la ejecuciÃģn local de este modelo, utilizando el stack tecnologico que muestras en el video, la experiencia ha sido hasta el momento bastante pobre. Debo decir que cuento con un ordenador de escritorio con 32 GB de RAM y un i5 de 11th generacion. No tengo Placa grÃĄfica. Tal vez con una grÃĄfica pueda mejorar. Pero así como lo estoy usando, se traba bastante, las recomendaciones del autocomplete tardan una eternidad en llegar. La verdad que tenía mucha espectativa, porque el video es muy bueno, y el benchmark tambiÃĐn. Pero la experiencia ha sido mala la verdad.
    Muchas gracias por compartir estos avances en tÃĐcnologia y darnos la oportunidad de probar!

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      Hola, muchas gracias por compartir tu experiencia e informaciÃģn de tu equipo, aunque segÚn la poca informaciÃģn compartida, si debería funcionarte mejor el rendimiento del modelo de forma local. Yo tengo un ryzen 7 y 32gb de ram, pero si cuento con una gpu 4070, quizÃĄ eso me estÃĄ haciendo la diferencia tambiÃĐn, ya que si he obtenido un buen rendimiento con la mayoría de modelos presentados en el canal.
      QuizÃĄ otra opciÃģn que pudiera servirte bastante bien, es que utilices en modo de chat un modelo mediante API gratuito como Gemini 1.5 pro/flash, Llama 3 70B con Groq, Codestral (gratis hasta el 1 de agosto del 2024), o pagar el API que es demasiado barato de DeepSeek Coder 2 (para chat te puede durar meses con solo 2 dÃģlares).
      Y para autocompletado de forma local optar por modelos mÃĄs pequeÃąos como CodeQwen (que tiene un rendimiento excelente), Qwen 2 de 0.5B, 1.5B o la versiÃģn de 7B. El nuevo modelo de Gemma 2 de google con 9B. Llama 3 8B. Podrías intentar con diferentes opciones, y probar su rendimiento a ver cuÃĄl te convence mÃĄs.
      ÂĄGracias por comentar y apoyar el contenido!

  • @juanpablo9717
    @juanpablo9717 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Hola muchas gracias por el contenido, tengo unas dudas.
    Quisiera saber si estas herramientas de auto completado tienen acceso a todo el proyecto, o sea que si me responde en base a las funciones que ya tengo creadas en todo mi proyecto ya sea hooks, estilos, etc
    por que seria genial para mi que al hacer una pregunta, esto tenga el contexto de mi app, de que puede usar y la forma de codificar en ese proyecto
    por otro lado ya que veo que tienes varios videos de como tener un copilot gratis, cual podrias recomendar para usar de manera gratuita? es que veo varias opciones pero no se cual seria hasta ahora el mas adecuado y me gustaria una recomendacion, soy desarrollador web Frontend con buen conocimiento en backend entonces me gustaria algo que se acople a esto
    De nuevo muchas gracias por los videos, son de mucha ayuda y agradezco tu respuesta âĪ

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Hola disculpa por la demora, sobre pasarle contexto si es posible, la extensiÃģn de Continue te permite anexar a la solicitud los archivos que necesitas para mejorar la respuesta. Solo que para enviarle todo el cÃģdigo de tu proyecto quizÃĄ se vuelva un poco complicado si son demasiados archivos o de plano imposible por la limitante que tendrÃĄ cada modelo de su ventana de contexto. Pero si puedes enviarle los archivos mÃĄs importantes o donde estÃĐ la mayor parte de la lÃģgica para que el modelo "entienda" mejor lo que buscas.
      Sobre que utilizar, depende si quieres usarlo de forma local o mediante API. Pero te doy algunos consejos, si quieres local puedes optar por modelos
      Local:
      - CodeQwen de 7B (en pruebas ha tenido un excelente rendimiento para la codificaciÃģn)
      - Qwen 2 de 7B, tambiÃĐn hay opciones mÃĄs pequeÃąas de 0.5B y 1.5B
      - StarCoder 2 de 3B o 7B, este ha sido mÃĄs especializado para el autocompletado.
      Si tu PC te lo permite por la cuestiÃģn de hardware puedes utilizar:
      - DeepSeek-Coder-V2 con 16B
      - Codestral con 22B.
      API:
      - Codestral (API gratuita hasta el 01 de agosto del 2024), bueno para el autocompletado de cÃģdigo
      - Deepseek-coder-v2 de 236B mediante el API oficial, resulta muy econÃģmica 7.14M tokens por 2 dÃģlares.
      - Gemini 1.5 Pro o 1.5 Flash de forma gratuita mediante AI Studio. Con ciertas limitaciones, pero es una excelente opciÃģn gratuita.
      - Llama 3 70B mediante el uso gratuito con Groq
      - Cohere, tiene uso gratuito y limitado de su modelo, aÚn me falta probarlo mÃĄs, pero es otra alternativa
      ÂĄMuchas gracias a ti por comentar y apoyar el contenido!

  • @MateFast_Oficial
    @MateFast_Oficial 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    tengo una rtx 3070 y 32gb de ram, el consumo de ram es de acuerdo a la consulta,no?ðŸĪ”

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Mm pues desde un simple hola utilizarÃĄ la ram necesaria para generar la respuesta, en peticiones donde genera mucho mÃĄs texto o cÃģdigo, utilizarÃĄ la misma ram pero por mÃĄs tiempo hasta finalizar.
      Yo tengo un equipo parecido al tuyo, solo que con una 4070, y jala bastante bien con la pura ram 👌. Igual probÃĐ en un equipo sin gpu y 16gb de ram y tambiÃĐn funcionÃģ bien, un poco mÃĄs lento pero bastante decente.

  • @KryXuss
    @KryXuss 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

    Que son Los parÃĄmetros de la IA?

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Los parÃĄmetros en un modelo de lenguaje (LLM) como ChatGPT son como los "conocimientos" que el modelo aprende durante su entrenamiento. Cuando ves nÚmeros como 6B, 16B o 70B, se refieren a cuÃĄntos miles de millones de estos "conocimientos" tiene el modelo.
      MÃĄs parÃĄmetros generalmente significa que el modelo puede entender y generar texto mÃĄs complejo, pero tambiÃĐn requiere mÃĄs poder de computaciÃģn. Es como tener mÃĄs neuronas en un cerebro artificial - permite pensamientos mÃĄs sofisticados, pero consume mÃĄs energía.
      Sin embargo, tener mÃĄs parÃĄmetros no siempre garantiza mejores resultados, al igual que un cerebro mÃĄs grande no siempre significa ser mÃĄs inteligente.

  • @JOELANTILLANO
    @JOELANTILLANO āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Para usar la api tambien es necesario descargar ollama?

    • @Conciencia_Artificial
      @Conciencia_Artificial  āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Si solo quieres usar el API no es necesario, pero para el autocompletado de cÃģdigo si te recomiendo que utilices algÚn modelo pequeÃąo con ollama, ya que puede gastar demasiados tokens. ÂĄGracias por comentar!

  • @canelahouse1066
    @canelahouse1066 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Hola gracias por el video, tengo una duda, cada vez que uso el modelo veo que se usa el CPU al 100% , pero veo que mi tarjeta de video nvidia (Quadro t1000) apenas se esta usando hay alguna manera de que se use el GPU y no el cpu?
    Tambien queria decirte que me encanta tu contenido!

    • @danilomoya9873
      @danilomoya9873 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Revisa que estÃĐn instalados el soporte para los nvidia cuda cores.

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Hola hermano, disculpa por responder hasta ahora, me comuniquÃĐ con el equipo de Ollama y me comentaron que eso sucede a veces porque el modelo requiere mucha mÃĄs potencia, y la GPU se queda algo corta, por lo que se divide el trabajo. Te comparto el mensaje traducido: "Sí, es muy posible. Suele ocurrir cuando el modelo es demasiado grande para caber en la memoria de la tarjeta grÃĄfica (VRAM), y necesita ser compartido con la memoria del sistema. "
      ÂĄMuchas gracias por comentar y apoyar el contenido!

  • @MvtiasL
    @MvtiasL 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

    como anda esa IA vs codeqwen ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      La verdad faltaría analizar mÃĄs pruebas que poco a poco vayan saliendo, pero me parece que en este punto ambas se posicionan como excelentes alternativas para codificaciÃģn. En caso de encontrar benchmarks oficiales te los compartirÃĐ por aquí.

  • @EscuchaUnLibro
    @EscuchaUnLibro 2 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    excelente contenido🎉

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Muchas gracias 😁

  • @addev-m
    @addev-m 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Hola, excelente video, tengo un Asus Vivobook AMD Ryzen 7 7730U con 16GB RAM y 8 nucleos de procesador, es posible usar el modelo con mi hardware actaul?

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      Muchas gracias por el apoyo!
      Conforme a tu pregunta, realicÃĐ una prueba en un equipo con Ryzen 5 5600g y 16gb de RAM (sin GPU) y si logrÃģ ejecutarlo bien. Por lo que muy probablemente tambiÃĐn pueda funcionar en tu equipo.

    • @addev-m
      @addev-m 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Conciencia_Artificial Muchas gracias por la respuesta, saludos desde chile ðŸ’Ŋ

  • @RoxElton
    @RoxElton 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Hola, he descargado codeGPT, y he instalado codeollama, tengo una pregunta como puedo configurar codeGPT para que pueda resivir los prompts en espaÃąol y funcionar de forma correcta?

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      Primero una disculpa por la demora, en segundo estuve investigando al respecto, pero no encontrÃĐ informaciÃģn sobre como configurar para que siempre responda en espaÃąol, seguirÃĐ revisando y en caso de encontrar te la comparto.
      Lo que puedes hacer por el momento es que, si te responde en inglÃĐs, envíale el prompt: "Responde en espaÃąol" o "Traduce a espaÃąol" para que vuelva a lanzar toda la respuesta, pero traducida.
      ÂĄGracias por comentar y apoyar el contenido!

  • @AaronCamposMiranda
    @AaronCamposMiranda 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Que buenos vídeos, quizÃĄ lo comprÃĐ cuando codestral dejÃĐ de estar gratis

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +2

      Es una excelente opciÃģn la verdad, muy potente y econÃģmica. QuizÃĄ para la fecha en que termine la prueba de Codestral tengamos otro(s) modelos mÃĄs potentes jaja, todo va avanzando muy rÃĄpido.
      ÂĄGracias por comentar y apoyar el canal!

  • @jairomt
    @jairomt 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Muchas gracias por compartir 😄, una consulta hay forma de configurar por mientras deepseek como chat mediante API y otro modelo como codemistral para el autocompletado? o copilot para el autocompletado? es posible ello disculpa la consulta

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      Si, casi al final del video mencionÃģ lo que comentas, con Continue podemos dejar el chat mediante su API como mostramos en el video, y para el autocompletado de cÃģdigo, podemos utilizar de forma gratuita Codestral (mediante su API tambiÃĐn), si quieres aprender a obtener el API de Codestral te comparto un video donde enseÃąamos cÃģmo obtener acceso gratuito (el API estarÃĄ gratis hasta el 01/Agosto/2024): th-cam.com/video/KFEVDOXOQpE/w-d-xo.htmlsi=MdmGSShLI1T_G2P4
      Espero te sirve a esta informaciÃģn, y cualquier duda o comentario aquí estoy al pendiente. Muchas gracias por comentar!

    • @jairomt
      @jairomt 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Conciencia_Artificial muchas gracias irÃĐ a ver el video 😄

  • @alvarovasquez8978
    @alvarovasquez8978 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Quisiera saber cuales son los requisitos minimos de una pc para que funcione la version lite de deepseek poooooooooooorfaaaaaaðŸ˜ĒðŸ˜ĒðŸ˜ĒðŸ˜Ē😊 y gracias por el vídeo

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Como tal no hay informaciÃģn oficial que especifique esto, pero acabo de probar en un pc con 16 GB de RAM, y un Ryzen 5 5600g (sin GPU solo grÃĄficos integrados) y funcionÃģ bastante bien la generaciÃģn de respuestas y cÃģdigo. Ollama igual menciona que mínimo necesitarías entre 18-20 GB de RAM. Pero con la prueba que realicÃĐ que fue menos si funcionÃģ. ÂŋCuÃĄles son las características de tu equipo?

  • @alvarogomez3576
    @alvarogomez3576 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Mi maquina es un ryzen 5600G + GTX 1660Super con 16GB de ram lastima que no estoy dentro del rango de la ram

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      Si debe funcionar, acabo de probar en un equipo con el mismo procesador y 16 gb de ram, y sin gpu y funciona bastante bien 👌

    • @alvarogomez3576
      @alvarogomez3576 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Conciencia_Artificial ok Gracias man tocara probar entonces .. ðŸŦĄ

  • @dcloki789
    @dcloki789 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    excelente contenido, gracias 👍

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Muchas gracias! Espero te haya resultado Útil

  • @bambanx
    @bambanx āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Hay otro mejor a este día?

    • @bambanx
      @bambanx āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Gracias

    • @Conciencia_Artificial
      @Conciencia_Artificial  āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Hay excelentes alternativas locales como Llama 3.1 8b, Gemma 2 2b/9b/27b, Mistral-nemo 12b, si puedes probar este Último hazlo, comentan que se estÃĄn obteniendo muy buenos resultados, solo considera las especificaciones mínimas, por ejemplo, para mistral-nemo se necesita mínimo el doble de RAM, o sea 24 gb de ram para que su funcionamiento sea eficiente.

    • @bambanx
      @bambanx āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Conciencia_Artificial muchas gracias

  • @Caigaencuenta
    @Caigaencuenta 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Que mÃĄquina tienes brother?

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Tengo un ryzen 7 5700x, 32gb de ram y una rtx 4070 12gb de vram. Gracias por comentar! 👋

    • @Caigaencuenta
      @Caigaencuenta 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Conciencia_Artificial Gracias por responderme brother, yo tengo lo mismo solo que a diferencia tuya tengo una 3080 y no me funcionÃģ el modelo :(
      Por otro lado haz pensado hacer una guía del uso de RAG para el entrenamiento de modelos locales de IA?

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Caigaencuentapero intentaste instalar el modelo de 16B o el grande de 236B? Porque el de 16 si debe ejecutarse correctamente en tu equipo, probÃĐ este modelo en una computadora con 16gb de ram y un ryzen 5 5600g (sin gpu) y funcionÃģ bien.
      El modelo grande ni con la 4090 te va a funcionar, es demasiado pesado, para es es mejor utilizarlo a travÃĐs de un servicio mediante su API
      Y sobre enseÃąar sobre los otros temas si lo tengo pensando hacer, nada mÃĄs termino de lanzar algunos videos que tengo pendientes y empiezo con esos temas. Muchas por la recomendaría!

    • @Sorl4c
      @Sorl4c 2 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Conciencia_Artificial Acabo de descubrir tu canal super interesante. Tengo un i5 de 11 generacion y 48GB de RAM pero una grafica muy antigua una 270x. No crees que me funcione el modelo grande? Tambien tengo un m2 a 7200MBs, solo me falla un poco la grÃĄfico por que no juego y no me ha hecho falta actualizarla
      Estaría buen un video de comparativas de lo que se podría hacer con un modelo y otro

  • @NsaVmpr
    @NsaVmpr 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    buenisimo

    • @Conciencia_Artificial
      @Conciencia_Artificial  3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™ +1

      muchas gracias por comentar! Y espero te haya resultado muy Útil esta informaciÃģn. ÂĄSaludos!

    • @NsaVmpr
      @NsaVmpr 3 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@Conciencia_Artificial si, realmente muy Útil y videos de muy buena calidad en producciÃģn e informaciÃģn q es lo mas importante. seguirÃĐ viendo los otros, quiero un copilot para programar pero que sea en linea ya q mi maquina no es tan poderosa como para aguantar una IA local.