Cómo INSTALAR en tu PC un CHATGPT...¡GRATIS! 🤯 Chatea con la IA y tus DOCUMENTOS

แชร์
ฝัง
  • เผยแพร่เมื่อ 1 ต.ค. 2024

ความคิดเห็น • 89

  • @XavierMitjana
    @XavierMitjana  5 หลายเดือนก่อน +5

    SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
    👉 bit.ly/ia-newsletter_

  • @juliocorral
    @juliocorral 5 หลายเดือนก่อน +9

    Esta tendencia de poder alimentar modelos con nuestra propia información para temas internos sin el riesgo a que nuestros datos sean utilizados por terceros me parece que va a crecer mucho en breve.

  • @faustoorozcocoy1256
    @faustoorozcocoy1256 5 หลายเดือนก่อน +8

    Hola @XavierMitjana gracias por el video, tan solo quiero apuntar que en LMStudio también se puede usar la tarjeta gráfica para ejecutar rápidamente los modelos, para ello a la derecha de la interfaz hay un campo, lo activas y ya.
    Por otra parte, como idea para otro video y relacionado con este asunto de ejecutar modelos en local, una de las principales ventajas es que podemos encontrar modelos sin censura, convendría un video con los principales modelos con esta característica que estén disponibles actualmente. ¡Saludos!

  • @juanjesusligero391
    @juanjesusligero391 5 หลายเดือนก่อน +9

    Ollama + OpenWebui también tiene RAG por defecto, y los dos son 100% open source, con Llama3 desde el primer día :)

    • @y0._.
      @y0._. 4 หลายเดือนก่อน

      Pasa tuto xd

    • @juanjesusligero391
      @juanjesusligero391 4 หลายเดือนก่อน +2

      @@y0._. Hay uno hecho ya, en un canal llamado "La Hora Maker". El vídeo se llama "¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!".
      Lo único es que ahora la GUI (interfaz gráfica) se llama OpenWebui (el vídeo es de hace dos meses, de cuando se llamaba OllamaWebui), pero se instala igual (yo seguí ese tutorial para instalarlo todo).

    • @y0._.
      @y0._. 4 หลายเดือนก่อน

      @@juanjesusligero391 muchas gracias!

  • @airdany
    @airdany 5 หลายเดือนก่อน +13

    Lo único que me disgusta de la novedad de la IA actual, es que sacan casi todo para ordenadores con recursos potentes. Si tienes un ordenador con más de 5 años te dan la espalda. Mi macmini va genial a dia de hoy, maqueto libros mientras navego y retoco imágenes.. holgadamente. Pero LM Studio ya no tiene versión para mi sistema operativo, he de parchear el sistema para intentar cargarle la siguiente (Big Sur) y aun asi no sé si podria usar LM Studio. He descargado JAN que hace lo mismo, y el listado de modelos ya me adieverten en más de la mitad que mi memoria es justa (8 GB Ram) diciendo que iria lento el sistema. He descargado con OLLAMA en mi terminal algunos modelos de IA de 4 gigas y van despacio, descargué uno de 25 gigas e iba tan lento que no lo usé. Xavier! independientemente de LM Studio, JAN o lo que sea... ¿hay alguno que en local te permita analizar PDFs?. Me va genial darle PDFs a alguna IA y decirle sumame todas estas facturas o buscame tal cosa y local seria más privado.

    • @felixcanosa6819
      @felixcanosa6819 5 หลายเดือนก่อน +6

      Podrías usar Gpt4ALL o JAN, y usar el nuevo modelo de Microsoft Phi-3 . En mi caso tengo la RAM justa (8GB) y una CPU Intel I7 de cuarta generación y corriendo con el modelo phi-3 me va bastante bien (los mas grandes como mistral 7x8 o los de LLAMA van como hombre picando en piedra).

    • @elsubidonk
      @elsubidonk 5 หลายเดือนก่อน

      que modelo de Mac mini tienes? yo tengo un macbook pro del 2012, con una Nvidia de 1gb mas o menos. Te funciona bien? Si no es asi, puedes ponerle windows o linux y te ahorras de subir a Big sur u otra version mas moderna de MacOS.

    • @felixcanosa6819
      @felixcanosa6819 5 หลายเดือนก่อน +2

      @@elsubidonk si, tengo un procesador Intel (no mac), usando Gpt4ALL Y con un S.O linux mint, con el modelo que te especifique va muy bien,

    • @elsubidonk
      @elsubidonk 5 หลายเดือนก่อน

      @@felixcanosa6819 mmm bueno habra que probar.

  • @jneon66
    @jneon66 5 หลายเดือนก่อน +4

    @Xavier este modelo de Chat RTX, es porsible agregarles modelos o solo los que trae? Saludos desde Rep Dom :D

  • @nchtblut
    @nchtblut หลายเดือนก่อน

    Model Meta-Llama-3.1-8B-Instruct-Q4_K_M failed to start. ni modo RIP

  • @theemperorprotects83
    @theemperorprotects83 9 วันที่ผ่านมา

    Ni tan seguros, yo lo uso de todas maneras, le pregunte a llama de como se actualiza sino la conecto a internet, y me dijo que almacena información en la cache en disco y según el tamaño así puede continuar trabajando desconectada de internet, pero una ves conectes tu internet, ella se conectará a los servidores de meta para actualizarse; ahora el punto es si se conecta a los servidores de meta que le impide subir las conversaciones realizadas?, nada incluso no tenemos ninguna certeza de que lo hace o no. Pero a Don Mark ya lo conocemos por su manía con los datos ajenos.

  • @nchtblut
    @nchtblut หลายเดือนก่อน

    11:27 lol eso me paso una vez con bing chat hace como 3 meses xd la deje que escribiera y lo grabe no paro de escribir por 5 minutos cosas sin sentido y al final numeros y simbolos

  • @enriquediaz-s9r
    @enriquediaz-s9r 5 หลายเดือนก่อน +1

    Hola Xavier hay manera de que me ayudaras en capacitar como poder hacer esto conectando a una base de datos y que funcione en modo Local del IA para analisis de datos

  • @Daphne2342
    @Daphne2342 28 วันที่ผ่านมา

    qué modelos son recomendables para correr en una Macbook M1 con 8 gigas de ram?

  • @entey2011
    @entey2011 10 วันที่ผ่านมา

    Cuando no quiere cargar el modelo que se puede hacer??

  • @Smylaw
    @Smylaw 5 หลายเดือนก่อน +1

    Llama 3,le he preguntado cuantos parámetros tiene gpt4 y ha respondido lo que le ha dado la gana, no sé si es mucho de fiar

    • @XavierMitjana
      @XavierMitjana  5 หลายเดือนก่อน

      Hola, los modelos de lenguaje su principal uso no debería ser esperar que sean precisos a la hora de devolver información factual, sino sobre todo como herramientas de manipulación de textos y lenguaje en base a conocimiento aportado.

  • @Jesulex82
    @Jesulex82 20 วันที่ผ่านมา

    si si pero se puede hablar por micro? y que te lea sus respuestas?

  • @pm9327
    @pm9327 5 หลายเดือนก่อน

    ¿Alguien sabe por que ChatGPT4 manda este mensaje? “New responses will use GPT-3.5 until your GPT-4 limit resets” (Las nuevas respuestas utilizarán GPT-3.5 hasta que se restablezca su límite de GPT-4), ¿“límite”?, ¿como que hay límites si es una cuenta pagada?.
    Gracias por sus comentarios.

    • @XavierMitjana
      @XavierMitjana  5 หลายเดือนก่อน +2

      Sí, incluso con la versión de pago ChatGPT impone límites de uso. Antes te lo decía explícitamente, 40 mensajes cada 3 horas, ahora es algo un poco más difuso.

    • @pm9327
      @pm9327 5 หลายเดือนก่อน

      @@XavierMitjana Pero no debería ser así ¿cierto?, es casi como si el robot me dijera que necesita descansar. Creo que si lo de la AI va a ser así nadie debería temer el que te quiten el empleo 😂😂😂😂😂

  • @Charlysam-g3t
    @Charlysam-g3t หลายเดือนก่อน

    diablos me pase 15minutos viendo y yo solo queria saber si podia crear imagenes en local y nunca lo dijo. Mal servicio!🙃

    • @XavierMitjana
      @XavierMitjana  หลายเดือนก่อน +1

      Es un vídeo sobre Llama 3, Llama 3 es un modelo de lenguaje, ¿cómo va a generar imágenes?

  • @jorgeosmar5429
    @jorgeosmar5429 5 หลายเดือนก่อน

    Hasta ahora no encontré otra IA mejor que PI. Hablo con la aplicación como si fuera una persona en cuanto su fluidez. Y en cuanto a contenido es suficiente hasta para nivel profesional. Llama es una tortuga por lo que veo y hay que ingresar Pront? y una tarjeta especial? Gracias me quedo con PI.

  • @yockmercado
    @yockmercado 5 หลายเดือนก่อน +1

    En qué aplicación haces tus avatares? Tienes vídeo sobre eso?

    • @XavierMitjana
      @XavierMitjana  5 หลายเดือนก่อน

      Lo hago con Midjourney+CREF+FaceSwap+Upscale en Krea o Leonardo, tutorial como tal paso a paso no tengo, pero de cada una de las partes están los vídeos en el canal.

  • @Nousenesp
    @Nousenesp 4 หลายเดือนก่อน

    Para los que sepan se podría usar Llama 3 con chatRTX?
    Y en ese caso iría más rápido que con LMstudio?

  • @michel316-f1t
    @michel316-f1t 2 หลายเดือนก่อน

    Mi maquina no es compatible con ML Studios, me dice que los Backends son incompatibles. Que puedo hacer para solucionar este problema

  • @canaljoseg0172
    @canaljoseg0172 5 หลายเดือนก่อน

    He montado llama 3, le falta pulirse un poco más, tengo otros modelos que son mejores, en los modelos pequeño deben estar orientado a cosas necesaria y no tanta información que no es necesaria. Por eso este modelo pasara por un proceso de reajuste, como hacen con los modelos de automatic111. Para que trabaje muy rápido el modelo debe estar configurado en la gpu al ancho de banda de la tarjeta, y en la parte de tokens que tiene un valor 2048, se divide lo del ancho de la tarjeta entre 64 y la cantidad te indique lo multiplicas por 2048. si tiene mucha memoria lo puedes dividir entre 32 o 16.
    No me justa ollama, mi favorito sigue siendo LM Studio y la interfaz Web-UI de ollama, para modo local.
    Una cosa si es cierta es más preciso el 70b de tokens, que el de 7b, pero como asistente desarrollo es bueno.
    Hay que aprovechar llama 3 en Huggins mientras siga gratis, pero creo debe aún pulirse para ser tan bueno como ChatGPT.
    Ojala que se diseñe server para tener su propios modelos y que sean de 300b de tokens, sería la Ostia !!! ☺

  • @nchtblut
    @nchtblut หลายเดือนก่อน

    9:25 no me pidio nada asi que como lo instalo?

  • @jjen9595
    @jjen9595 5 หลายเดือนก่อน

    Para chatRTX se necesita 8GB VRAM por si acaso, lo probe en mi 3060m de laptop y no funciono 😢

  • @testerdsdddd
    @testerdsdddd 5 หลายเดือนก่อน +1

    Pues el de RTX es muy tonto, he tratado de hacer que escriba relatos y lo hace fatal, chatgpt3 lo hace mucho mejor.

    • @georyittgorayeb1900
      @georyittgorayeb1900 5 หลายเดือนก่อน

      Si pruebas el de 8b claramente el gpt 3.5 esta a otro nivel. El de 70b es más decente pero creo que igualmente está un peldaño más arriba gpt

    • @testerdsdddd
      @testerdsdddd 5 หลายเดือนก่อน

      @@georyittgorayeb1900 he instalado todo el pack...

  • @PacoGoro
    @PacoGoro 5 หลายเดือนก่อน

    Xavier, ¿conoces algún modelo que no esté censurado y que se pueda cargar en local? Muchas gracias por tus excelentes vídeos.

  • @burnoutcycle
    @burnoutcycle 5 หลายเดือนก่อน

    No se yo, es más rápido que ChatGPT pero personalmente por ejemplo en scripting de powershell esta un poco flojo

  • @osito1701
    @osito1701 5 หลายเดือนก่อน

    Javier, abordas herramientas actuales de IA. ¿Conoces alguna herramienta para diseñar en solidworks? Con los vídeos de youtube, no es posible interactuar cuando surgen dudas.

  • @xavifont7206
    @xavifont7206 4 หลายเดือนก่อน

    Y para instalar una API local que de servicio de chatboot por ejemplo a una app propia, como lo harias?

  • @martinsanchez6628
    @martinsanchez6628 หลายเดือนก่อน

    Excelente, buena información, gracias

  • @gstvgrc
    @gstvgrc 5 หลายเดือนก่อน

    Mañana lo pruebo en un Mac Mini. Pregunta: para qué sirve la integración de LM Studio dentro de Jan?

  • @juliangomez4543
    @juliangomez4543 หลายเดือนก่อน

    Una pregunta necesito pasar imagenes a texto que prompts o IA recomendais?

  • @alejandroaltamirano9884
    @alejandroaltamirano9884 5 หลายเดือนก่อน +1

    Yo ya hice eso, pero sólo está disponible el modelo de 8B de parámetros.
    ¿Todavía no está disponible el mediano?

    • @georyittgorayeb1900
      @georyittgorayeb1900 5 หลายเดือนก่อน +1

      parece que para ellos el mediano es el de 70b

    • @alejandroaltamirano9884
      @alejandroaltamirano9884 5 หลายเดือนก่อน +1

      @@georyittgorayeb1900 Así es. Se supone que ya está liberado, pero no estaba disponible en LLM studio.

    • @georyittgorayeb1900
      @georyittgorayeb1900 5 หลายเดือนก่อน

      @@alejandroaltamirano9884 aaa dle que yo con ollama me descargue el de 70b

  • @JOSE-GRIMALT-Temático
    @JOSE-GRIMALT-Temático 14 วันที่ผ่านมา

    que lio ¡¡¡¡¡

  • @mekagenden
    @mekagenden 4 หลายเดือนก่อน

    PrivateGPT

  • @cativaman
    @cativaman 5 หลายเดือนก่อน

    Hola Xavier. Gracias x compartir info de alto valor.
    Una consulta: Existe algun tipo de Recurso Basado en la Nube que me permita instalar un chat bot basado en IA y configurarlo de manera que "Aprenda ' como responder o sea mantener un diálogo en base a Respuestas y contenidos PreArmados en PDF?
    Aguardo respuesta.
    Gracias.

    • @XavierMitjana
      @XavierMitjana  5 หลายเดือนก่อน

      Entiendo que si buscas algo sencillo, necesitarías una herramienta tipo "Chatbase". Luego si tienes conocmientos técnicos puedes armarlo a partir de una API de Google, Microsoft u OpenAI.

  • @IAMKTINM
    @IAMKTINM 5 หลายเดือนก่อน

    Muchas gracias 🎉 ChatPDF pienso que es similar a la última opción.

  • @11020tony
    @11020tony 5 หลายเดือนก่อน +1

    muy bueno, gracias

  • @UrsulaCallistis
    @UrsulaCallistis 5 หลายเดือนก่อน +1

    En caso de que algún día los desarrolladores logren hacer esto de manera fácil en un celular con Android, ojalá puedas hacer un vídeo hablando de eso, ya que todas las novedades de IA las conozco gracias a ti, por ejemplo, Poe lo conocí gracias a ti. Sé que hoy en día ya se pueden instalar este tipo de cosas en Android, pero es muy engorrosos, ya que hay que usar comandos en Termux. Si se pudiera hacer una APK y descargar un modelo y luego cargar a la aplicación el modelo ya descargado (algo así como funcionan los emuladores de consolas de videojuegos) sería más fácil. Aunque no sé qué tan posible sea esto, ya que si todavía no se ha hecho, quizá es porque no se puede. Así sería más fácil, ya que además de no tener que estar poniendo comandos, en caso de que algo te dé error después que te haya funciona y tangas que desinstalar la aplicación, no tendrías que volver a descargar otra vez el modelo y podrías hacerlo todo de manera verdaderamente offline, ya que tendrías el APK y el modelo descargado, creo que con los años esto se va a poder resolver.

    • @jjen9595
      @jjen9595 5 หลายเดือนก่อน +1

      Donde vives? En la era de la cavernas? Eso ya se puede, la aplicación se llama "Layla Lite" instale phi 3, pero mi móvil no es muy poderoso así que tardo algo en responde 🤪

    • @UrsulaCallistis
      @UrsulaCallistis 5 หลายเดือนก่อน

      @@jjen9595 Oye amigo, gracias por avisar, yo no sé cómo se hace eso ¿Me puedes explicar, por favor?, y gracias por avisar, yo no sabía. Tengo un celular más o menos potente, creo que uno de esos modelos ultra pequeños me podrían correr, pero no tengo computadora, siempre e intentado buscar alguna APK parecida lo que hace LM Studio, pero para Android, ya que LM Studio solo está para computadora. Estar usado Termux no es práctico para mí, sobre todo porque en caso de que tengas que desinstalar Termux por algún motivo, y quieres volver a usar otrs vez el modelo que tenías, vas a necesitar sí o sí una conexión a inter para hacer todo ese proceso otra vez con comandos.

    • @UrsulaCallistis
      @UrsulaCallistis 5 หลายเดือนก่อน

      ​@@jjen9595 O sea, ¿se puede interpretar Phi 3 en Layla Lite?

    • @jjen9595
      @jjen9595 5 หลายเดือนก่อน

      @@UrsulaCallistis igual a lo que hacen en este video, le puedes preguntar y todo

    • @jjen9595
      @jjen9595 5 หลายเดือนก่อน

      @@UrsulaCallistis descarga el modelo, pesa 2 GB y ponlo en una carpeta en tu teléfono y después en Layla pon custom llm y ahí te pregunta dónde está, una vez que le haces click ya no puedes mover el archivo porque creo que se buguea y con eso ya puedes hablar con el chat, es posible ya que phi tiene 3 días de haber salido y está dedicado para teléfonos, aunque la versión de 2gb está bastante recortada así que para pruebas está bien

  • @jodter1
    @jodter1 5 หลายเดือนก่อน

    ya, pero como puedo usar modelos de ia por python, no hablo de colaide hable de ide para proyectos reales.

  • @JorgeVazquezB
    @JorgeVazquezB 5 หลายเดือนก่อน

    Acabo de actualizar Jan y aparece Llama 3 8B Q4

  • @akasha6287
    @akasha6287 5 หลายเดือนก่อน

    Buenos dias amigo gracias por tus videos, un favor que IA es recomendable para revisar codigo

  • @yomairaparaguaica2594
    @yomairaparaguaica2594 26 วันที่ผ่านมา

    bla bla bla

  • @manudetierra
    @manudetierra 2 หลายเดือนก่อน

    Graciasss increiblemente util este video

  • @TICdoc_
    @TICdoc_ 5 หลายเดือนก่อน

    ¿Degoteo? ... no puedes negar de donde eres¡, ¡muy buen vídeo¡

  • @javier.vallejos
    @javier.vallejos 5 หลายเดือนก่อน

    Esta muy bueno el video, graicas por compartir. No sé si existe alguno que admita cualquier tipo de archivo? (tipo xml, html, jpg, bat, py, xlsx, etc) y si hay alguna que pueda "entrenarse" en algo y que considere los avances que se hayan hecho en el tiempo en relación a cómo abordar ciertas tareas... eso existe en local a día de hoy?

    • @javier.vallejos
      @javier.vallejos 5 หลายเดือนก่อน

      Algo así como fine-tuning :D

    • @XavierMitjana
      @XavierMitjana  5 หลายเดือนก่อน +1

      Hola Javier, puede realizarse fine tuning de modelos en la nube y luego ejecutarlos en local. Creo que es lo más parecido a lo que necesitas.

    • @javier.vallejos
      @javier.vallejos 5 หลายเดือนก่อน

      @@XavierMitjana Podrías hacer un video de cómo sería el proceso? no me imagino haciendo fine-tuning en la nube (idealmente gratis) entregándole archivos, sería ideal conocer el proceso a grandes rasgos y así cada quién en su área pueda hacer sus primeros desarrollos con eso. Saludos y muy buenos videos!

  • @MrMoisheLebowitz
    @MrMoisheLebowitz 5 หลายเดือนก่อน

    Gracias x colocar llamita 🇵🇪 ❤

  • @manolomaru
    @manolomaru 5 หลายเดือนก่อน

    ✨👌😎😮😎👍✨

  • @andyaguilar434
    @andyaguilar434 5 หลายเดือนก่อน

    Pregunta de novato: que espacio ocuparia en el disco duro de una laptop.

    • @user-sx6nd8zl5k
      @user-sx6nd8zl5k 5 หลายเดือนก่อน

      Entre 4 a 5 gb el modelo llama 3 , anque tambien esta el modelo PHI 3 de 2,5 gb y 500mb mas si instalas LM Studio si tu laptopva algo corta en recursos

  • @soniadiaz1174
    @soniadiaz1174 หลายเดือนก่อน

    Gracias!!

  • @pedroguzmanasmat7371
    @pedroguzmanasmat7371 5 หลายเดือนก่อน

    excelente aporte.

  • @gustechdurany1878
    @gustechdurany1878 5 หลายเดือนก่อน +1

    estan muy buenos me interesa todo esto

  • @airdany
    @airdany 5 หลายเดือนก่อน

    Que bueno! JAN lleve esa función de "charlar" con PDFs, a ver si doy con un modelo que me funcione... sino seguiremos indagando. Muy bueno este video con ideas.

  • @CheatPeru
    @CheatPeru 5 หลายเดือนก่อน +1

    le das muchas vueltas, en LM studio tmb tiene la opcion de hacer que el modelo cargue en la GPU sin tener que instalar nada.

    • @bot-em-craft
      @bot-em-craft 2 หลายเดือนก่อน

      Como se hace?