Phi-3 Mini: El asistente personal que puedes ejecutar en tu PC de forma gratuita

แชร์
ฝัง
  • เผยแพร่เมื่อ 19 พ.ย. 2024

ความคิดเห็น • 62

  • @enriquediaz-s9r
    @enriquediaz-s9r 6 หลายเดือนก่อน +6

    Esta excelente como podemos conectar una base de datos para preguntarle sobre a análisis de datos con phyton o como podemos conectarlo para el analisis predictivo
    Excelente trabajo

  • @adriintoborf8116
    @adriintoborf8116 6 หลายเดือนก่อน +6

    Hoy le hice la pregunta de las manzanas y me respondió correctamente, por lo que o actualizaron el modelo o ...

  • @adriintoborf8116
    @adriintoborf8116 6 หลายเดือนก่อน +2

    Y chatgpt respondió erróneamente pero le dije:
    User
    Examina paso por paso y no olvides enfocarte en las fechas para responder. Después de ese Prompt me respondió correctamente por lo que los modelos también son tan buenos como los prompts que se les den.

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      Exacto! Eso es otro punto muy importante, la redacción de un buen prompt y saber llevar a la IA para obtener mejores resultados (a pesar de los errores que pueda presentar).
      Debido a esto, cualquier IA puede resultar ser muy útil, aunque sea pequeña como lo es Phi-3.

  • @elmegapeluco
    @elmegapeluco 6 หลายเดือนก่อน +1

    Phi 3 es una evolución de PI 2.5 (Inflection)? Lo digo xq se que Microsoft compro Inflection hace un mes y poco.

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน

      Hola, pues se han vendido siempre como productos independientes, Phi ya era un modelo que había aparecido, pero no había causado mucho impacto por su rendimiento tan bajo, con esta nueva versión digamos que hizo mucho "boom" por casi tener el mismo rendimiento que GPT-3.5.
      Pi sigue existiendo y supongo que seguirán mejorando sus próximas versiones.
      Igual comparto lo último de Pi 2.5: inflection.ai/inflection-2-5
      Y por si alguien lo quiere probar de forma gratuita: pi.ai/talk

    • @elmegapeluco
      @elmegapeluco 6 หลายเดือนก่อน

      @@Conciencia_Artificial Ok, gracias por la aclaración, no sabía que Phi ya existia antes, entiendo entonces que en un futuro podemos esperar Inflection PI 3.0

  • @JoseGuzman-ff8ry
    @JoseGuzman-ff8ry 6 หลายเดือนก่อน

    Excelente tutorial, muy detallado y explicito, ahora bien también indican que Phi-3 se ejecuta localmente en celulares, sabes como seria ese proceso???

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      Si, pero solo conozco una opción para correrlo en iPhone, pero creo que solo el modelo 15 pro Max lo puede correr, ya que yo tengo el 14 pro y la generación de la respuesta está demasiado lenta, debes de inscribirte mediante una app que se llama LLM Farm que se encuentra en fase beta y de ahí descargar el modelo. Si encuentro alguna otra igual compartiré información.
      Gracias por el apoyo!

    • @JoseGuzman-ff8ry
      @JoseGuzman-ff8ry 6 หลายเดือนก่อน

      @@Conciencia_Artificial muchas gracias por responder.

  • @josestron
    @josestron 6 หลายเดือนก่อน

    Hola buenas, amigos me interesa mucho esa función de hacer que la IA pueda, conectarse a internet desde nuestro PC, creo que todo tiene que ver con el launcher o interface que le agreguemos, agradezco me informen por este medio cuando consigan activar esta funcionalidad...gracias

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      Claro, en cuanto sepa la forma de implementar con internet o exista una actualización del proyecto, realizaré una publicación para que todos puedan beneficiarse de esta información

  • @djflexs1688
    @djflexs1688 6 หลายเดือนก่อน +1

    Exelente, una pregunta, el modelo se carga en GPU o Ram? Lo digo por ejemplo descarge un modelo super mas grande, como se ejecuta, donde carga? Que necesiras mas Cpu, Mem o Gpu? Saludos

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +3

      Para modelos más grandes si son importantes los 3, bueno un poco más la ram y la gpu (vram), por ejemplo, intente ejecutar llama 3 70b en mi pc, tengo 32gb ram y una 4070 con 12gb de vram y tarda demasiado en generar la respuesta, después investigué cuales eran los requisitos mínimos y según (no se si sea real) debo tener mínimo la 4090 con 24gb de vram y 94 de ram para que se ejecute de forma eficiente. Lamentablemente no lo podré probar ya que es una gráfica muy cara para mi en estos momentos.
      Quizá en un futuro si el canal crece y me lo permite, podría realizar este tipo de pruebas para compartirlas

  • @kener5381
    @kener5381 6 หลายเดือนก่อน +1

    muy buen video, como puedo darle algunos pdf al modelo ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      En la interfaz que se presenta al final del video en Open webUI, se pueden cargar documentos pdf propios para que el modelo lea su contenido

  • @galaxiapixel
    @galaxiapixel 6 หลายเดือนก่อน +3

    El unico pero de estos modelos tan chicos y que phi3 no se salva es el exceso de alucinaciones y sobre escribir datos, siemore escriben de mas. Hay que fine tunearlos si o si para usarlos bien

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      Totalmente de acuerdo, pero el que cada vez haya modelos capaces de ejecutarse en nuestros equipos y mejorando la calidad, creo que es importante para muchos usos y mayor privacidad.
      Otra ventaja es que podemos cargarle a estos modelos también nuestros propios archivos, para mejorar la calidad y precisión de las respuestas.

  • @FelipeRojasPerucca
    @FelipeRojasPerucca 6 หลายเดือนก่อน +1

    Genial tutorial, muchas gracias.

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน

      Muchas gracias a ti por comentar y por el apoyo!

  • @produccionesonuba
    @produccionesonuba 6 หลายเดือนก่อน

    Hola amigo, muchas gracias por tu vídeo tan bien explicado. He instalado el modelo en webui y todo genial, pero me gustaría saber cómo activar la opción de Internet para que el modelo pueda por ejemplo saber el tiempo de una ciudad, porque en la primera opción que no es una instalación local me parece haber visto que se podía dar acceso a Internet. Sin embargo en modo local no lo veo.
    Por cierto, el modelo se niega a creer que está instalado en mi ordenador..., se empeña en creer que está en los servidores de Microsoft 😀

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน

      Hola, estaba revisando en open webUI, parece que aún no hay forma de activar dicha función de navegar por internet. Probablemente en un futuro sea una característica que vayan a implementar.
      Si necesitas compartirle información específica, podrías compartiéndole archivos para que lea su contenido, al menos es una alternativa por el momento (mostrarle info con algo que necesites).

    • @josestron
      @josestron 6 หลายเดือนก่อน

      @@Conciencia_Artificial Hola buenas, amigos me interesa mucho esa función de hacer que la IA pueda, conectarse a internet desde nuestro PC, creo que todo tiene que ver con el launcher o interface que le agreguemos, agradezco me informen por este medio cuando consigan activar esta funcionalidad...gracias

  • @galoging
    @galoging 5 หลายเดือนก่อน

    El ejecutar Open Web UI aparece el siguiente error:
    127.0.0.1:63825 - "GET / HTTP/1.1" 404 Not Found
    Alguien sabe como solucionarlo?

    • @Conciencia_Artificial
      @Conciencia_Artificial  5 หลายเดือนก่อน

      Intenta borrar la instalación y volver a instalarla, quizá se solucione. A veces puede tener algún error de instalación.

  • @ElivisR27348
    @ElivisR27348 6 หลายเดือนก่อน

    ¿Qué diferencia existe entre copilot y phi-3? ¿Será que copilot depende de chatgpt y phi-3 no?

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +2

      Copilot utiliza gpt-4 optimizado para la generación de código. Y phi-3 es un modelo mucho más pequeño y en teoría es un modelo muy independiente de ChatGPT/GPT-4.
      La ventaja de phi-3 aunque no es tan potente como GPT-4, es que puedes trabajar con el de forma local y tener 100% de privacidad, también puedes hostearlo tú mismo para utilizarla como API en cualquiera de tus proyectos.

    • @ElivisR27348
      @ElivisR27348 6 หลายเดือนก่อน

      @@Conciencia_Artificial Gracias hermano. Inscrito.

  • @profejavierc
    @profejavierc 5 หลายเดือนก่อน +1

    Gracias Totales...full

  • @vicmandev
    @vicmandev 6 หลายเดือนก่อน

    Necesita tarjeta grafica para trabajar? y podría acceder al modelo via API yo hosteandola?
    Gracias

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      Hola, para Phi-3 Mini con la RAM, gráficos integrados y tu CPU es suficiente para correr el modelo de forma local sin problemas, debido a su tamaño tan pequeño.
      Y si puedes utilizarla como API hosteandola, hice una prueba rápida en postman, te paso la configuración rápida, igual una URL donde puedes consultar toda esa información a detalle: github.com/ollama/ollama/blob/main/docs/api.md
      Te comparto una captura de pantalla con la configuración de postman para llamar el modelo mediante API ejecutándolo localmente, espero te sirva
      drive.google.com/file/d/1enA4S7123mWT8qLYgd6KvcVbBzL7z4uG/view?usp=sharing

    • @vicmandev
      @vicmandev 6 หลายเดือนก่อน

      Muchas gracias por tan excelente información

  • @vicmandev
    @vicmandev 6 หลายเดือนก่อน

    eset me bloquea el acceso a la pagina de pinokio, a alguien mas le sucede?

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน

      Si, hay ocasiones que los antivirus lo pueden bloquear, pero ntp, es un proyecto seguro, no hay malware dentro

  • @jimmyrosales9285
    @jimmyrosales9285 6 หลายเดือนก่อน

    Que herramienta usas para crear esa voz?

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      Utilizo Elevenlabs pero en su versión de pago, en la categoría "profesional"
      ¡Gracias por el apoyo y por comentar!

  • @jalsecuador2216
    @jalsecuador2216 6 หลายเดือนก่อน

    Muy buen tutorial, gracias.

  • @royotech
    @royotech 6 หลายเดือนก่อน

    Como se llama esa voz y de que aplicación es?

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +3

      Es de ElevenLabs, pero la versión de pago y se encuentra en la categoría de “profesional” y se llama Dan

  • @CarlosOrzabal
    @CarlosOrzabal 6 หลายเดือนก่อน

    Qué tal funciona ollama en un VPS Linux, alguien ya lo probó?

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน

      Es una excelente idea que también la consideré mientras grababa el video, pero no he podido ponerla en práctica para ver su rendimiento.
      Si lo llegas a realizar estaría muy padre que nos compartas tus resultados e impresiones también para aprender. Saludos!

    • @CarlosOrzabal
      @CarlosOrzabal 6 หลายเดือนก่อน

      @@Conciencia_Artificial te comento, tengo un VPS pero en producción y no me quiero arriesgarme a experimentar.
      Pero si el tema funciona, no tendría problemas en alquilar otro. Lo que me frena es el tema linux. Habría que saber si corre desde la terminal y si podría ejecutarse 100% desde el CPU, aunque no sea ultra rápido.

  • @royotech
    @royotech 6 หลายเดือนก่อน +2

    Son sólo chat ... Lo que realmente sirve es que haga RAG...

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน +1

      En la interfaz de open webUI, es posible cargar archivos para que lea su contenido, por eso me gusta mucho esa opción 👍

  • @Salionca
    @Salionca 6 หลายเดือนก่อน

    modo oscuro, por favor. Gracias.

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน

      Si puedes activar el modo oscuro dentro de la aplicación de web ui, en sus ajustes. Solo que ya no lo mostré en el video. Y gracias por comentar y por el apoyo!

  • @johanncadenas9140
    @johanncadenas9140 6 หลายเดือนก่อน

    Genial 😁👍

  • @SuperLovedoctor69
    @SuperLovedoctor69 6 หลายเดือนก่อน

    THANKS BRO

  • @KevinDominguezRiquelme
    @KevinDominguezRiquelme 6 หลายเดือนก่อน

    👍👍👍

  • @ramspartan117
    @ramspartan117 6 หลายเดือนก่อน

    Si compraste 10 manzanas hoy y te comiste 3 manzanas ayer, para saber cuántas manzanas tienes hoy, simplemente restas las manzanas que comiste de las que compraste:
    10 manzanas (compradas hoy) - 3 manzanas (comidas ayer) = 7 manzanas (que tienes hoy).
    Por lo tanto, tienes 7 manzanas hoy.
    Pregunta de seguimiento 1:
    ¿Cómo podría mantener la cantidad de manzanas que tengo hoy para evitar que se echen a perder?
    Menudo fraude

    • @ramspartan117
      @ramspartan117 6 หลายเดือนก่อน

      Ayer me comi 5 manzanas, hoy me compre 15 manzanas entonces cuantas tengo en este momento
      Si compraste 15 manzanas hoy y te comiste 5 manzanas ayer, primero debemos corregir la información ya que no es posible que comieras manzanas antes de comprarlas. Sin embargo, para calcular la cantidad de manzanas que tienes hoy, restarías las manzanas que comiste de las que compraste:
      15 manzanas (compradas hoy) - 0 manzanas (comidas ayer, ya que no es posible) = 15 manzanas (que tienes hoy).
      Por lo tanto, tienes 15 manzanas en este momento.
      Pregunta de seguimiento 2:
      Si quiero distribuir las manzanas entre mis tres hijos de manera equitativa, ¿cuántas manzanas recibiría cada uno?
      asi funciono mejor

    • @ramspartan117
      @ramspartan117 6 หลายเดือนก่อน

      Por lo visto aun no resuelve problemas con truco, todavía no pasa la primaria

  • @MaicollQuintero
    @MaicollQuintero 6 หลายเดือนก่อน

    hice todo pero me sale ENOENT: no such file or directory, stat 'C:\Users\quint\pinokio\api\open-webui.git\{{input.event[0]}}'

    • @Conciencia_Artificial
      @Conciencia_Artificial  6 หลายเดือนก่อน

      Intenta reinstalando el proyecto, bórralo todo e intenta nuevamente, pudo haber faltado algo en el proceso de instalación o fallado algo. En caso de que no sea eso, dime para buscar otra solución con el creador de Pinokio.

  • @losdioses3.0
    @losdioses3.0 6 หลายเดือนก่อน

    god

  • @manolomaru
    @manolomaru 6 หลายเดือนก่อน

    ✨👌😎🙂😮🙂😎👍✨