Esta excelente como podemos conectar una base de datos para preguntarle sobre a análisis de datos con phyton o como podemos conectarlo para el analisis predictivo Excelente trabajo
Y chatgpt respondió erróneamente pero le dije: User Examina paso por paso y no olvides enfocarte en las fechas para responder. Después de ese Prompt me respondió correctamente por lo que los modelos también son tan buenos como los prompts que se les den.
Exacto! Eso es otro punto muy importante, la redacción de un buen prompt y saber llevar a la IA para obtener mejores resultados (a pesar de los errores que pueda presentar). Debido a esto, cualquier IA puede resultar ser muy útil, aunque sea pequeña como lo es Phi-3.
Hola, pues se han vendido siempre como productos independientes, Phi ya era un modelo que había aparecido, pero no había causado mucho impacto por su rendimiento tan bajo, con esta nueva versión digamos que hizo mucho "boom" por casi tener el mismo rendimiento que GPT-3.5. Pi sigue existiendo y supongo que seguirán mejorando sus próximas versiones. Igual comparto lo último de Pi 2.5: inflection.ai/inflection-2-5 Y por si alguien lo quiere probar de forma gratuita: pi.ai/talk
@@Conciencia_Artificial Ok, gracias por la aclaración, no sabía que Phi ya existia antes, entiendo entonces que en un futuro podemos esperar Inflection PI 3.0
Excelente tutorial, muy detallado y explicito, ahora bien también indican que Phi-3 se ejecuta localmente en celulares, sabes como seria ese proceso???
Si, pero solo conozco una opción para correrlo en iPhone, pero creo que solo el modelo 15 pro Max lo puede correr, ya que yo tengo el 14 pro y la generación de la respuesta está demasiado lenta, debes de inscribirte mediante una app que se llama LLM Farm que se encuentra en fase beta y de ahí descargar el modelo. Si encuentro alguna otra igual compartiré información. Gracias por el apoyo!
Hola buenas, amigos me interesa mucho esa función de hacer que la IA pueda, conectarse a internet desde nuestro PC, creo que todo tiene que ver con el launcher o interface que le agreguemos, agradezco me informen por este medio cuando consigan activar esta funcionalidad...gracias
Claro, en cuanto sepa la forma de implementar con internet o exista una actualización del proyecto, realizaré una publicación para que todos puedan beneficiarse de esta información
Exelente, una pregunta, el modelo se carga en GPU o Ram? Lo digo por ejemplo descarge un modelo super mas grande, como se ejecuta, donde carga? Que necesiras mas Cpu, Mem o Gpu? Saludos
Para modelos más grandes si son importantes los 3, bueno un poco más la ram y la gpu (vram), por ejemplo, intente ejecutar llama 3 70b en mi pc, tengo 32gb ram y una 4070 con 12gb de vram y tarda demasiado en generar la respuesta, después investigué cuales eran los requisitos mínimos y según (no se si sea real) debo tener mínimo la 4090 con 24gb de vram y 94 de ram para que se ejecute de forma eficiente. Lamentablemente no lo podré probar ya que es una gráfica muy cara para mi en estos momentos. Quizá en un futuro si el canal crece y me lo permite, podría realizar este tipo de pruebas para compartirlas
El unico pero de estos modelos tan chicos y que phi3 no se salva es el exceso de alucinaciones y sobre escribir datos, siemore escriben de mas. Hay que fine tunearlos si o si para usarlos bien
Totalmente de acuerdo, pero el que cada vez haya modelos capaces de ejecutarse en nuestros equipos y mejorando la calidad, creo que es importante para muchos usos y mayor privacidad. Otra ventaja es que podemos cargarle a estos modelos también nuestros propios archivos, para mejorar la calidad y precisión de las respuestas.
Hola amigo, muchas gracias por tu vídeo tan bien explicado. He instalado el modelo en webui y todo genial, pero me gustaría saber cómo activar la opción de Internet para que el modelo pueda por ejemplo saber el tiempo de una ciudad, porque en la primera opción que no es una instalación local me parece haber visto que se podía dar acceso a Internet. Sin embargo en modo local no lo veo. Por cierto, el modelo se niega a creer que está instalado en mi ordenador..., se empeña en creer que está en los servidores de Microsoft 😀
Hola, estaba revisando en open webUI, parece que aún no hay forma de activar dicha función de navegar por internet. Probablemente en un futuro sea una característica que vayan a implementar. Si necesitas compartirle información específica, podrías compartiéndole archivos para que lea su contenido, al menos es una alternativa por el momento (mostrarle info con algo que necesites).
@@Conciencia_Artificial Hola buenas, amigos me interesa mucho esa función de hacer que la IA pueda, conectarse a internet desde nuestro PC, creo que todo tiene que ver con el launcher o interface que le agreguemos, agradezco me informen por este medio cuando consigan activar esta funcionalidad...gracias
Copilot utiliza gpt-4 optimizado para la generación de código. Y phi-3 es un modelo mucho más pequeño y en teoría es un modelo muy independiente de ChatGPT/GPT-4. La ventaja de phi-3 aunque no es tan potente como GPT-4, es que puedes trabajar con el de forma local y tener 100% de privacidad, también puedes hostearlo tú mismo para utilizarla como API en cualquiera de tus proyectos.
Hola, para Phi-3 Mini con la RAM, gráficos integrados y tu CPU es suficiente para correr el modelo de forma local sin problemas, debido a su tamaño tan pequeño. Y si puedes utilizarla como API hosteandola, hice una prueba rápida en postman, te paso la configuración rápida, igual una URL donde puedes consultar toda esa información a detalle: github.com/ollama/ollama/blob/main/docs/api.md Te comparto una captura de pantalla con la configuración de postman para llamar el modelo mediante API ejecutándolo localmente, espero te sirva drive.google.com/file/d/1enA4S7123mWT8qLYgd6KvcVbBzL7z4uG/view?usp=sharing
Es una excelente idea que también la consideré mientras grababa el video, pero no he podido ponerla en práctica para ver su rendimiento. Si lo llegas a realizar estaría muy padre que nos compartas tus resultados e impresiones también para aprender. Saludos!
@@Conciencia_Artificial te comento, tengo un VPS pero en producción y no me quiero arriesgarme a experimentar. Pero si el tema funciona, no tendría problemas en alquilar otro. Lo que me frena es el tema linux. Habría que saber si corre desde la terminal y si podría ejecutarse 100% desde el CPU, aunque no sea ultra rápido.
Si puedes activar el modo oscuro dentro de la aplicación de web ui, en sus ajustes. Solo que ya no lo mostré en el video. Y gracias por comentar y por el apoyo!
Si compraste 10 manzanas hoy y te comiste 3 manzanas ayer, para saber cuántas manzanas tienes hoy, simplemente restas las manzanas que comiste de las que compraste: 10 manzanas (compradas hoy) - 3 manzanas (comidas ayer) = 7 manzanas (que tienes hoy). Por lo tanto, tienes 7 manzanas hoy. Pregunta de seguimiento 1: ¿Cómo podría mantener la cantidad de manzanas que tengo hoy para evitar que se echen a perder? Menudo fraude
Ayer me comi 5 manzanas, hoy me compre 15 manzanas entonces cuantas tengo en este momento Si compraste 15 manzanas hoy y te comiste 5 manzanas ayer, primero debemos corregir la información ya que no es posible que comieras manzanas antes de comprarlas. Sin embargo, para calcular la cantidad de manzanas que tienes hoy, restarías las manzanas que comiste de las que compraste: 15 manzanas (compradas hoy) - 0 manzanas (comidas ayer, ya que no es posible) = 15 manzanas (que tienes hoy). Por lo tanto, tienes 15 manzanas en este momento. Pregunta de seguimiento 2: Si quiero distribuir las manzanas entre mis tres hijos de manera equitativa, ¿cuántas manzanas recibiría cada uno? asi funciono mejor
Intenta reinstalando el proyecto, bórralo todo e intenta nuevamente, pudo haber faltado algo en el proceso de instalación o fallado algo. En caso de que no sea eso, dime para buscar otra solución con el creador de Pinokio.
Esta excelente como podemos conectar una base de datos para preguntarle sobre a análisis de datos con phyton o como podemos conectarlo para el analisis predictivo
Excelente trabajo
Hoy le hice la pregunta de las manzanas y me respondió correctamente, por lo que o actualizaron el modelo o ...
Y chatgpt respondió erróneamente pero le dije:
User
Examina paso por paso y no olvides enfocarte en las fechas para responder. Después de ese Prompt me respondió correctamente por lo que los modelos también son tan buenos como los prompts que se les den.
Exacto! Eso es otro punto muy importante, la redacción de un buen prompt y saber llevar a la IA para obtener mejores resultados (a pesar de los errores que pueda presentar).
Debido a esto, cualquier IA puede resultar ser muy útil, aunque sea pequeña como lo es Phi-3.
Phi 3 es una evolución de PI 2.5 (Inflection)? Lo digo xq se que Microsoft compro Inflection hace un mes y poco.
Hola, pues se han vendido siempre como productos independientes, Phi ya era un modelo que había aparecido, pero no había causado mucho impacto por su rendimiento tan bajo, con esta nueva versión digamos que hizo mucho "boom" por casi tener el mismo rendimiento que GPT-3.5.
Pi sigue existiendo y supongo que seguirán mejorando sus próximas versiones.
Igual comparto lo último de Pi 2.5: inflection.ai/inflection-2-5
Y por si alguien lo quiere probar de forma gratuita: pi.ai/talk
@@Conciencia_Artificial Ok, gracias por la aclaración, no sabía que Phi ya existia antes, entiendo entonces que en un futuro podemos esperar Inflection PI 3.0
Excelente tutorial, muy detallado y explicito, ahora bien también indican que Phi-3 se ejecuta localmente en celulares, sabes como seria ese proceso???
Si, pero solo conozco una opción para correrlo en iPhone, pero creo que solo el modelo 15 pro Max lo puede correr, ya que yo tengo el 14 pro y la generación de la respuesta está demasiado lenta, debes de inscribirte mediante una app que se llama LLM Farm que se encuentra en fase beta y de ahí descargar el modelo. Si encuentro alguna otra igual compartiré información.
Gracias por el apoyo!
@@Conciencia_Artificial muchas gracias por responder.
Hola buenas, amigos me interesa mucho esa función de hacer que la IA pueda, conectarse a internet desde nuestro PC, creo que todo tiene que ver con el launcher o interface que le agreguemos, agradezco me informen por este medio cuando consigan activar esta funcionalidad...gracias
Claro, en cuanto sepa la forma de implementar con internet o exista una actualización del proyecto, realizaré una publicación para que todos puedan beneficiarse de esta información
Exelente, una pregunta, el modelo se carga en GPU o Ram? Lo digo por ejemplo descarge un modelo super mas grande, como se ejecuta, donde carga? Que necesiras mas Cpu, Mem o Gpu? Saludos
Para modelos más grandes si son importantes los 3, bueno un poco más la ram y la gpu (vram), por ejemplo, intente ejecutar llama 3 70b en mi pc, tengo 32gb ram y una 4070 con 12gb de vram y tarda demasiado en generar la respuesta, después investigué cuales eran los requisitos mínimos y según (no se si sea real) debo tener mínimo la 4090 con 24gb de vram y 94 de ram para que se ejecute de forma eficiente. Lamentablemente no lo podré probar ya que es una gráfica muy cara para mi en estos momentos.
Quizá en un futuro si el canal crece y me lo permite, podría realizar este tipo de pruebas para compartirlas
muy buen video, como puedo darle algunos pdf al modelo ?
En la interfaz que se presenta al final del video en Open webUI, se pueden cargar documentos pdf propios para que el modelo lea su contenido
El unico pero de estos modelos tan chicos y que phi3 no se salva es el exceso de alucinaciones y sobre escribir datos, siemore escriben de mas. Hay que fine tunearlos si o si para usarlos bien
Totalmente de acuerdo, pero el que cada vez haya modelos capaces de ejecutarse en nuestros equipos y mejorando la calidad, creo que es importante para muchos usos y mayor privacidad.
Otra ventaja es que podemos cargarle a estos modelos también nuestros propios archivos, para mejorar la calidad y precisión de las respuestas.
Genial tutorial, muchas gracias.
Muchas gracias a ti por comentar y por el apoyo!
Hola amigo, muchas gracias por tu vídeo tan bien explicado. He instalado el modelo en webui y todo genial, pero me gustaría saber cómo activar la opción de Internet para que el modelo pueda por ejemplo saber el tiempo de una ciudad, porque en la primera opción que no es una instalación local me parece haber visto que se podía dar acceso a Internet. Sin embargo en modo local no lo veo.
Por cierto, el modelo se niega a creer que está instalado en mi ordenador..., se empeña en creer que está en los servidores de Microsoft 😀
Hola, estaba revisando en open webUI, parece que aún no hay forma de activar dicha función de navegar por internet. Probablemente en un futuro sea una característica que vayan a implementar.
Si necesitas compartirle información específica, podrías compartiéndole archivos para que lea su contenido, al menos es una alternativa por el momento (mostrarle info con algo que necesites).
@@Conciencia_Artificial Hola buenas, amigos me interesa mucho esa función de hacer que la IA pueda, conectarse a internet desde nuestro PC, creo que todo tiene que ver con el launcher o interface que le agreguemos, agradezco me informen por este medio cuando consigan activar esta funcionalidad...gracias
El ejecutar Open Web UI aparece el siguiente error:
127.0.0.1:63825 - "GET / HTTP/1.1" 404 Not Found
Alguien sabe como solucionarlo?
Intenta borrar la instalación y volver a instalarla, quizá se solucione. A veces puede tener algún error de instalación.
¿Qué diferencia existe entre copilot y phi-3? ¿Será que copilot depende de chatgpt y phi-3 no?
Copilot utiliza gpt-4 optimizado para la generación de código. Y phi-3 es un modelo mucho más pequeño y en teoría es un modelo muy independiente de ChatGPT/GPT-4.
La ventaja de phi-3 aunque no es tan potente como GPT-4, es que puedes trabajar con el de forma local y tener 100% de privacidad, también puedes hostearlo tú mismo para utilizarla como API en cualquiera de tus proyectos.
@@Conciencia_Artificial Gracias hermano. Inscrito.
Gracias Totales...full
Gracias a ti por comentar y apoyar!
Necesita tarjeta grafica para trabajar? y podría acceder al modelo via API yo hosteandola?
Gracias
Hola, para Phi-3 Mini con la RAM, gráficos integrados y tu CPU es suficiente para correr el modelo de forma local sin problemas, debido a su tamaño tan pequeño.
Y si puedes utilizarla como API hosteandola, hice una prueba rápida en postman, te paso la configuración rápida, igual una URL donde puedes consultar toda esa información a detalle: github.com/ollama/ollama/blob/main/docs/api.md
Te comparto una captura de pantalla con la configuración de postman para llamar el modelo mediante API ejecutándolo localmente, espero te sirva
drive.google.com/file/d/1enA4S7123mWT8qLYgd6KvcVbBzL7z4uG/view?usp=sharing
Muchas gracias por tan excelente información
eset me bloquea el acceso a la pagina de pinokio, a alguien mas le sucede?
Si, hay ocasiones que los antivirus lo pueden bloquear, pero ntp, es un proyecto seguro, no hay malware dentro
Que herramienta usas para crear esa voz?
Utilizo Elevenlabs pero en su versión de pago, en la categoría "profesional"
¡Gracias por el apoyo y por comentar!
Muy buen tutorial, gracias.
Muchas gracias por comentar y por el apoyo!
Como se llama esa voz y de que aplicación es?
Es de ElevenLabs, pero la versión de pago y se encuentra en la categoría de “profesional” y se llama Dan
Qué tal funciona ollama en un VPS Linux, alguien ya lo probó?
Es una excelente idea que también la consideré mientras grababa el video, pero no he podido ponerla en práctica para ver su rendimiento.
Si lo llegas a realizar estaría muy padre que nos compartas tus resultados e impresiones también para aprender. Saludos!
@@Conciencia_Artificial te comento, tengo un VPS pero en producción y no me quiero arriesgarme a experimentar.
Pero si el tema funciona, no tendría problemas en alquilar otro. Lo que me frena es el tema linux. Habría que saber si corre desde la terminal y si podría ejecutarse 100% desde el CPU, aunque no sea ultra rápido.
Son sólo chat ... Lo que realmente sirve es que haga RAG...
En la interfaz de open webUI, es posible cargar archivos para que lea su contenido, por eso me gusta mucho esa opción 👍
modo oscuro, por favor. Gracias.
Si puedes activar el modo oscuro dentro de la aplicación de web ui, en sus ajustes. Solo que ya no lo mostré en el video. Y gracias por comentar y por el apoyo!
Genial 😁👍
Muchas gracias por comentar y por el apoyo 👋
THANKS BRO
¡Muchas gracias a ti por el apoyo!
👍👍👍
Si compraste 10 manzanas hoy y te comiste 3 manzanas ayer, para saber cuántas manzanas tienes hoy, simplemente restas las manzanas que comiste de las que compraste:
10 manzanas (compradas hoy) - 3 manzanas (comidas ayer) = 7 manzanas (que tienes hoy).
Por lo tanto, tienes 7 manzanas hoy.
Pregunta de seguimiento 1:
¿Cómo podría mantener la cantidad de manzanas que tengo hoy para evitar que se echen a perder?
Menudo fraude
Ayer me comi 5 manzanas, hoy me compre 15 manzanas entonces cuantas tengo en este momento
Si compraste 15 manzanas hoy y te comiste 5 manzanas ayer, primero debemos corregir la información ya que no es posible que comieras manzanas antes de comprarlas. Sin embargo, para calcular la cantidad de manzanas que tienes hoy, restarías las manzanas que comiste de las que compraste:
15 manzanas (compradas hoy) - 0 manzanas (comidas ayer, ya que no es posible) = 15 manzanas (que tienes hoy).
Por lo tanto, tienes 15 manzanas en este momento.
Pregunta de seguimiento 2:
Si quiero distribuir las manzanas entre mis tres hijos de manera equitativa, ¿cuántas manzanas recibiría cada uno?
asi funciono mejor
Por lo visto aun no resuelve problemas con truco, todavía no pasa la primaria
hice todo pero me sale ENOENT: no such file or directory, stat 'C:\Users\quint\pinokio\api\open-webui.git\{{input.event[0]}}'
Intenta reinstalando el proyecto, bórralo todo e intenta nuevamente, pudo haber faltado algo en el proceso de instalación o fallado algo. En caso de que no sea eso, dime para buscar otra solución con el creador de Pinokio.
god
Gracias por el apoyo!
✨👌😎🙂😮🙂😎👍✨
Gracias!