Phi-3 Vision en Español - Probamos en Directo el Modelo Multimodal

แชร์
ฝัง
  • เผยแพร่เมื่อ 22 พ.ค. 2024
  • 🎓 Aprende IA Gen Conmigo:
    🚀 www.skool.com/llm-master-3225...
    ✅ Unete y aprende RAG, con modelos locales y los de OpenAI y también generar un front para tu RAG.
    En este video en directo, exploramos y probamos el modelo Phi-3 Vision de Microsoft, un modelo multimodal de última generación diseñado para manejar tanto texto como imágenes con una longitud de contexto impresionante de 128K tokens.
    Este modelo, parte de la familia Phi-3, ha sido entrenado con datos sintéticos y sitios web públicos filtrados, enfocados en datos de alta calidad y denso razonamiento. Con 4.2 mil millones de parámetros, el Phi-3 Vision incorpora un codificador de imágenes, un conector, un proyector y el modelo de lenguaje Phi-3 Mini.
    Durante el video, discutiremos las características técnicas del modelo, su proceso de entrenamiento, y realizaremos varias pruebas en directo para ver cómo maneja diferentes tipos de entradas y genera respuestas. También proporcionaremos recursos adicionales y documentación técnica para aquellos interesados en profundizar en los detalles del modelo.
    ai.azure.com/explore/models/P...

ความคิดเห็น • 2

  • @elmegapeluco
    @elmegapeluco 2 หลายเดือนก่อน +1

    En éste video, al estar de buen humor por los Memes has tenido un tono de voz mucho más ameno que el que tienes en los otros videos, normalmente se te queda una voz muy monótona pese a que sea interesante lo que dices, pero aquí como te reías de vez en cuando tu voz ha tenido más color y el video ha sido más entretenido, por favor ten esto en cuenta para futuros videos, aunque se que es díficil que te vayas a estar partiendo la caja si estas explicando algo simplemente técnico pero las variaciones en la entonación son de agradecer. Saludos.

  • @andresgordillo4414
    @andresgordillo4414 2 หลายเดือนก่อน

    👶🏿🫶🏿