NEW Llama 3.2 11B vs 90B VISION (Pixtral 12B, GPT4o)

แชร์
ฝัง
  • เผยแพร่เมื่อ 15 พ.ย. 2024

ความคิดเห็น • 14

  • @irbsurfer1585
    @irbsurfer1585 หลายเดือนก่อน

    Great video comparison of Mixtral12B vs. Llama 3.2 90B Vision! It really highlights the strengths and limitations of each model. It's surprising to see how the smaller 12B handled the table formatting better, while Llama 3.2 90B struggled but showed promising improvements in data extraction accuracy. GPT-4 Omni's performance was also a nice addition. Exciting times for AI advancements! 🔥💡

  • @user-uv3nv2bc6v
    @user-uv3nv2bc6v หลายเดือนก่อน +1

    Pixtral vs Qwen72-VL vs Molmo 72B => Which one is the best?

  • @RamiK-r9y
    @RamiK-r9y หลายเดือนก่อน

    Is your tool open source? I want to compare models after fine tuning

  • @victorFcavalcanti
    @victorFcavalcanti หลายเดือนก่อน

    What tool do you use to make the comparison ?

    • @code4AI
      @code4AI  หลายเดือนก่อน

      lmarena.ai/

  • @alex-t-sw
    @alex-t-sw หลายเดือนก่อน +2

    Curious how this compares to Gemini 1.5.

    • @ibrahims5636
      @ibrahims5636 18 วันที่ผ่านมา

      1.5 so bad… for commercial use case when you need to imagination purpose and helping in daily context use open ai, for code no better than anthropic claude

  • @baohuynh5462
    @baohuynh5462 หลายเดือนก่อน

    Have you tried with Qwen2-vl

    • @code4AI
      @code4AI  หลายเดือนก่อน +2

      Just uploaded a post that the performance numbers by the community indicate, that Qwen2-VL-72b-Instruct is better than LLama 3.2 90B Vision. Score of 1095 to 1076.

  • @Falkonar
    @Falkonar หลายเดือนก่อน

    What UI do you use?

    • @antoninleroy3863
      @antoninleroy3863 หลายเดือนก่อน +1

      looks like llmsys evaluation website

    • @Falkonar
      @Falkonar หลายเดือนก่อน

      @@antoninleroy3863 tank's

  • @luiztomikawa
    @luiztomikawa หลายเดือนก่อน +1

    Quite the abrupt end 😅

    • @code4AI
      @code4AI  หลายเดือนก่อน

      Yes, I continue a good additional hour to talk to Llama 3.2 90B to increase their performance, because I thought that a 90B model should realize a higher pattern complexity than a 11B model, but I failed. therefore I just cut it. smile.