NExT-GPT: The first Any-to-Any Multimodal LLM

แชร์
ฝัง
  • เผยแพร่เมื่อ 6 ม.ค. 2025

ความคิดเห็น •

  • @vineetsharma189
    @vineetsharma189 11 หลายเดือนก่อน +1

    Thanks for this informative video !
    The concepts are explained really well !

    • @AIBites
      @AIBites  11 หลายเดือนก่อน

      I am really pleased you found it useful! :)

  • @PracticalAI_
    @PracticalAI_ 11 หลายเดือนก่อน

    This will be the key ingredient to make robots useful

  • @stickmanland
    @stickmanland ปีที่แล้ว +2

    Exciting!!

    • @AIBites
      @AIBites  ปีที่แล้ว

      for sure is :)

  • @IsmailIfakir
    @IsmailIfakir 3 หลายเดือนก่อน

    is there is a multimodal llm can fine-tuning for sentiment analysis from text, image, video and audio ?

  • @questionsolution-k8m
    @questionsolution-k8m 10 หลายเดือนก่อน +2

    can you please a video on local installation of this?

    • @AIBites
      @AIBites  10 หลายเดือนก่อน +1

      Are you particular about this model or local install of any opensource model will do?

    • @questionsolution-k8m
      @questionsolution-k8m 10 หลายเดือนก่อน

      About the next gpt particularly. Please🥺 and can we expect it soon?

    • @questionsolution-k8m
      @questionsolution-k8m 9 หลายเดือนก่อน

      Should we expect it or not?

  • @breakingtwitting
    @breakingtwitting 9 หลายเดือนก่อน +1

    . this video.. is just promotion of some model

    • @AIBites
      @AIBites  8 หลายเดือนก่อน

      we are just trying to explain a paper similar to other videos where we explain papers too :)