NExT-GPT: The first Any-to-Any Multimodal LLM

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 ต.ค. 2024

ความคิดเห็น • 12

  • @vineetsharma189
    @vineetsharma189 9 หลายเดือนก่อน +1

    Thanks for this informative video !
    The concepts are explained really well !

    • @AIBites
      @AIBites  8 หลายเดือนก่อน

      I am really pleased you found it useful! :)

  • @PracticalAI_
    @PracticalAI_ 9 หลายเดือนก่อน

    This will be the key ingredient to make robots useful

  • @stickmanland
    @stickmanland ปีที่แล้ว +2

    Exciting!!

    • @AIBites
      @AIBites  ปีที่แล้ว

      for sure is :)

  • @IsmailIfakir
    @IsmailIfakir 12 วันที่ผ่านมา

    is there is a multimodal llm can fine-tuning for sentiment analysis from text, image, video and audio ?

  • @questionsolution-k8m
    @questionsolution-k8m 8 หลายเดือนก่อน +2

    can you please a video on local installation of this?

    • @AIBites
      @AIBites  8 หลายเดือนก่อน +1

      Are you particular about this model or local install of any opensource model will do?

    • @questionsolution-k8m
      @questionsolution-k8m 7 หลายเดือนก่อน

      About the next gpt particularly. Please🥺 and can we expect it soon?

    • @questionsolution-k8m
      @questionsolution-k8m 7 หลายเดือนก่อน

      Should we expect it or not?

  • @breakingtwitting
    @breakingtwitting 6 หลายเดือนก่อน +1

    . this video.. is just promotion of some model

    • @AIBites
      @AIBites  6 หลายเดือนก่อน

      we are just trying to explain a paper similar to other videos where we explain papers too :)