MultiModal Llama 3.2 has ARRIVED!!!

แชร์
ฝัง
  • เผยแพร่เมื่อ 26 ก.ย. 2024
  • 🔗 Links 🔗
    ai.meta.com/bl...
    huggingface.co...
    Llama Stack Examples - github.com/met...
    ❤️ If you want to support the channel ❤️
    Support here:
    Patreon - / 1littlecoder
    Ko-Fi - ko-fi.com/1lit...
    🧭 Follow me on 🧭
    Twitter - / 1littlecoder
    Linkedin - / amrrs

ความคิดเห็น • 44

  • @1littlecoder
    @1littlecoder  วันที่ผ่านมา +5

    If you want to run the model locally - th-cam.com/video/luGI1NWEAPY/w-d-xo.html

    • @kamaleon204
      @kamaleon204 วันที่ผ่านมา

      Thank you i was intrigued by the Vision models and I think i might be able to use the 11B model for things I've been experimenting on!

  • @szebike
    @szebike วันที่ผ่านมา +13

    Never thought I would say this but Meta did some really awesome things recently.

  • @TheRealChrisVeal
    @TheRealChrisVeal วันที่ผ่านมา +10

    i’m so excited to get my hands dirty! even if it’s 3am here 😂

    • @1littlecoder
      @1littlecoder  วันที่ผ่านมา +1

      haha good night :)

    • @shivpawar135
      @shivpawar135 วันที่ผ่านมา +1

      It's 1 am here and same

    • @1littlecoder
      @1littlecoder  วันที่ผ่านมา +1

      @@shivpawar135 🥹

  • @sheldonsebastian7232
    @sheldonsebastian7232 วันที่ผ่านมา +6

    This channel is my go to for GenAI related content❤

  • @Quantum_Nebula
    @Quantum_Nebula วันที่ผ่านมา +4

    I've been really struggling at running LLM's on the NPU of my x elite laptop. I am hoping this will finally open the door for this.

    • @1littlecoder
      @1littlecoder  วันที่ผ่านมา

      th-cam.com/video/luGI1NWEAPY/w-d-xo.html got the tutorial with llama cpp, hope it works fast!

  • @zzzzzzz8473
    @zzzzzzz8473 วันที่ผ่านมา +2

    incredible , i wonder though why dont more of the models size variants target the consumer graphics cards , with 24gb of VRAM for gpu that mean about 20B parameters ( depending on quantization ) however its typical seeing 8B and 12B models easily runnable , then a huge jump to 70B or 90B which cant be run locally on consumer gpu at all .

  • @Dea07thox
    @Dea07thox วันที่ผ่านมา +2

    I cannot wait to update my Tamagotchi with some brainzzz

  • @BarakaAndrew
    @BarakaAndrew วันที่ผ่านมา +2

    Meta gave us React for free, they are now giving us AI. Big W

  • @henkhbit5748
    @henkhbit5748 วันที่ผ่านมา +2

    Thanks for the update👍 meta is the champ for opensource👏

    • @emmanuelgoldstein3682
      @emmanuelgoldstein3682 วันที่ผ่านมา

      The models aren't open source, they're open weights. They haven't released any of the model architecture source code publicly.

  • @sheldonsebastian7232
    @sheldonsebastian7232 วันที่ผ่านมา +2

    For VLM, can you test it that the model can convert a complex flow diagrams to structured JSON output

    • @1littlecoder
      @1littlecoder  วันที่ผ่านมา

      That's usually been a challenge given a lot of these models aren't trained with such diagrams. But I guess mermaid could have been part of training. Let's see, Thanks for the suggestion!

    • @sheldonsebastian7232
      @sheldonsebastian7232 5 ชั่วโมงที่ผ่านมา

      @@1littlecoder so hypothetically speaking if a synthetic dataset is generated for this task and llama3.2 model fine tuned on it can we expect for it to generalize? What are your thoughts

  • @nmstoker
    @nmstoker วันที่ผ่านมา +1

    Awesome video! You explained it really well and you were quick getting this out 🎉

  • @VanSocero
    @VanSocero วันที่ผ่านมา +1

    Got it and it works descent

  • @zikwin
    @zikwin วันที่ผ่านมา

    yeah i can start replacing haiku for vision

  • @abirkhan924
    @abirkhan924 วันที่ผ่านมา

    Another quick video form you

  • @d.d.z.
    @d.d.z. วันที่ผ่านมา

    Wow! So incredible! 😮

  • @NikoKun
    @NikoKun วันที่ผ่านมา

    hmm.. Wonder what I can get running on my old Linux computer with a GTX 970 4gb video ram and 16gb normal ram.. lol

    • @1littlecoder
      @1littlecoder  วันที่ผ่านมา

      did you see this, it might work fine- th-cam.com/video/luGI1NWEAPY/w-d-xo.html

  • @blisphul8084
    @blisphul8084 วันที่ผ่านมา

    After trying it out, llama 3.2 3b is the gemma 2 2b competitor I was waiting for. It seems to be an excellent upgrade, while being only 19% bigger.

    • @1littlecoder
      @1littlecoder  วันที่ผ่านมา

      Such small models are heavily underrated. Easy to sell it to a lot of small and medium businesses as well!

  • @yashshinde8185
    @yashshinde8185 วันที่ผ่านมา

    Please make a video on running these small 1b/3b models on Android and iphones if possible.

    • @1littlecoder
      @1littlecoder  วันที่ผ่านมา +1

      Got the local setup at this point - th-cam.com/video/luGI1NWEAPY/w-d-xo.html will try to get Phone if possible, I don't have an iphone to check. Will try!

  • @dishcleaner2
    @dishcleaner2 วันที่ผ่านมา

    you're quick bro

  • @ojaspatil2094
    @ojaspatil2094 วันที่ผ่านมา

    Ooooo exciting

  • @KevinKreger
    @KevinKreger วันที่ผ่านมา

    3B looks good

  • @KevinKreger
    @KevinKreger วันที่ผ่านมา

    Scoop 🎉❤

  • @kunalr_ai
    @kunalr_ai วันที่ผ่านมา

    bhai tu to bahut kama raha hai ai ka review karke

  • @elon-69-musk
    @elon-69-musk วันที่ผ่านมา

    Zuckerberg is cool guy 🤟👽

    • @testales
      @testales วันที่ผ่านมา

      Yeah who would have thought that they do finally something good with all the data they have collected.

  • @MichealScott24
    @MichealScott24 วันที่ผ่านมา

    ❤🫡 excited to test it out or like llama 3.2 1billion model in my m1 mac and pretty cool to have vision model I am confused as of now if 1billlion model too is vision model or not