The ONLY Local LLM Tool for Mac (Apple Silicon)!!

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 ธ.ค. 2024

ความคิดเห็น • 47

  • @simongentry
    @simongentry 7 ชั่วโมงที่ผ่านมา

    yes but how free are you to run a couple of llms at same time? especially if you’re code bouncing.

  • @gue2212
    @gue2212 2 หลายเดือนก่อน +1

    Thanks for making me aware of the MLX version. Beware: My installed version only updated to 0.2.31 and I had to download 0.3.4 from LMStudio AI!

  • @phanindraparashar8930
    @phanindraparashar8930 2 หลายเดือนก่อน +3

    Can u makea video on Fine-tuning Embeddings and LLMs (also include how to create dataset to train on custom data)
    It will be very interesting

    • @1littlecoder
      @1littlecoder  2 หลายเดือนก่อน

      Thanks for the idea, Will try to put together something!

  • @supercurioTube
    @supercurioTube 2 หลายเดือนก่อน +2

    How did you conclude that running the same model was faster via MLX than with the llama.cpp backend?
    Comparing with llama-3.1 8b 8-bit, I get the same generation speed between LM Studio/MLX and Ollama/llama.cpp (33.6 tok/s on M1 Max 64GB)

    • @monkeyfish227
      @monkeyfish227 2 หลายเดือนก่อน +1

      Aren’t they both use mlx? Isn’t that the same speed then?

    • @CitAllHearItAll
      @CitAllHearItAll 5 วันที่ผ่านมา

      Are you loading the same model in different tools?
      You have to download the MLX model and GGUF versions separately. Then load one at a time and test.
      MLX is decently faster for me always.

  • @ProSamiKhan
    @ProSamiKhan 2 หลายเดือนก่อน

    One model is of Dhanush, and the other is of Tamanna. Can they both be prompted together in a single image? If yes, how? Please explain, or if there's a tutorial link, kindly share.

  • @vigneshpadmanabhan
    @vigneshpadmanabhan 26 วันที่ผ่านมา +1

    Doesn’t support M4 yet?

    • @CitAllHearItAll
      @CitAllHearItAll 5 วันที่ผ่านมา

      I’ve been using it all week on M4.

  • @usmanyousaf-i2i
    @usmanyousaf-i2i 2 หลายเดือนก่อน +1

    can we use this in intel mac..?

    • @1littlecoder
      @1littlecoder  2 หลายเดือนก่อน +1

      you can use this, but the mlx bit won't work

  • @modoulaminceesay9211
    @modoulaminceesay9211 2 หลายเดือนก่อน

    what is the difference between this and ollama

  • @gregsLyrics
    @gregsLyrics 2 หลายเดือนก่อน +1

    WOW! Brilliant vid. M3 Max currently. What is the largest size model that can run? I can't wait to try this out. I want to train a model for my legal work. Fingers crossed this can help.

    • @monkeyfish227
      @monkeyfish227 2 หลายเดือนก่อน

      Depends on how much ram you have. Look at the models how big they are. You can only use around 70-75% of your ram for vram which is needed to load the entire model.

    • @adamgibbons4262
      @adamgibbons4262 2 หลายเดือนก่อน

      Is there a model for Swift only programming?

  • @benarcher372
    @benarcher372 12 วันที่ผ่านมา

    Anyone know a decent model for generation of Go code? Like for solving Advent of Code puzzles.

    • @1littlecoder
      @1littlecoder  12 วันที่ผ่านมา +1

      try with qwen coder series of models

    • @benarcher372
      @benarcher372 12 วันที่ผ่านมา

      @@1littlecoder Thanks for the information! I'll try that on my M4

    • @benarcher372
      @benarcher372 12 วันที่ผ่านมา

      @@1littlecoder Now tested, very briefly, the lmstudio--community/Qwen2.5-Coder-32B-Instruct-MLX-8bit. So far good results. Nice to be able to do this 'off-line' (on a local machine)

  • @Pregidth
    @Pregidth 2 หลายเดือนก่อน +1

    Hey man, this is really great! Thanks. Hopefully Ollama is integrating it. They seem a bit lame past weeks.

  • @maxziebell4013
    @maxziebell4013 2 หลายเดือนก่อน +1

    Thank I just installed it... nice M3 here

    • @1littlecoder
      @1littlecoder  2 หลายเดือนก่อน

      Enjoy the speed!

  • @PiratesZombies
    @PiratesZombies 16 วันที่ผ่านมา

    is M2 8/512 work?

  • @modoulaminceesay9211
    @modoulaminceesay9211 2 หลายเดือนก่อน

    Thanks for the tutorial

  • @KRIPAMISHRA-rz7hg
    @KRIPAMISHRA-rz7hg หลายเดือนก่อน +1

    Whats your PC spec ?

    • @andrewwhite1576
      @andrewwhite1576 20 ชั่วโมงที่ผ่านมา

      It’s a Mac so the one titled Mac specs😂

  • @build.aiagents
    @build.aiagents 2 หลายเดือนก่อน

    Phenomenal 🤖

  • @alx8439
    @alx8439 2 หลายเดือนก่อน +2

    Pls, give Jan AI a try. LM Studio is based on llama cpp, but proprietary closedsource and God only knows what it is doing - mining shitcoins, sending telemetry, collecting your personal data - you'll never know. Jan AI is open source and based on the same llama cpp and gets the same benefits as llama cpp gets

    • @zriley7995
      @zriley7995 9 วันที่ผ่านมา

      But we need mlx support 😢😢😢

    • @alx8439
      @alx8439 9 วันที่ผ่านมา

      @zriley7995 original llama.cpp has it. LM Studio added ZERO to the under-the-hood functionally - just slapped its own UI on top of it

  • @HealthyNutrition-y
    @HealthyNutrition-y 2 หลายเดือนก่อน +4

    🔥🔵“Intelligence is compression of information.” This is one of the most useful videos I believe I have ever watched on TH-cam.🔵

  • @Christophe-d9k
    @Christophe-d9k 2 หลายเดือนก่อน

    With the presented qwen2-0-5b-instruct model(352.97 MB), It's about twice faster on your M3 max (221 tok/sec) than on my RTX 3090 ( 126 tok/sec)
    but, with the llama-3.2-3B-4bit model (2.02 GB) speeds are similar on both device.
    this is probably due to the amout of available vram (24GB on 3090)

  • @SirSalter
    @SirSalter 17 วันที่ผ่านมา +1

    Let’s go ahead and say “go ahead” every other sentence

    • @1littlecoder
      @1littlecoder  17 วันที่ผ่านมา +1

      @@SirSalter did I use it to much 😭 sorry

    • @judgegroovyman
      @judgegroovyman 9 วันที่ผ่านมา +1

      @@1littlecodernah youre perfect. That guy is just grumpy and thats fine :) you rock!

    • @1littlecoder
      @1littlecoder  9 วันที่ผ่านมา

      @@judgegroovyman thank you sir ✅

  • @tollington9414
    @tollington9414 2 หลายเดือนก่อน

    Ollama is excellent. Don’t dis it

    • @1littlecoder
      @1littlecoder  2 หลายเดือนก่อน +1

      @@tollington9414 didn't

  • @esuus
    @esuus 2 หลายเดือนก่อน

    awesome, thanks! was looking for this. you could have gotten to the point a bit more, but whatever :D .mlx is the way to go!

    • @1littlecoder
      @1littlecoder  2 หลายเดือนก่อน

      You mean gotten to the point sooner ?