Llamafile: bringing AI to the masses with fast CPU inference: Stephen Hood and Justine Tunney

แชร์
ฝัง
  • เผยแพร่เมื่อ 27 พ.ย. 2024
  • Mozilla's Llamafile open source project democratizes access to AI not only by making open models easier to use, but also by making them run fast on consumer CPUs. Lead developer Justine Tunney will share the insights, tricks, and hacks that she and the project community are using to deliver these performance breakthroughs, and project leader Stephen Hood will discuss Mozilla's approach to supporting open source AI.
    Recorded live in San Francisco at the AI Engineer World's Fair. See the full schedule of talks at www.ai.enginee... & join us at the AI Engineer World's Fair in 2025! Get your tickets today at ai.engineer/2025
    About Stephen
    Open source AI at Mozilla. Formerly of del.icio.us, Yahoo Search. Co-founder of Storium (AI-assisted storytelling game) and Blockboard.
    About Justine
    Justine is a founder of Mozilla’s LLaMAfile project, a Google Brain alumni, and the owner of the Cosmopolitan C Library. She's focusing on democratizing access to open source AI software while elevating its performance and quality.

ความคิดเห็น • 77

  • @Neltharion2k
    @Neltharion2k 4 หลายเดือนก่อน +49

    This is so awesome! Just tried out llava 1.5 7b llamafile and it worked out of the box running on my CPU, without eating all of my RAM! The token generation speed was good enough for me! And my CPU is ~8 years old. Holy cow!

    • @bigglyguy8429
      @bigglyguy8429 4 หลายเดือนก่อน

      Where gguf?

    • @geomorillo
      @geomorillo 4 หลายเดือนก่อน

      where?

  • @dskbiswas
    @dskbiswas 4 หลายเดือนก่อน +34

    What did I just watch ...mindblowing! Finally someone took the initiative of going against the tide while giving CPUs some attention that they have lost to the GPU madness!

  • @longboarderanonymous5718
    @longboarderanonymous5718 4 หลายเดือนก่อน +11

    These individuals are pioneers of the Personal AI. Efficient, Universal, and Economical.

  • @navodpeiris9054
    @navodpeiris9054 4 หลายเดือนก่อน +16

    loving the llamafile already. this is how i deploy local LLMs now!

    • @LeftBoot
      @LeftBoot 3 หลายเดือนก่อน +1

      Local for yourself or clients?

  • @aeu126
    @aeu126 4 หลายเดือนก่อน +16

    This was my favorite presentation!

  • @lolilollolilol7773
    @lolilollolilol7773 หลายเดือนก่อน +3

    Justine Tunney is a genius. Everything she does is undistinguishable from magic.

    • @granite_planet
      @granite_planet วันที่ผ่านมา

      Looking at her work, I sometimes think I should just quit programming and pick up something like gardening instead. :D

  • @gunnarasmussen207
    @gunnarasmussen207 4 หลายเดือนก่อน +3

    Well, what I'm suppossed to say but: awesome...running local AI on normal consumer hardware without any worries about privacy seemed impossible just months ago. All the computational work in GPT, Gemini and others is done in the cloud on the companies servers. So you don't know, what they are doing with your data. Even if you have nothing to hide - I'm sure erveryone has certain things, he/she wants to stay private...this seems to be the right way of implementing AI in a private manner. And doing such a great afford without any commercial Interests is nothing but mindblowing. Keep up the good work, please!

  • @Viewable11
    @Viewable11 4 หลายเดือนก่อน +10

    Llamafile now supports OpenAI API and non-AVX CPUs. Finally! Having the OpenAI API is a must.

  • @deadlokIV
    @deadlokIV 4 หลายเดือนก่อน +11

    Justine just shifted the timeline 💥🔀

  • @tejaslotlikar3573
    @tejaslotlikar3573 4 หลายเดือนก่อน +8

    Now this is called achievement. Meanwhile the so-called "open"AI is looting people. You guys are awesome

  • @indylawi5021
    @indylawi5021 4 หลายเดือนก่อน +4

    This is fantastic! I can't wait to try it out.

  • @leejacksondev
    @leejacksondev 4 หลายเดือนก่อน +1

    This is utterly brilliant. What a fantastic presentation. Amazing project.

  • @delq
    @delq 4 หลายเดือนก่อน

    Awesome, exactly what I have been looking for, no more virtual heavy environments, no more heavy nvidea cuda drivers ! Lets fricking go !!!

  • @craigscott4205
    @craigscott4205 4 หลายเดือนก่อน +8

    Justine an absolute champion!

  • @FirstNameLastName-fv4eu
    @FirstNameLastName-fv4eu 4 หลายเดือนก่อน

    These cloud companies trying their best to keep the valuation high!!! This guy is the new CDO manager!!

  • @Alice_Fumo
    @Alice_Fumo 3 หลายเดือนก่อน +2

    well... I just took a look at the repo for the llama 3 70b llamafile repo and found this info about performance:
    "AMD Threadripper Pro 7995WX ($10k) does a good job too at 5.9 tok/sec eval with Q4_0 (49 tok/sec prompt). With F16 weights the prompt eval goes 65 tok/sec."
    70b would be the lower bound for model I would enjoy using, but getting like 6 tokens per second output on a 10k$ CPU... At that point I could just as well build a GPU machine...
    So, even though I think this is in concept an amazing project, either it or hardware in general has a long way to go still before it is in my opinion usable for an average person such as myself..
    (I'm assuming the performance data on the huggingface repo are at least somewhat accurate and not outdated)

  • @spookymv
    @spookymv 3 หลายเดือนก่อน

    it was the first time I had the chance to listen to one of his speeches. bro i like this guy. D:

  • @LaHoraMaker
    @LaHoraMaker 4 หลายเดือนก่อน +3

    I really like the idea of a Threadripper configuration but... does anyone have a reference machine configuration for that? I'd like to compare the price to existing alternatives like the dual RTX4090 setup that is mentioned!

  • @rayhere7925
    @rayhere7925 4 หลายเดือนก่อน +3

    This is a game-changing breakthrough. Can't underplay this any other way.

  • @aiforsocialbenefit
    @aiforsocialbenefit 4 หลายเดือนก่อน +1

    Awesome. Great project and presenters!

  • @GandalfTheBrown117
    @GandalfTheBrown117 4 หลายเดือนก่อน +2

    Justine is a GOAT

  • @Jason_RA
    @Jason_RA 3 หลายเดือนก่อน

    This is absolutely amazing!

  • @dbreardon
    @dbreardon 4 หลายเดือนก่อน +13

    He said,, "Who remembers using the original Netscape Navigator?" ........to that I say, who remembers using the original Mosaic browser? And then telnet before the graphical internet?

    • @WoodyWilliams
      @WoodyWilliams 4 หลายเดือนก่อน +1

      [raises hand] Doh!

    • @tinkerman1790
      @tinkerman1790 4 หลายเดือนก่อน +2

      “Who remembers the handshaking tone in dial-up process” 😂

    • @smthngsmthngsmthngdarkside
      @smthngsmthngsmthngdarkside 4 หลายเดือนก่อน +1

      Who remembers the original smoke signals?

    • @Atonsha
      @Atonsha 3 หลายเดือนก่อน +2

      How about BTX?

    • @vncstudio
      @vncstudio 3 หลายเดือนก่อน

      We do! and Gopher!

  • @tollington9414
    @tollington9414 4 หลายเดือนก่อน +1

    Absolutely fascinating and totally genius

  • @RomuloMagalhaesAutoTOPO
    @RomuloMagalhaesAutoTOPO 3 หลายเดือนก่อน

    Amazing. Thank you.

  • @eggmaster88
    @eggmaster88 4 หลายเดือนก่อน +1

    Awesome work!

  • @CaptainSpoonsAlot
    @CaptainSpoonsAlot 3 หลายเดือนก่อน

    this is just fantastic.

  • @NeXTOoOoOoO
    @NeXTOoOoOoO 4 หลายเดือนก่อน

    Wow! Really great work!

  • @raiumair7494
    @raiumair7494 4 หลายเดือนก่อน +1

    Refreshing indeed - tokens per seconds is one measure and I like eval speed but what and how do you measure that?

  • @masbuba
    @masbuba 4 หลายเดือนก่อน +1

    Oh shit, CPU prices is going to hike

  • @johnkost2514
    @johnkost2514 4 หลายเดือนก่อน

    This is better than the Nvidia NIM solution (which is just containerization). Way better ..

  • @KevinKreger
    @KevinKreger 3 หลายเดือนก่อน

    Amazing❤

  • @OranCollins
    @OranCollins 3 หลายเดือนก่อน +2

    omg i love Justine Tunney! they are amazing!

  • @john_blues
    @john_blues 4 หลายเดือนก่อน

    Is there a way to get Windows to run llamafiles bigger than 4Gb? Without being able to do that, it is very limiting in the models you can run.

  • @Godkidz7
    @Godkidz7 4 หลายเดือนก่อน +1

    Freedom and Justices are more expensive than Money and Power. No one live and rule forever.
    Respects and Salute to you guys...

  • @XEQUTE
    @XEQUTE 4 หลายเดือนก่อน

    Love it!!

  • @7T7Soulz
    @7T7Soulz 4 หลายเดือนก่อน

    this is future

  • @Charles-Darwin
    @Charles-Darwin 4 หลายเดือนก่อน

    Awesomesauce

  • @philly_eddie
    @philly_eddie 4 หลายเดือนก่อน

    very cool

  • @cholst1
    @cholst1 4 หลายเดือนก่อน

    *checking on RAM prices*

  • @ShieldsWebDesign
    @ShieldsWebDesign 3 หลายเดือนก่อน

    Why is no one talking about this?

  • @constantinegeist1854
    @constantinegeist1854 3 หลายเดือนก่อน +2

    All of this was already possible before... Already back in early 2023. What they did was just save you 15 minutes (otherwise you'd have to download an inference program and weights separately)

  • @erb34
    @erb34 4 หลายเดือนก่อน

    Don't forget the browser.

  • @romanbauer
    @romanbauer 4 หลายเดือนก่อน

    👏🏻👏🏻👏🏻

  • @GandalfTheBrown117
    @GandalfTheBrown117 4 หลายเดือนก่อน

    Tired -> wired around @9:30 😂

  • @JohnnysaidWhat
    @JohnnysaidWhat 4 หลายเดือนก่อน

    this guy is a fkn rockstar on stage I was totally blown away 🎉

  • @omercelebi2012
    @omercelebi2012 4 หลายเดือนก่อน

    What about quality trade-off? Did they mention about that?

  • @ravishmahajan9314
    @ravishmahajan9314 3 หลายเดือนก่อน

    NVIDIA has hired CIA agents to make sure this technology is not reaching in hands of public. Be safe sir !😝

  • @snow8725
    @snow8725 4 หลายเดือนก่อน

    Fuck yeah!!!

  • @timchapman8539
    @timchapman8539 4 หลายเดือนก่อน

    I need an AI that can access the files on my hard drive. Does anyone have a suggestion? I don't want to upload them to the AI. I want the AI to access them directly.

    • @bigglyguy8429
      @bigglyguy8429 4 หลายเดือนก่อน

      ChatGPT4all has RAG

  • @hope42
    @hope42 3 หลายเดือนก่อน +1

    Am I the only one that someone AI generated Matt Perry?

  • @pandoraeeris7860
    @pandoraeeris7860 4 หลายเดือนก่อน

    The Singularity is here.

  • @fkxfkx
    @fkxfkx 4 หลายเดือนก่อน +1

    well this feels like something out of left field.🤷‍♂️
    Seems too good to be true. What are the catches?

    • @projectsspecial9224
      @projectsspecial9224 4 หลายเดือนก่อน +1

      As an AI Design Engineer and developer of original works in Unified Language Models (predecessor to LLMs) for over 20 years, this compact framework, GPU or custom hardware independence, and resource efficient methodology is the correct approach. 😊

    • @fkxfkx
      @fkxfkx 4 หลายเดือนก่อน

      ⁠”a” correct approach but maybe not “the” correct approach. It’s not clear what downsides there are yet.

    • @bigglyguy8429
      @bigglyguy8429 4 หลายเดือนก่อน

      @@fkxfkx I'm not sure how you're supposed to run it? GGUF I can run but what the heck is the 14GB "llamafile" thing?

    • @maxd3946
      @maxd3946 4 หลายเดือนก่อน

      @@bigglyguy8429 actually, you don't need a 14GB llamafile. It's even unable to be run on windows (4GB max executable size limit). You can keep a llamafile without embedding any model in it and call it with the -m parameter to specify the model file to load.

  • @JimAmos
    @JimAmos 4 หลายเดือนก่อน

    Hats off for the engineering feat. But in terms of application, we are still just talking about text summarization. And the image generation in your own demo was just as disappointing as ever. There's no killer app for LLMs yet even though we keep throwing money and science at it. What are we even doing?

  • @TalsBadKidney
    @TalsBadKidney 4 หลายเดือนก่อน +2

    let's go to the gym

  • @bobtarmac1828
    @bobtarmac1828 4 หลายเดือนก่อน

    Free candy, I mean, Free open source Ai for everyone. It’s a like a trick. Don’t fall for it. Cease Ai.

  • @WenRolland
    @WenRolland 4 หลายเดือนก่อน

    Great work!