Demo: Rapid prototyping with Gemma and Llama.cpp

แชร์
ฝัง
  • เผยแพร่เมื่อ 31 มี.ค. 2024
  • Learn how to run Gemma locally on your laptop using Llama.cpp and quantized models.
    Checkout more videos of Gemma Developer Day 2024 → goo.gle/440EAIV
    Subscribe to Google for Developers → goo.gle/developers
    #Gemma #GemmaDeveloperDay
    Event: Gemma Developer Day 2024
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 57

  • @ayoubachak2154
    @ayoubachak2154 3 หลายเดือนก่อน +18

    I've used gemma for a benchmark in a research project I'm working on, where I compared human results against AI, gemma was the closest after bloom 176B, followed by models like mistral instruct 7Band llama 34B, even the 2b version did pretty well, great work team 👏🏻

    • @polish4932
      @polish4932 3 หลายเดือนก่อน +1

      Hi mate, if you'd like to compare diff models for the same question, you do so on Wordware. Highly recommending it! ;)

    • @ayoubachak2154
      @ayoubachak2154 3 หลายเดือนก่อน

      @@polish4932 thank you

  • @banzai316
    @banzai316 3 หลายเดือนก่อน +23

    Very cool, thank you!
    I like this format with demos. We are developers!

  • @ser1ification
    @ser1ification 3 หลายเดือนก่อน +4

    Thanks for the demo!

  • @flynnmc9748
    @flynnmc9748 3 หลายเดือนก่อน +19

    This is a fantastic format for a talk, insightful and engaging for a viewer!!!

    • @GoogleDevelopers
      @GoogleDevelopers  3 หลายเดือนก่อน +4

      Glad you enjoyed this video! 😎

    • @user-eh7uo8hw2v
      @user-eh7uo8hw2v 3 หลายเดือนก่อน +1

      0:21 🎉🎉🎉🎉🎉🎉🎉🎉🎉🎉

  • @arpitkumar4525
    @arpitkumar4525 3 หลายเดือนก่อน +2

    Really cool and simple to understand

  • @zencephalon
    @zencephalon 3 หลายเดือนก่อน +5

    Good demo, nice tooling suggestions out of this

  • @judevector
    @judevector 3 หลายเดือนก่อน +5

    Wow this is so cool 😎, developers changing the world

  • @cho7official55
    @cho7official55 3 หลายเดือนก่อน +4

    Cool demo, I'll try it

  • @arpitkumar4525
    @arpitkumar4525 3 หลายเดือนก่อน +9

    Minimum System Requirements for running a model locally?

  • @thesimplicitylifestyle
    @thesimplicitylifestyle หลายเดือนก่อน

    I was looking for this! Thanks! 😎🤖

  • @kevinkawchak
    @kevinkawchak 2 หลายเดือนก่อน

    Thank you for the discussion.

  • @forrestfeng1098
    @forrestfeng1098 หลายเดือนก่อน

    Like it very good sharing.

  • @TheOrator_Ese
    @TheOrator_Ese 3 หลายเดือนก่อน

    Very nice 👌 cool Demo

  • @voidan
    @voidan 3 หลายเดือนก่อน +5

    how do you connect the LM Studio to llama.cpp? you used a preset which was probably custom.

  • @zoomatic293
    @zoomatic293 3 หลายเดือนก่อน

    This is so cool :)

  • @parisneto
    @parisneto 3 หลายเดือนก่อน +2

    CODE would be awesome, as well as knowing the SPEC of the notebook as it’s easy to buy a sub1k or 5K+ at apple store depending on so many factors…

  • @tonydevelopingstuff
    @tonydevelopingstuff 3 หลายเดือนก่อน

    Very nice!!!!

  • @johnkost2514
    @johnkost2514 3 หลายเดือนก่อน +1

    Wrapped in the llamafile runtime it is an even better single file .. oh yes!

  • @takudzwamakusha5941
    @takudzwamakusha5941 3 หลายเดือนก่อน

    This is so cool.

  • @KuldeepSingh-in6js
    @KuldeepSingh-in6js 3 หลายเดือนก่อน

    cool demo

  • @A032798
    @A032798 3 หลายเดือนก่อน

    How about windows environment? Is LMstudio/Ollama a better choice?

  • @monamibob
    @monamibob 3 หลายเดือนก่อน

    Very interesting demo!
    What kind of extra work would be required to run this without LM Studio? Does Llama.cpp contain the necessarry functions to load models as servers you can interrogate?

  • @digisignD
    @digisignD 3 หลายเดือนก่อน +2

    Cool. Will definitely use this soon

  • @Daniel-zl7wf
    @Daniel-zl7wf 3 หลายเดือนก่อน +2

    At 9:03, Gemma shows some solid satire

  • @airhead2741
    @airhead2741 3 หลายเดือนก่อน +1

    Is this meant to be super accessible? If I have an APU, on a laptop with no GPU or NPU(?), that means I can expect it to run fairly well? Also considerations for a lighter yet usable model?

    • @erickcarrasco1938
      @erickcarrasco1938 3 หลายเดือนก่อน

      I tried that in an old APU, very slow generations but the same result.

    • @user-vq8on7dh1y
      @user-vq8on7dh1y 3 หลายเดือนก่อน

      Nah, Gemma is just a parot. It is released for fine-tuning, aka research purpose.

  • @indylawi5021
    @indylawi5021 3 หลายเดือนก่อน

    Very cool demo 👍. Any chance we can get the source code 😀

  • @dtmdota6181
    @dtmdota6181 3 หลายเดือนก่อน

    Anyone notice ram usage of 16.68 GB? What was that?

  • @bonadio60
    @bonadio60 3 หลายเดือนก่อน +1

    Very nice, but what is your computer spec? Memory and chip?

    • @darthvader4899
      @darthvader4899 3 หลายเดือนก่อน

      Probably m3 max 128gb

    • @JJN631
      @JJN631 3 หลายเดือนก่อน

      Gemma 7b can run on a rtx 4060 laptop

  • @ChrisTrotter-oj9du
    @ChrisTrotter-oj9du 3 หลายเดือนก่อน

    good, thank you

  • @awakenwithoutcoffee
    @awakenwithoutcoffee 3 หลายเดือนก่อน

    where can we learn to set this up ?

  • @MacGuffin1
    @MacGuffin1 3 หลายเดือนก่อน

    Great choice of demo app!!

  • @some1rational
    @some1rational 2 หลายเดือนก่อน

    Has anyone else tried doing this? I tried following this exactly with LM Studio using the exact model and prompt but I am consistently getting atrocious outputs; the gemma model is just outputting gibberish or incorrectly formatted JSON.
    I wish there were more details on the presets used.

  • @MyEthan1998
    @MyEthan1998 3 หลายเดือนก่อน +1

    If anyone faces an error on Mac about "network error: self signed certificate", close the app and use terminal, run "NODE_TLS_REJECT_UNAUTHORIZED=0 open -a "LM Studio" "
    This reopens the app and the error should go away. I have no idea where to put this info sooooo...

  • @nayzawminnaing2562
    @nayzawminnaing2562 3 หลายเดือนก่อน +1

    That's a lot of RAM to run this for me.

  • @svenkoesling
    @svenkoesling 3 หลายเดือนก่อน +5

    Just my two cents: 1. No explanation on how to connect LM Studio to the Llama.cpp, 2. newest hardware required - at least it doesn't work on my M1 with eight performance cores and 32 GB Ram

  • @learnwithdmitri
    @learnwithdmitri 3 หลายเดือนก่อน +7

    damnn its using 15 gb of ram i have an 8gb m1 i dont think it will work for me..

    • @lorenzo9196
      @lorenzo9196 3 หลายเดือนก่อน +3

      You can download a quantized version 8 maybe 4-5 bits

    • @learnwithdmitri
      @learnwithdmitri 3 หลายเดือนก่อน

      @@lorenzo9196 okay i will try

  • @devagarwal3250
    @devagarwal3250 3 หลายเดือนก่อน +6

    Pls provide source code also

  • @yubrshen
    @yubrshen 3 หลายเดือนก่อน +1

    What’s the required hardware specs?

  • @andreawijayakusuma6008
    @andreawijayakusuma6008 25 วันที่ผ่านมา

    did gemma should use GPU ? so I wanna try to learn this model, but I didn't want to use GPU

  • @deeplearningpartnership
    @deeplearningpartnership 3 หลายเดือนก่อน

    Awesome.

  • @AIPeter-dd9hr
    @AIPeter-dd9hr 3 หลายเดือนก่อน

    game using lm studio, interesting.

  • @emmanuelokorafor1705
    @emmanuelokorafor1705 3 หลายเดือนก่อน +17

    It's cool now, but what if each application starts deploying local models. It'll turn our phones into what data centers were meant for thereby reducing costs for large corporations. Trading a few megabytes for faster and more expensive chips.

    • @cmoncmona959
      @cmoncmona959 3 หลายเดือนก่อน +4

      Please Elaborate. What were data centres meant for? Asides hardware to run inference of worldwide requests. If it’s done locally, surely it’s better for redundant tasks. Also, the data centres use a lot of megabytes and expensive chips.

  • @tandaramandaraba
    @tandaramandaraba 3 หลายเดือนก่อน

    wow

  • @savire.ergheiz
    @savire.ergheiz 3 หลายเดือนก่อน +1

    Just focus on your existing products Google. Which are a mess 😂

  • @Killputin777
    @Killputin777 3 หลายเดือนก่อน

    never trust google products.

  • @f00kwhiteblackracismwarsh07
    @f00kwhiteblackracismwarsh07 3 หลายเดือนก่อน +1

    Google seems to be trying out too many new things. to me thats a turn off and red flag. everyone is different 🙂