6 Ways to Run ChatGPT Alternatives in Your Machine (Including Llama3)

แชร์
ฝัง
  • เผยแพร่เมื่อ 11 พ.ค. 2024
  • Open-source AI and Large Language Models are getting better and better. If we can replace ChatGPT or Bard with them we would gain a great deal of privacy and use these models in cases we previously couldn't before (like when dealing with sensitive or proprietary data).
    In this video, we'll learn 6 ways to run various open-source large language models locally.
    🔗 Useful links:
    I tried 7 ChatGPT alternatives: • I Tried 7 ChatGPT Alte...
    How to train a model using CI/CD: • CI/CD Essentials for M...
    Blog post with examples: semaphoreci.com/blog/local-llm
    HuggingFace: huggingface.co
    LangChain: www.langchain.com
    Llama.cpp: github.com/ggerganov/llama.cpp
    Llamafile: github.com/Mozilla-Ocho/llama...
    Ollama: ollama.ai
    GPT4ALL: gpt4all.io/index.html
    ================================================
    Timestamps:
    0:00 Intro
    0:54 Hardware requirements
    2:04 (1) How to use HuggingFace 🤗 and Transformers 🤖
    8:35 (2) LangChain
    11:58 (3) Llama.cpp
    17:21 (4) Llamafile
    20:39 (5) Ollama.ai
    23:43 (6) GPT4ALL
    27:10 Conclusion
    ================================================
    #llm #ai #localllm #llama2 #openai #chatgpt #nlp #machinelearning #ml #development #programming #devops #tutorial #llama3
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 52

  • @SemaphoreCI
    @SemaphoreCI  19 วันที่ผ่านมา

    Learn how to run Llama3 in your machine. Running a ChatGPT alternative locally can be cheaper and more secure. You can ask it about private information without worrying what happens with the data.

  • @stephn.6236
    @stephn.6236 3 หลายเดือนก่อน +20

    Arrived here after feeling confused by all the links and approaches floating around in the internet. After your video, I finally feel like I understand this space, this is the best resource I've found on this topic by far.

  • @dimitriprosvirin1785
    @dimitriprosvirin1785 17 วันที่ผ่านมา +1

    Man, thank you so much for this walkthrough. It feels like multiple hours of my own browsing, research, and getting lost safely packed in 30 min video.

    • @SemaphoreCI
      @SemaphoreCI  9 วันที่ผ่านมา

      Glad to hear it!

  • @kenchang3456
    @kenchang3456 3 หลายเดือนก่อน +4

    I appreciate that this video is a nice well rounded high-level description. The llama.cpp explanation was very helpful. Thank you very much for sharing.

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน

      Glad you enjoyed it!

  • @GARYGUS
    @GARYGUS 3 หลายเดือนก่อน

    An excellent explanatory video with valuable and useful information for using LLAMA models without the Internet to ensure complete privacy.

  • @matteo-pu7ev
    @matteo-pu7ev 3 หลายเดือนก่อน

    I appreciate you !! I look forward to seeing your channel grow

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน

      Thank you so much 🤗

  • @UserB_tm
    @UserB_tm 4 หลายเดือนก่อน +3

    Excellent breakdown of user friendly options to run llms.

    • @SemaphoreCI
      @SemaphoreCI  4 หลายเดือนก่อน +1

      Thank you. The space is moving so fast is hard to keep track of everything. Exciting times.

  • @nasiksami2351
    @nasiksami2351 3 หลายเดือนก่อน

    Thanks for clarifying my long-listed doubts. Now I am able to connect the dots.

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน

      Glad it was helpful!

  • @BobRos2
    @BobRos2 2 หลายเดือนก่อน

    Thanks for the summary! There were a lot of things in your video which I didnt know before. ♥

    • @SemaphoreCI
      @SemaphoreCI  2 หลายเดือนก่อน

      Thank you! I'm happy it helped

  • @matteo-pu7ev
    @matteo-pu7ev 4 หลายเดือนก่อน +1

    Thank you so much. Clear concise beautiful presentation. I look forward to engaging with more of your content.

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน

      Awesome, thank you!

  • @magnooj
    @magnooj 19 วันที่ผ่านมา

    This is one of the best videos I’ve ever seen about running LLMs! Specifically it’s very user friendly for non-coders! Maybe some tweaks in the title/description will help none coders to find this better

    • @SemaphoreCI
      @SemaphoreCI  19 วันที่ผ่านมา

      Thank you! It's a good suggestion. I'm glad you enjoyed it.

  • @timroberts_usa
    @timroberts_usa 14 วันที่ผ่านมา

    thank you presenting this... very helpful to understand options..

    • @SemaphoreCI
      @SemaphoreCI  9 วันที่ผ่านมา

      Thank you for watching. I'm happy it helped!

  • @axiomatic4059
    @axiomatic4059 2 หลายเดือนก่อน

    Excellent presentation! Thank you

    • @SemaphoreCI
      @SemaphoreCI  2 หลายเดือนก่อน

      Glad you enjoyed it!

  • @AliAlias
    @AliAlias 3 หลายเดือนก่อน

    Thanks very much for your time and awesome video ❤🎉

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน

      Thanks for watching!

  • @lalpremi
    @lalpremi 3 หลายเดือนก่อน

    Thank you for sharing, I will try some of your suggestions for open-source products. :-)

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน +1

      Please do!

    • @lalpremi
      @lalpremi 3 หลายเดือนก่อน

      @@SemaphoreCI I managed to get llama.cpp running with phi-2-uncensored, love it.. fast answers are not bad.. I showed it to my 10-year-old, he wanted a 1000-page SA on cats..lol

  • @davidmccormack99
    @davidmccormack99 20 วันที่ผ่านมา

    Like some other commenters have said, this video was really useful to unpack the different options available for working with Llama models. Thank you so much!
    Aside: Your pronunciation of the “ll” sounds like the way it’s done in Argentinian Spanish…are you in Argentina?

    • @SemaphoreCI
      @SemaphoreCI  19 วันที่ผ่านมา +1

      Yes I am. That ""LL" the sound is what we use to call the actual llamas, which we have plenty of. I understand that in English it's more like "lama" but it's hard to remember that when I'm recording.
      Thank you for the kind words.

  • @FarhanAhmed1360
    @FarhanAhmed1360 3 หลายเดือนก่อน

    appreciate your good work

  • @jefersonbronze
    @jefersonbronze 20 วันที่ผ่านมา

    Great video!

    • @SemaphoreCI
      @SemaphoreCI  19 วันที่ผ่านมา

      Thank you!

  • @mostlycathartic
    @mostlycathartic 2 หลายเดือนก่อน +1

    It was very useful.

    • @SemaphoreCI
      @SemaphoreCI  2 หลายเดือนก่อน

      Thank you!

  • @tanyoivanov-personal
    @tanyoivanov-personal หลายเดือนก่อน

    Good video. Thanks

    • @SemaphoreCI
      @SemaphoreCI  หลายเดือนก่อน

      Glad you liked it! Thank you!

  • @PossimKeengdum
    @PossimKeengdum 4 หลายเดือนก่อน +2

    This is fantastic stuff man - quick question - have you considered using LM Studio?

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน

      Thank you. I considered but I preferred to highlight open-source tools first.

  • @GenzoMendoza
    @GenzoMendoza 3 หลายเดือนก่อน

    where exactly did you run the gh repo clone of llama.cpp on 13:04? Thank you

  • @nicknick65
    @nicknick65 4 หลายเดือนก่อน

    just subs. Which model would you recommend to train using a specific golang repo, for example a project repo. Would it allow me to train locally by pointing to a directory? thanks
    Ah I should have continued watching your video to the end where you mention GPT4ALL allows you to point to a directory which it indexes. Do you think this would work if I point it to a repo?

    • @SemaphoreCI
      @SemaphoreCI  3 หลายเดือนก่อน +1

      In my experience GPT4ALL models are not great at coding. YMMV but I think something like Copilot or AWS CodeWhisperer would be better for your use case.

  • @davidkisielewski605
    @davidkisielewski605 3 หลายเดือนก่อน

    Wow, I'm not here yet. See you in...

    • @SemaphoreCI
      @SemaphoreCI  2 หลายเดือนก่อน

      Good luck!

  • @damnft8218
    @damnft8218 6 วันที่ผ่านมา

    LocalAI in docker?

    • @SemaphoreCI
      @SemaphoreCI  4 วันที่ผ่านมา +1

      They provide a docker image: localai.io/basics/getting_started/

    • @damnft8218
      @damnft8218 4 วันที่ผ่านมา

      @@SemaphoreCI thank you

  • @manasa7015
    @manasa7015 2 หลายเดือนก่อน

    why there is 0 model in conversation now

    • @SemaphoreCI
      @SemaphoreCI  2 หลายเดือนก่อน

      Sorry, what do you mean?

    • @manasa7015
      @manasa7015 2 หลายเดือนก่อน

      Hugging face has no conversation model now

    • @jesskrikra
      @jesskrikra 2 หลายเดือนก่อน

      He's right. The filter option for "conversational" under Natural Language Processing in huggingface is gone. Maybe the filter "question amswering" is covering that now?

    • @manasa7015
      @manasa7015 2 หลายเดือนก่อน

      @@jesskrikra may be