AI Unleashed: Install and Use Local LLMs with Ollama - ChatGPT on Steroids! (FREE)

แชร์
ฝัง
  • เผยแพร่เมื่อ 7 ก.ย. 2024
  • Get My Course Linux Mastery Express:
    linuxtex.think...
    Download Ollama:
    ollama.com/
    Phi 3 3.8 b (Try First):
    ollama.com/lib...
    Llama 3.1 8 b:
    ollama.com/lib...
    Download MSTY (Ollama not needed):
    msty.app/
    Follomac Flatpak:
    flathub.org/ap...
    Follomac on Ubuntu:
    github.com/pej...
    In this video, I’ll show you how to install and use Large Language Models or LLMs on your local computer using ollama.
    LLMs like ChatGPT are all the hype today. In fact, they have become essential. And the way they work, it feels like magic.
    Chatgpt is great. But running a local AI chatbot on your machine itself is even better and it really ramps up what you can do with them.
    There are many advantages for using local LLMs. First one one being they are free. You don’t have to pay a monthly subscription like for ChatGPT. Then you get unlimited usage. And all your chats are completely private. Your chats are not sent to any servers and they remain on your computer. In fact, you don’t even need an internet connection to chat with them. So nobody can spy on what you say to your chatbot.
    And you can even run uncensored LLMs that answer literally anything you ask them. They never refuse to answer.
    I’ve been playing with local LLMs for a long time now. It’s become a huge hobby of mine now. I’ve played with so many models and it’s so much fun. Having your own chatgpt, inside your own computer- that you have full control on is absolutely amazing.
    And I use ollama, which really makes this whole thing exaggeratedly simple.

ความคิดเห็น • 34

  • @decipher365
    @decipher365 25 วันที่ผ่านมา

    Yes we need much more such videos

  • @nehalmushfiq141
    @nehalmushfiq141 หลายเดือนก่อน +1

    okay thats someting good and appreciatable content

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน

      Thanks Nehal. 👍

  • @go0ot
    @go0ot หลายเดือนก่อน +1

    Do more local llm installs videos

  • @janetmartha3261
    @janetmartha3261 หลายเดือนก่อน +1

    Useful information 💯 ,,🔥🔥🔥🔥🔥

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน

      Thank you👍

  • @nothingbutanime4975
    @nothingbutanime4975 หลายเดือนก่อน +2

    Do make a video regarding ai generated images local models

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน +1

      Definitely bro👍

  • @Lex_Invictus
    @Lex_Invictus 8 วันที่ผ่านมา

    BASED!

  • @shubhamshandilya6160
    @shubhamshandilya6160 27 วันที่ผ่านมา

    How to make api calls to these offline llm. For used in projects

  • @nageswaraopatha5445
    @nageswaraopatha5445 หลายเดือนก่อน +1

    Do more videos like this❤ good apps

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน +1

      Will do. Thanks for the comment👍

  • @Mr_Ravee
    @Mr_Ravee หลายเดือนก่อน

    Quality content dude..👍 got a sub👆👍

  • @user-ou9no9th6n
    @user-ou9no9th6n หลายเดือนก่อน

    0:39 The Holy Trinity 😂😂🤣

  • @SyedAliMurtazaa
    @SyedAliMurtazaa หลายเดือนก่อน +1

    Helpful video!

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน

      Thank you Syed👍

  • @Soth0w76
    @Soth0w76 หลายเดือนก่อน

    I already use ollama on my Galaxy A54 with Kali Nethunter

  • @user-cx6rg6mr7d
    @user-cx6rg6mr7d หลายเดือนก่อน +4

    hardware requirement?

    • @m4saurabh
      @m4saurabh หลายเดือนก่อน

      Nvidia H100

    • @user-cx6rg6mr7d
      @user-cx6rg6mr7d หลายเดือนก่อน

      @@m4saurabh seriously? that's not for everyone T_T

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน +3

      For Phi 3.8b, 8 gb ram. No gpu needed.
      For llama 3.1 7b, 16 gb ram. Most consumer GPUs will suffice. H100 not necessary.😉

    • @user-cx6rg6mr7d
      @user-cx6rg6mr7d หลายเดือนก่อน

      @@LinuxTex thakn you!

  • @kennethwillis8339
    @kennethwillis8339 หลายเดือนก่อน +1

    How can I have my local LLM work with my files?

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน +2

      Sir you need to setup RAG for that. In the MSTY app that I've linked in the description below, you can create knowledge bases easily by just dragging and dropping files. Then you can interact with them using your local llms.

  • @MrNorthNJ
    @MrNorthNJ หลายเดือนก่อน +1

    I have an old file/media server which I am planning on rebuilding as a future project. Would I be able to run this on that server and still access it with other computers on my network or would it just be available on the server itself?

    • @LinuxTex
      @LinuxTex  หลายเดือนก่อน +1

      That's a great idea actually. You could make it accessible on other devices on your network as ollama suppots that.

    • @MrNorthNJ
      @MrNorthNJ หลายเดือนก่อน

      @@LinuxTex Thanks!

  • @gamalieltonatiuh1924
    @gamalieltonatiuh1924 หลายเดือนก่อน

    😮👍

  • @atharavapawar3272
    @atharavapawar3272 หลายเดือนก่อน

    which linux is perfect for my samsung NP300E5Z 4 RAM , Intel Core i5-2450M Processor , plz reply

    • @caststeal
      @caststeal หลายเดือนก่อน

      Go with mx linux. Xfce desktop environment

  • @rohankshetrimayum1049
    @rohankshetrimayum1049 หลายเดือนก่อน +1

    Wow