ไม่สามารถเล่นวิดีโอนี้
ขออภัยในความไม่สะดวก

How To Run ANY Open Source LLM LOCALLY In Linux

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 ส.ค. 2024
  • In this video, I will show you how to run ANY open source llm (large language models) locally on Linux using Ollama & LMStudio. Ollama & LMStudio are the best tools that allows you to run various models such as llama3, Gemma, Mistral, codellama & much more. Watch this video and learn running LLMS locally on Linux computer.
    Timestamps
    00:00 Introduction
    00:38 Pre-requisites
    01:16 Installing Ollama
    02:18 Download LLM
    03:01 Testing LLAMA3 & Gemma
    05:31 Customizing Model
    06:55 Installing LMStudio
    Download
    Ollama: ollama.com/dow...
    LMStudio: lmstudio.ai/
    Relevant Tech Videos
    Dual boot ubuntu 24.04 LTS And Windows 11 - • How to Dual Boot Ubunt...
    Clean Install Ubuntu 24.04 LTS - • How TO Install Ubuntu ...
    Install Ubuntu 24.04 LTS On Virtual Box - • How To Install Ubuntu ...
    ~ Buy Me A Coffee - buymeacoffee.co...
    ~ Connect On Instagram - @KSKROYALTECH
    ~ For Business Enquires ONLY - business.ksktech@yahoo.com
    ~ My Website - kskroyal.com/
    © KSK ROYAL
    MereSai

ความคิดเห็น • 26

  • @0xd3addev
    @0xd3addev 2 หลายเดือนก่อน +3

    For anyone having trouble with the 'ollama create', you have to spell the model's name in lowercase according to the ollama documentation. So the first line would be 'FROM llama3'

    • @sajithj9246
      @sajithj9246 2 หลายเดือนก่อน

      Awesome bro same problem me also facing ❤❤❤

    • @kskroyaltech
      @kskroyaltech  2 หลายเดือนก่อน

      Correct.

  • @shrirammadurantakam
    @shrirammadurantakam 2 หลายเดือนก่อน

    The ollama system configuration is very iseful for agentic workflows
    Need to learn to make llms talk to each other

  • @wolfisraging
    @wolfisraging 2 หลายเดือนก่อน +1

    Alpaca is best for llm GUI. its on flatpak as well. Clean & simple UI.

    • @kskroyaltech
      @kskroyaltech  2 หลายเดือนก่อน

      Thanks for telling will try.

  • @AgentX-dh3lf
    @AgentX-dh3lf 2 หลายเดือนก่อน +2

    Any good LLM for low end hardware?

    • @kskroyaltech
      @kskroyaltech  2 หลายเดือนก่อน

      TinyLlama, GEMMA 2B..

  • @seventhtenth
    @seventhtenth 2 หลายเดือนก่อน

    LLM local running is cool but what is the best training set?

  • @jivtheshm.r1784
    @jivtheshm.r1784 หลายเดือนก่อน

    Does this work in case if there is no internet

  • @Amit-hb9ex
    @Amit-hb9ex 2 หลายเดือนก่อน +2

    which is your main system for you work also what are you doinng in you life like in education pov

    • @kskroyaltech
      @kskroyaltech  2 หลายเดือนก่อน +2

      I use Linux and macOS as primary OS'es.. MacOS I use for building iOS Apps.
      but mostly I spend my time with Linux . I love tinkering open source stuff.
      Education: I dropped Out B-Tech long back. Natural Farming I do in the part time and full time TH-cam.

    • @Arador1112
      @Arador1112 2 หลายเดือนก่อน

      ​@@kskroyaltech great bro

    • @Amit-hb9ex
      @Amit-hb9ex 2 หลายเดือนก่อน

      ​@@Arador1112 Nice dp 🙂

  • @Zer0YT
    @Zer0YT 2 หลายเดือนก่อน

    Very nice Video 🙏🏼
    Bur is There also a free ki you can Host localy for picture Generation? Maybe this would be a Video Worth 😊🙌🏼 I would be interested 💯🙌🏼

  • @abhidnyasonawane9608
    @abhidnyasonawane9608 28 วันที่ผ่านมา

    its powerful then the chat gpt 4o or not capable

    • @kskroyaltech
      @kskroyaltech  25 วันที่ผ่านมา

      Llama 3.1 is powerful than GPT 4o .

  • @PTRAARON
    @PTRAARON 2 หลายเดือนก่อน

    How to uninstall ollama from my computer. I have no graphics card

    • @thewizard5716
      @thewizard5716 หลายเดือนก่อน

      You dont need one

  • @chef2654
    @chef2654 2 หลายเดือนก่อน

    Do what exactly makes Linux superior for AI?
    You do realise that you can run Ollama & LM Studio just as easily on macOS & Windows. Not to mention, they also work with AMD GPUs, not just Nvidia.

    • @kskroyaltech
      @kskroyaltech  2 หลายเดือนก่อน

      Offcourse.

    • @MrRom079
      @MrRom079 หลายเดือนก่อน

      Yea but windows sucks balls 😂😂😂😂

  • @Arador1112
    @Arador1112 2 หลายเดือนก่อน

    hey,how do one can delete a model from oolama?

    • @kskroyaltech
      @kskroyaltech  2 หลายเดือนก่อน

      ollama list
      to see all models
      ollama rm MODEL_NAME

    • @Arador1112
      @Arador1112 2 หลายเดือนก่อน

      @@kskroyaltech i mean how to completely delete it. it does take the space even after running this command