AI Unleashed: Install and Use Local LLMs with Ollama - ChatGPT on Steroids! (FREE)

แชร์
ฝัง
  • เผยแพร่เมื่อ 18 พ.ย. 2024

ความคิดเห็น • 33

  • @nehalmushfiq141
    @nehalmushfiq141 3 หลายเดือนก่อน +1

    okay thats someting good and appreciatable content

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน

      Thanks Nehal. 👍

  • @decipher365
    @decipher365 3 หลายเดือนก่อน

    Yes we need much more such videos

  • @go0ot
    @go0ot 3 หลายเดือนก่อน +1

    Do more local llm installs videos

  • @MrNorthNJ
    @MrNorthNJ 3 หลายเดือนก่อน +1

    I have an old file/media server which I am planning on rebuilding as a future project. Would I be able to run this on that server and still access it with other computers on my network or would it just be available on the server itself?

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน +1

      That's a great idea actually. You could make it accessible on other devices on your network as ollama suppots that.

    • @MrNorthNJ
      @MrNorthNJ 3 หลายเดือนก่อน

      @@LinuxTex Thanks!

  • @nothingbutanime4975
    @nothingbutanime4975 3 หลายเดือนก่อน +2

    Do make a video regarding ai generated images local models

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน +1

      Definitely bro👍

  • @shubhamshandilya6160
    @shubhamshandilya6160 3 หลายเดือนก่อน

    How to make api calls to these offline llm. For used in projects

  • @Mr_Ravee
    @Mr_Ravee 3 หลายเดือนก่อน

    Quality content dude..👍 got a sub👆👍

  • @乾淨核能
    @乾淨核能 3 หลายเดือนก่อน +4

    hardware requirement?

    • @m4saurabh
      @m4saurabh 3 หลายเดือนก่อน

      Nvidia H100

    • @乾淨核能
      @乾淨核能 3 หลายเดือนก่อน

      @@m4saurabh seriously? that's not for everyone T_T

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน +3

      For Phi 3.8b, 8 gb ram. No gpu needed.
      For llama 3.1 7b, 16 gb ram. Most consumer GPUs will suffice. H100 not necessary.😉

    • @乾淨核能
      @乾淨核能 3 หลายเดือนก่อน

      @@LinuxTex thakn you!

  • @janetmartha3261
    @janetmartha3261 3 หลายเดือนก่อน +1

    Useful information 💯 ,,🔥🔥🔥🔥🔥

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน

      Thank you👍

  • @kennethwillis8339
    @kennethwillis8339 3 หลายเดือนก่อน +1

    How can I have my local LLM work with my files?

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน +2

      Sir you need to setup RAG for that. In the MSTY app that I've linked in the description below, you can create knowledge bases easily by just dragging and dropping files. Then you can interact with them using your local llms.

  • @atharavapawar3272
    @atharavapawar3272 3 หลายเดือนก่อน

    which linux is perfect for my samsung NP300E5Z 4 RAM , Intel Core i5-2450M Processor , plz reply

    • @caststeal
      @caststeal 3 หลายเดือนก่อน

      Go with mx linux. Xfce desktop environment

  • @nageswaraopatha5445
    @nageswaraopatha5445 3 หลายเดือนก่อน +1

    Do more videos like this❤ good apps

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน +1

      Will do. Thanks for the comment👍

  • @MarimoBakaa
    @MarimoBakaa 3 หลายเดือนก่อน +1

    Helpful video!

    • @LinuxTex
      @LinuxTex  3 หลายเดือนก่อน

      Thank you Syed👍

  • @Soth0w76
    @Soth0w76 3 หลายเดือนก่อน

    I already use ollama on my Galaxy A54 with Kali Nethunter

  • @MuhammadMuaazAnsari-l1b
    @MuhammadMuaazAnsari-l1b 3 หลายเดือนก่อน

    0:39 The Holy Trinity 😂😂🤣

  • @gamalieltonatiuh1924
    @gamalieltonatiuh1924 3 หลายเดือนก่อน

    😮👍

  • @rohankshetrimayum1049
    @rohankshetrimayum1049 3 หลายเดือนก่อน +1

    Wow