How to run an LLM Locally on Ubuntu Linux

แชร์
ฝัง
  • เผยแพร่เมื่อ 16 ม.ค. 2025

ความคิดเห็น • 7

  • @mufeedco
    @mufeedco 6 หลายเดือนก่อน +8

    Thank you, great guide. How can I configure Oobabooga text-generation-webui with Open WebUI?

  • @ddutta3008
    @ddutta3008 6 หลายเดือนก่อน +15

    It is very important to show how to close Ollama Web UI? And will that port will always be occupied? Once I close the browser Tab how to restart everything?

  • @brucewillis7213
    @brucewillis7213 4 วันที่ผ่านมา

    Hi Morgan, do you have experience in setting up Anything LLM on Ubuntu? I need help on this.

  • @elarbielaarabi
    @elarbielaarabi 20 วันที่ผ่านมา

    Great video

  • @AndersTrierRasmussen
    @AndersTrierRasmussen 13 วันที่ผ่านมา

    Hi
    Can you use the web ui without a NVidia gpu?

  • @wgabrys88
    @wgabrys88 24 วันที่ผ่านมา +1

    Great tutorial because you are using installation from scratch and I mean scratch