The Ollama Course: Intro to Ollama

แชร์
ฝัง
  • เผยแพร่เมื่อ 21 ต.ค. 2024

ความคิดเห็น • 56

  • @RocktCityTim
    @RocktCityTim 3 หลายเดือนก่อน +8

    Thanks, Matt! Now, I'm one step closer to "All your base are belong to us!"

    • @BlueBearOne
      @BlueBearOne 2 หลายเดือนก่อน

      Respect!

  • @vaitesh
    @vaitesh 3 หลายเดือนก่อน +1

    Thank you so much for making this course! This definitely gets anyone interested to get started using ollama

  • @grayaj23
    @grayaj23 2 หลายเดือนก่อน

    This is pretty close to exactly the level of abstraction I need. Looking forward to more!

  • @hiltonwong5419
    @hiltonwong5419 3 หลายเดือนก่อน

    Thank you, Matt. I was eagerly anticipating the initial video to start the course. I really enjoy the videos you create.😄

  • @mbottambotta
    @mbottambotta 3 หลายเดือนก่อน +2

    what do you mean, "this video is already long enough"? I could have gone on for another hour. love your work, Matt!

  • @henzoovhdl
    @henzoovhdl 3 หลายเดือนก่อน

    love it. Looking forward to your next videos!

  • @Arkajyoti
    @Arkajyoti 3 หลายเดือนก่อน

    Short, sweet and to the point.

  • @OmnispectiveHub
    @OmnispectiveHub 3 หลายเดือนก่อน

    waiting for the typescript part, thank you for making this course!

  • @BillyBobDingledorf
    @BillyBobDingledorf 2 หลายเดือนก่อน

    I know I've been "cautious" of you and some of your videos, but I do appreciate what you are doing, including this course. Thank you.

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      Cautious? What does that mean in this context.

    • @BillyBobDingledorf
      @BillyBobDingledorf 2 หลายเดือนก่อน

      @@technovangelist Just spidey senses, with nothing to back them up.

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน +2

      Umm ok. There are a lot of folks just eager to do the right thing without getting much out of it. All I get is a cut of the ad revenue for ads TH-cam is going to show you anyway. And if I were in it for the money it would be easier to make more to cook fries at the local McDonald’s.

    • @loupasternak
      @loupasternak 28 วันที่ผ่านมา

      @@technovangelist see , he was right !!!! you're shilling for McDonald’!.

  • @fabriai
    @fabriai 3 หลายเดือนก่อน

    Wonderful, Matt! Thanks a lot for this.

  • @escain
    @escain 3 หลายเดือนก่อน

    I really enjoy your videos, thank you for this introduction to Ollama.

  • @em22en
    @em22en 2 หลายเดือนก่อน

    Thanks Matt! Very helpful!

  • @DeanRIowa
    @DeanRIowa 3 หลายเดือนก่อน

    Great first course video! Thank you.

  • @Ammarsays
    @Ammarsays 3 หลายเดือนก่อน +3

    Best introductory video. One bit at a time for dumb people like me.

  • @kevin_3301
    @kevin_3301 2 หลายเดือนก่อน

    Thanks, Matt!

  • @MeinDeutschkurs
    @MeinDeutschkurs 3 หลายเดือนก่อน

    Great! Can‘t wait for more. 🎉

  • @wardehaj
    @wardehaj 3 หลายเดือนก่อน

    Great video again, thanks.
    Can you please make an instruction video about installing routeLLM, using the llama3.1 8b local with ollama and groq (or openai or claude) through internet?

  • @zedatrix
    @zedatrix 5 วันที่ผ่านมา

    The discord link you mention in the video is invalid - managed to join via the link in the description

  • @jgabod
    @jgabod 2 หลายเดือนก่อน

    What GUI are you using in general? For a relative novice so I won't be building super sophisticated products yet

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      i don't. I just use Ollama because the CLI is always faster than anything else.

  • @autoboto
    @autoboto 2 หลายเดือนก่อน

    Perhaps this is out of scope for ollama. Can Ollama run the local model on the laptop with both the GPU and CPU? GPU NVidia rtx 4090 16GB VRam. CPU 32 cores 128GB Ram. I do notice the small models auto run on the GPU when they fit the vram. Larger models just run on the CPU/RAM not the GPU. Can the GPU be used to buffer/process larger then VRAM models concurrently with the cpu/ram?

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      Gpu is Orders of magnitude faster than cpu. You want as much as possible on gpu. If any runs on cpu it’s because you don’t have enough resources on gpu

  • @ctrlaltdel1758
    @ctrlaltdel1758 3 หลายเดือนก่อน

    Keep going. 🥳

  • @macgee
    @macgee 2 หลายเดือนก่อน

    much appreciated matt, keep it up
    this is the missing link.
    Would you be able to cover how we can install a model from a local repository?

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      Can you tell me more? Install what model from what local repo from what source.

    • @macgee
      @macgee 2 หลายเดือนก่อน

      @@technovangelist Yes sure, thanks for asking: basically if you already have a model downloaded, if you are without internet connection, you can install Ollama but you can't really add any models (as far as I can tell?) . Is there a way to "restore" or add models fresh from existing download in this scenario? Or perhaps we need to download the manifest and other files too to facilitate?

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      I feel like someone asked this exact question somewhere else today.

    • @macgee
      @macgee 2 หลายเดือนก่อน

      @@technovangelist interestingly i couldn't find anything about it - but for example I've had to redownload 40GB models again through Ollama pull/run even though I already have the model. Then dump the origin and make links to use the newly downloaded model in other app.

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน +1

      If you have the model in ollama and don’t remove it you won’t have to dl it again. Sometimes folks run ollama serve at the cli and then you have a second user running ollama and it will dl to a different directory. If you dl a model for a different tool however ollama will never see it until you add it to ollama. But most other tools only distribute the weights while ollama distributes the entire model.

  • @irocz5150
    @irocz5150 3 หลายเดือนก่อน

    Thanks Matt!!!!

  • @govindarajram8553
    @govindarajram8553 2 หลายเดือนก่อน

    Thank you Matt. I am using Ollama llama3 8b (4.7GB) for our RAG system in Tesla T4 (1 GPU 16 GB) memory.There is a slowness in it while questioning - not sure how to increase the performance within it. Please check if you can help.

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      Get a better gpu

    • @govindarajram8553
      @govindarajram8553 2 หลายเดือนก่อน

      @@technovangelist thank you. I will try

  • @changeagent228
    @changeagent228 3 หลายเดือนก่อน

    Nice. I find it's a bit inconsistent with the models running offline because sometimes they run and other times they try to download each time. Getting myself 128gb of ram soon so I can test out the 33b model I tried on my 32gb and it ran so slow lol.

    • @technovangelist
      @technovangelist  3 หลายเดือนก่อน

      Once you download a model you will never have to download it again unless you delete them

    • @changeagent228
      @changeagent228 3 หลายเดือนก่อน

      @@technovangelist Strange then. I have gigabit so it's only mildly inconvenient.

    • @technovangelist
      @technovangelist  3 หลายเดือนก่อน

      If you run it as different users then it will download the same model twice. So run it as the default service and then another time run ollama serve from the command line then you will get two copies.

    • @changeagent228
      @changeagent228 2 หลายเดือนก่อน

      @@technovangelist Thanks, it popped up with the update prompt in the taskbar and after updating it stopped doing it so maybe it was a known issue or file integrity. I installed 3.1 last night. 405b won't run(understandably lol), 60b is 1 word every 20 seconds slow and 8b runs but often displays an error and breaks "Error: template: :28:7: executing "" at : can't evaluate field ToolCalls in type *api.Message"

  • @santiagomartinez3417
    @santiagomartinez3417 3 หลายเดือนก่อน

    Nice!

  • @FrankSchwarzfree
    @FrankSchwarzfree 3 หลายเดือนก่อน

    MATT the MAN!

  • @AliAlias
    @AliAlias 3 หลายเดือนก่อน

    Thanks 🌹
    I have problem with download model due to low internet speed,
    I have pc on other locations with high speed internet.
    Can copy download model with there manifest files from other pc to my pc,
    IF can please explain it 🙏🙏🌹

    • @Hits-Sandbox
      @Hits-Sandbox 2 หลายเดือนก่อน

      If you have a laptop take a visit to the coffee shop or McDonald to do so. They have not bad speed.

    • @AliAlias
      @AliAlias 2 หลายเดือนก่อน


      1. I not have laptop 😊
      2. No net Coffee or Macdonlas on my regain 😢

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      if you have a machine on a better connection you can pull the models there and copy them over. make sure all the files in the manifest make it over.

  • @YapayZeka-iy5zu
    @YapayZeka-iy5zu 2 หลายเดือนก่อน

    Discord invite looks invalid 🙁

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      Sorry about that. It’s fixed now. Thanks for pointing it out.

  • @dusk2dawn2
    @dusk2dawn2 2 หลายเดือนก่อน

    Ah - that discord... says invite expired ! ?

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน

      there is a different one in the description

    • @technovangelist
      @technovangelist  2 หลายเดือนก่อน +1

      discord.gg/uS4gJMCRH2

  • @j0hnc0nn0r-sec
    @j0hnc0nn0r-sec 3 หลายเดือนก่อน

    Why does he talk like that?