How to Install and Run DeepSeek R1 Locally

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 ม.ค. 2025

ความคิดเห็น • 62

  • @Cappinator
    @Cappinator วันที่ผ่านมา +60

    Nice and short, not dragged out to 15 mins of video with needless banter. Thanks!

    • @Joselgnacio
      @Joselgnacio วันที่ผ่านมา

      on point

    • @andrewoods6742
      @andrewoods6742 9 ชั่วโมงที่ผ่านมา

      Yep soon as I seen anything over 2 minutes. I exit the video.

  • @Mazhen001
    @Mazhen001 วันที่ผ่านมา +6

    Great vid bro, show us some of Deep seek image generation or anything about design generating

  • @ethzero
    @ethzero วันที่ผ่านมา +3

    Confirmed working. And like others, really appreciate the sound & succinct presentation
    You have all the 🍪🍪🍪🍪🍪

  • @thedavephan
    @thedavephan วันที่ผ่านมา +11

    ine just shows ... for every response. im running on an m1 MacBook with 8gb ram. 1.5b model

    • @Chloeburbank_1
      @Chloeburbank_1 วันที่ผ่านมา +1

      Mine too idk what I did wrong

    • @ArguZ72
      @ArguZ72 14 ชั่วโมงที่ผ่านมา +2

      I am running the 14B version on a 16Gm M4 MacBook Air, making Sam Altman cry

  • @gwarf343
    @gwarf343 6 ชั่วโมงที่ผ่านมา

    Best video by far on the subject 👍🏼

  • @hyouzanren1846
    @hyouzanren1846 วันที่ผ่านมา +16

    I can almost heard jensen and their nvidia shareholder screaming in agony😂

  • @darrinbrunner6429
    @darrinbrunner6429 วันที่ผ่านมา

    Cool. I got it running on Linux Mint using this guide. I picked the 14 model, and it's slow on my machine, but it's working.

  • @psyKater2000
    @psyKater2000 20 ชั่วโมงที่ผ่านมา +2

    i installed it exactly this way on ubuntu, but I only get empty answers from the deepseek models (llama3 works fine). What is up?

  • @Abumustard6364
    @Abumustard6364 วันที่ผ่านมา +1

    How do I choose which drive to install to? I don't want it on my C drive.

  • @jazzmann1984
    @jazzmann1984 2 วันที่ผ่านมา +2

    You mentioned how powerful your computer has to be. I'm currently running a ProArt Studio book with Intel i9 13980HX with a Nvidia 3000 ada GPU. Should this be powerful enough to run the larger models?

    • @matrayzz
      @matrayzz 2 วันที่ผ่านมา +6

      I do not recommend the largest for sure, my high end PC with 32GB ram and nice CPU couldn't answer a message in like 10 minutes. It maxed out my CPU and RAM as well

    • @jazzmann1984
      @jazzmann1984 2 วันที่ผ่านมา

      @matrayzz lol I forgot the mention have 64gb of ram. Thank you! I'll stay away from the largest one. 😂

    • @moorishstar
      @moorishstar 2 วันที่ผ่านมา +2

      Haven't installed it on my machine yet (RTX 4090), but I doubt you could install the larger models on a 3000 very much, usually with quantized models I can run up to the ones with 32b params, I'm downloading the 70b one right now and crossing fingers, the largest model they have is 670b params (!!!), so an order of magnitude bigger, I guess those are exclusively for A100+ cards though.

    • @TheJimmyCartel
      @TheJimmyCartel 2 วันที่ผ่านมา +3

      @@matrayzz that stuff hardly matters, all about size of your vram

    • @razvanfatu6513
      @razvanfatu6513 19 ชั่วโมงที่ผ่านมา +1

      You should be fine running the 32b version

  • @TheNormMan
    @TheNormMan 2 วันที่ผ่านมา +2

    is it possible to deactivate the thinking part?

    • @TySchmidt
      @TySchmidt 2 วันที่ผ่านมา +6

      In the app it's called "Deep Think". Maybe ask it "Please turn off DeepThink until I ask for it again"

    • @skysea7785
      @skysea7785 วันที่ผ่านมา +1

      just delete the app

  • @HamzaNasry
    @HamzaNasry วันที่ผ่านมา +15

    Im running the 32B R1 I want to create a voice activated one to act like siri for windows...

    • @xlordfifth
      @xlordfifth 19 ชั่วโมงที่ผ่านมา

      what's the requirement for 32b?

    • @HamzaNasry
      @HamzaNasry 18 ชั่วโมงที่ผ่านมา

      @@xlordfifth idk i have 32gb ram..

    • @ibrahem891
      @ibrahem891 15 ชั่วโมงที่ผ่านมา

      You wrote it first as if the (32) was a part of the version

    • @HamzaNasry
      @HamzaNasry 9 ชั่วโมงที่ผ่านมา

      @@ibrahem891 it is 32B means 32 Billion parameters, I read somewhere that 32B requires 32GB of ram to run...

    • @HamzaNasry
      @HamzaNasry 4 ชั่วโมงที่ผ่านมา

      @ It is part of the version, it's the 32Billion parameter version :/

  • @Palapi_H
    @Palapi_H 2 วันที่ผ่านมา +1

    will it search internet under such mode?

  • @crazyitalianguy000
    @crazyitalianguy000 วันที่ผ่านมา +1

    how do i uninstall the models?

    • @adrianwei5282
      @adrianwei5282 วันที่ผ่านมา

      ollama rm (reinput the model name)

    • @crazyitalianguy000
      @crazyitalianguy000 19 ชั่วโมงที่ผ่านมา

      @adrianwei5282 thanks

  • @MALICIOUS407
    @MALICIOUS407 11 ชั่วโมงที่ผ่านมา

    awesome video. you're a saint

  • @theredwedge9446
    @theredwedge9446 วันที่ผ่านมา

    What do the numbers mean ? How do I know which would be best for my pc ? Specs are 12600k, 32gig ram, 3080 +5700xt

    • @razvanfatu6513
      @razvanfatu6513 19 ชั่วโมงที่ผ่านมา +1

      14b will work fine, 32b will be slow.

  • @DGTravelsMx
    @DGTravelsMx วันที่ผ่านมา

    It says I used tokens after asking my first question. I thought it was free - no limits. How many tokens do I get? Am I going to have to pay for more? Does the llama have more tokens?

    • @escoladecuriosidades
      @escoladecuriosidades วันที่ผ่านมา +2

      probably just for resource management for their servers. To make sure people arent overloading it causing lags and crashes.

    • @finn-lukas2279
      @finn-lukas2279 วันที่ผ่านมา +1

      there are unlimited tokens, tokens refere to the lenth of your input/output of the AI

  • @jandutton
    @jandutton 2 วันที่ผ่านมา +1

    My Mac won't allow me to open Llama

  • @davidf_bs
    @davidf_bs 2 วันที่ผ่านมา

    Appreciate it brotha

  • @BrodyAleksander-YOB
    @BrodyAleksander-YOB วันที่ผ่านมา

    It's not thinking or reasoning in real-time. It's predicting the next word

    • @ndjxisjenxjix9525
      @ndjxisjenxjix9525 14 ชั่วโมงที่ผ่านมา

      your thinking process is not far off

    • @BrodyAleksander-YOB
      @BrodyAleksander-YOB 4 ชั่วโมงที่ผ่านมา

      @ndjxisjenxjix9525 why are you gay

  • @JungRich313
    @JungRich313 8 ชั่วโมงที่ผ่านมา

    This is not for R1

  • @DouglasKubler
    @DouglasKubler 2 วันที่ผ่านมา +2

    Chatbox doesn't follow your easy example, wants stuff like API key, etc. license

    • @donjay6722
      @donjay6722 วันที่ผ่านมา +2

      i belive it prompted you with either selecting a blue or gray button to press. click the blue button then you should be able to follow his directions. hope that helps!

  • @abdoulayedrame6002
    @abdoulayedrame6002 วันที่ผ่านมา

    Thanks it works

  • @hasanahmad
    @hasanahmad วันที่ผ่านมา

    Why are you misleading viewers? the 70B model is NOT R1. Ollama even knows this. TH-camrs know this. the actual Model is 600B. the 70B is just the Qwen 2.5 Distilled version of DeepSeek.

  • @Krishnaplus07
    @Krishnaplus07 วันที่ผ่านมา

    I didn’t understand

  • @brandonlong2796
    @brandonlong2796 2 วันที่ผ่านมา

    Ty

  • @SergioBlackDolphin
    @SergioBlackDolphin วันที่ผ่านมา

    Attempting this on a NAS..! chatbot is super expensive.. pass.

  • @attorneyirl2725
    @attorneyirl2725 วันที่ผ่านมา

    Those aren't deepseek r1. They are just tuned down models that are interesting, that's all.

  • @DJVARAO
    @DJVARAO 2 วันที่ผ่านมา +2

    It works, but it is useless for coding... (8b)😑

    • @Dave-nz5jf
      @Dave-nz5jf 2 วันที่ผ่านมา +3

      what kind of coding? Is it wrong or does it just not know?

    • @broseph01
      @broseph01 2 วันที่ผ่านมา

      Can I use it for unit testing node js apps?

    • @Jamal-mq6xn
      @Jamal-mq6xn 18 ชั่วโมงที่ผ่านมา +1

      Dont use R1 for coding, use DeepSeek Coder.

    • @呀咧呀咧
      @呀咧呀咧 ชั่วโมงที่ผ่านมา

      @@Jamal-mq6xnIsn’t qwen 2.5 coder better?

  • @mohsenalbakri2875
    @mohsenalbakri2875 วันที่ผ่านมา

    Thanks a lot. Short and to the point 🫡❤️

  • @TechInYourPocket5
    @TechInYourPocket5 วันที่ผ่านมา +1

    World biggest controversial ai model 😂😂😂😂😂😂😂😅😅😅😅
    th-cam.com/video/WGBz6XrGx_E/w-d-xo.htmlfeature=shared