Local AI Coding in VS Code: Installing Llama 3 with continue.dev & Ollama

แชร์
ฝัง
  • เผยแพร่เมื่อ 21 ธ.ค. 2024

ความคิดเห็น • 47

  • @hackeymabel1617
    @hackeymabel1617 17 วันที่ผ่านมา +1

    Mine still working without the apiBase field... Tutorials on Continue and Ollama is so rare. Thank you man

    • @iamjankoch
      @iamjankoch  9 วันที่ผ่านมา

      @@hackeymabel1617 so glad you got value from it!

  • @eckhardEhm
    @eckhardEhm 7 หลายเดือนก่อน +1

    nice clip jan, thanks its working like a charm.
    hardest part was getting rid of amazon aws stuff in vs code that kept on installing amazon Q and stealing the code completion ^^.

    • @iamjankoch
      @iamjankoch  7 หลายเดือนก่อน +1

      I'm glad I didn't have AWS connected to VS Code in that case :D Glad it worked well for you!

  • @uwegenosdude
    @uwegenosdude หลายเดือนก่อน

    Thanks for the interesting video.
    Can I run this setup on a PC with a RTX 2060 GPU having only 6 GB of VRAM? Or do I need at least 4,7 GB (llama3.1:8b) + 1,8 GB (starcode 2b)?
    Or does my GPU VRAM only has to be large enough so that the starcoder LLM can fit into it?

    • @sifly4683
      @sifly4683 หลายเดือนก่อน

      From what I could do with a 3070, take the lighter/medium ones so that your GPU won't struggle. Well, now I have a 4090, and I still don't know what can stop this card, lol.

    • @uwegenosdude
      @uwegenosdude หลายเดือนก่อน +2

      @sifly4683 thanks for the answer.
      I tried it and it works with my 6GB GPU and qwen-coder:3b

  • @ybirdinc
    @ybirdinc 9 วันที่ผ่านมา +1

    I don't know if I did it right but after 8 months from publishing this video some things were different. So I copied the "models" array of your config.json file, which is:
    "models": [
    {
    "title": "Gemini 1.5 Flash",
    "model": "gemini-1.5-flash-latest",
    "contextLength": 1000000,
    "apiKey": "AIzaSyAIJ49oNQAMSEionN0v5R7fWE1fHgmeMuo",
    "provider": "gemini"
    },
    {
    "title": "Llama 3",
    "provider": "ollama",
    "model": "llama3"
    },
    {
    "title": "Ollama",
    "provider": "ollama",
    "model": "AUTODETECT"
    },
    {
    "model": "AUTODETECT",
    "title": "Ollama (1)",
    "completionOptions": {},
    "apiBase": "localhost:11434",
    "provider": "ollama"
    }
    ],

  • @scornwell100
    @scornwell100 3 หลายเดือนก่อน +2

    Doesn't work for me. I can do it from command line but Continue plugin seems not working at all. Did all configuration and it responds with nothing.

    • @iamjankoch
      @iamjankoch  3 หลายเดือนก่อน

      @@scornwell100 did you check the issues listed in their GitHub repo? github.com/continuedev/continue
      You can also join their Discord server to get more detailed help: discord.gg/vapESyrFmJ

  • @rodrigoaaronmartineztellez3572
    @rodrigoaaronmartineztellez3572 2 หลายเดือนก่อน

    What about using rtx 4060ti 16 vram with ryzen 9 5950x could works well ?

    • @iamjankoch
      @iamjankoch  2 หลายเดือนก่อน

      @@rodrigoaaronmartineztellez3572 yes, that should handle Ollama quite well

  • @ctopedja
    @ctopedja 2 หลายเดือนก่อน +1

    wish you posted your full config.json on pastebin or somewhere since default config is not even near that you show and guide is useless without full setup

    • @iamjankoch
      @iamjankoch  2 หลายเดือนก่อน

      Here you go: gist.github.com/jan-koch/9e4ea0a9e0c049fe4e169d6a5c1e8b74
      Hope this helps

    • @nooov7220
      @nooov7220 18 วันที่ผ่านมา

      i cant believe no one else here mentions this in the comment section, he just skipped like a couple of steps that he didnt even mention just make a very short video.

  • @HowardGil
    @HowardGil 6 หลายเดือนก่อน +1

    Dope. I'm going on an RV trip for two weeks so will have spotty service but can still ship 🚢

    • @iamjankoch
      @iamjankoch  6 หลายเดือนก่อน

      Sounds awesome, enjoy the trip!

  • @JaiRaj26
    @JaiRaj26 6 หลายเดือนก่อน

    Is 8gb RAM sufficient? I have enough Storage but when I try to use this after installing, it just doesn't work. Keeps loading.

    • @iamjankoch
      @iamjankoch  6 หลายเดือนก่อน

      I run it on 16 GB. The processor and GPU are quite important for Ollama as well.
      16GB RAM are recommended: github.com/open-webui/open-webui/discussions/736#

    • @scornwell100
      @scornwell100 3 หลายเดือนก่อน

      I run it with 11GB of VRAM from command line and it seems fine, but inside VSCode I can't get it to respond, it throws errors that the stream is not readable.

  • @codelinx
    @codelinx 3 หลายเดือนก่อน

    This is awesome. Currently using codeium, but will install good later and give it a go.

    • @iamjankoch
      @iamjankoch  3 หลายเดือนก่อน

      @@codelinx let me know how it goes 💪🤖

  • @PedrinbeepOriginal
    @PedrinbeepOriginal 7 หลายเดือนก่อน

    Thank you! I was looking for this. Wat are the specs of your mac?

    • @iamjankoch
      @iamjankoch  7 หลายเดือนก่อน +1

      Glad you enjoyed the video! It’s a 2023 MacBook Pro with M2 Pro and 16 GB RAM

    • @PedrinbeepOriginal
      @PedrinbeepOriginal 7 หลายเดือนก่อน +1

      @@iamjankoch Nice, thank you for the fast answer, I was thinking if I need a M3/M2 Max with a lot of ram to load Llama 3 in the MacBook.

    • @iamjankoch
      @iamjankoch  7 หลายเดือนก่อน

      @@PedrinbeepOriginal Not really. Granted, I don't do much other heavy work when I'm coding but it runs super smooth with the 16GB. The only time I wish I had more RAM is when doing video editing lol

  • @caiohrgm22
    @caiohrgm22 5 หลายเดือนก่อน +1

    Great video ! really helped me setting things up!!

    • @iamjankoch
      @iamjankoch  5 หลายเดือนก่อน

      @@caiohrgm22 glad to hear that!!!

  • @jasonp3484
    @jasonp3484 6 หลายเดือนก่อน +1

    Great video my friend. Worked like a charm.I thank you very much!.

    • @iamjankoch
      @iamjankoch  6 หลายเดือนก่อน

      Glad to hear that, happy coding!

  • @Ilan-Aviv
    @Ilan-Aviv 3 หลายเดือนก่อน

    simple and great explanation ! thank you

    • @iamjankoch
      @iamjankoch  3 หลายเดือนก่อน +1

      @@Ilan-Aviv you bet, glad the tutorial was useful! What are you building with AI?

    • @Ilan-Aviv
      @Ilan-Aviv 3 หลายเดือนก่อน

      @@iamjankoch Building a code assistant agent to work inside VSC editor, to help me with other projects.
      actually I will ask for your advice:
      I have a trading bot written in NodeJS react while this project written by another programmer, for some parts struggling with it development.
      like to have a useful AI assistant to help me find bugs and understand the app structure.
      the app runs server with browser client while it have about 130 files.
      tried to use open AI GPT but it's to many files for it, while it's loosing the context, with the other issues it have.
      I came into the conclusion that the best way is to have a local llm running on my machine.
      if you have any recommendations for the right AI assistant you would use, I'll appreciate you advice.🙏

  • @dzimoremusic5515
    @dzimoremusic5515 2 หลายเดือนก่อน

    hatur nuhun pisan ... sehat sehat terus kang

  • @almaoX
    @almaoX 6 หลายเดือนก่อน

    Thnaks alot! =)

    • @iamjankoch
      @iamjankoch  6 หลายเดือนก่อน

      You’re welcome!

  • @tanercoder1915
    @tanercoder1915 3 หลายเดือนก่อน

    Great explanation

    • @iamjankoch
      @iamjankoch  3 หลายเดือนก่อน

      @@tanercoder1915 thank you!

  • @superfreiheit1
    @superfreiheit1 2 หลายเดือนก่อน

    codearea is to small cant see

  • @2ru2pacFan
    @2ru2pacFan 5 หลายเดือนก่อน

    Thank you so much!

    • @iamjankoch
      @iamjankoch  5 หลายเดือนก่อน

      @@2ru2pacFan glad you enjoyed the tutorial!

  • @user-13853jxjdd
    @user-13853jxjdd 4 หลายเดือนก่อน +1

    luv u bro

    • @iamjankoch
      @iamjankoch  4 หลายเดือนก่อน

      @@user-13853jxjdd glad you enjoyed the video!

  • @josersleal
    @josersleal 2 หลายเดือนก่อน

    forgot to mention how much you need to pay for a computer that can handle this otherwise it will not even start or take literally ages to do anything or you have to use the lowest llms that cant do s&T(t. it's all hype to get money into openai and otehrs like

    • @iamjankoch
      @iamjankoch  2 หลายเดือนก่อน

      @@josersleal I have an M2 Pro MacBook Pro with 16GB, for reference