Mistral-Nemo + Stable-Code + Twinny : THE BEST Local Coding Copilot is here! (BEATS Github Copilot)

แชร์
ฝัง
  • เผยแพร่เมื่อ 12 ก.ย. 2024

ความคิดเห็น • 31

  • @badanimz1453
    @badanimz1453 หลายเดือนก่อน +4

    I found myself watching all of your videos lol but one thing you never explain is how many resources we need to run the local llm

  • @Chatec
    @Chatec หลายเดือนก่อน +4

    Are you creating a video for aider using this?

  • @ManuelJimenez1
    @ManuelJimenez1 หลายเดือนก่อน +1

    Ouch! You have done it! Great! Amazing dude! THANKS!

  • @programmersemarang
    @programmersemarang หลายเดือนก่อน +2

    Finally it's here

  • @hollidaycursive
    @hollidaycursive หลายเดือนก่อน +1

    Dancing to the intro

  • @remi8118
    @remi8118 หลายเดือนก่อน

    Wow it's seam instantaneous ! on what machine did you run the model ? I tried to use mistral nemo on a 4090 (using python) but the message get 5 min before being return by the model.

  • @ThanhXuan-ix4fl
    @ThanhXuan-ix4fl หลายเดือนก่อน

    Great instruction! Btw, can you make a video about fine tune?

  • @vauths8204
    @vauths8204 หลายเดือนก่อน

    This plus aider would be a huge advancement

  • @mdubbau
    @mdubbau หลายเดือนก่อน

    Love it thanks @AICodeKing!

    • @mdubbau
      @mdubbau หลายเดือนก่อน

      This is the first-time I've made a Super-Thanks contribution to any channel. Thank you kindly!

  • @computingsafety
    @computingsafety หลายเดือนก่อน

    Intro is the best 😁 welcome to another happy day with AI

  • @curiosity_tech
    @curiosity_tech หลายเดือนก่อน

    How are you doing this? Its literally more than 1 high quality videos per day.

  • @yngeneer
    @yngeneer หลายเดือนก่อน +1

    what about deepseek coder v2 ? isn't it better for coding than nemo? btw doesn't ds coder v2 get some update recently?

    • @crushfire2004
      @crushfire2004 หลายเดือนก่อน

      This channel already has review on new deepseek-coder-v2 recently. Just check it out.

  • @papillon8i838
    @papillon8i838 หลายเดือนก่อน

    Couldn't get completion to work. Out of the box it uses markdown with a bunch of explanatory text. I changed the prompt, turned off multiline completion in config. Still markup and unusable. Changed to stable-code and completion stopped working completely. Deleted and reinstalled extention. It remembered model making me think it didn't really uninstall. Would be nice if I could get it to work. Thanks for vid. shell-gpt was new to me. Cheers.

  • @gani2an1
    @gani2an1 หลายเดือนก่อน +1

    Still waiting for aider deepseek coder for editing local files

    • @internetmarketingproductre6093
      @internetmarketingproductre6093 หลายเดือนก่อน

      It already works , aider and deepseeker , you need add the local file with command

  • @aryindra2931
    @aryindra2931 หลายเดือนก่อน

    Wow new intro 🎉🎉

  • @papillon8i838
    @papillon8i838 หลายเดือนก่อน

    VScode refuses to actually uninstall it, keeps coming back with edited prompt. Now I have to find out how to manually kill the thing.

  • @vauths8204
    @vauths8204 หลายเดือนก่อน

    Have you tried Agent Zero yet?

  • @remedyreport
    @remedyreport หลายเดือนก่อน

    Thank you

  • @ThangNguyen-ot8uz
    @ThangNguyen-ot8uz หลายเดือนก่อน

    So in the company's perspective, do I have to provide each of my employee a GPU to run this?

    • @AICodeKing
      @AICodeKing  หลายเดือนก่อน +1

      No, You can get an API from Mistral or Nvidia and connect that with ContinueDev.

    • @ThangNguyen-ot8uz
      @ThangNguyen-ot8uz หลายเดือนก่อน

      @@AICodeKing is there anybody doing a video about what's the cost comparision of these 3 options: (1) use smt like copilot and pay 20-29$ per person ; (2) use some API from mistral & nvdia like you said ; (3) invest on hardware to run locally ?
      I think for option 3 to be viable for companies, we will have to refine the hardware spec very carefully to get the most value out of it.

  • @mdubbau
    @mdubbau หลายเดือนก่อน

    Thanks!

    • @AICodeKing
      @AICodeKing  หลายเดือนก่อน

      Thanks a lot ❤️

  • @Mr-hn4bo
    @Mr-hn4bo หลายเดือนก่อน

    How to make it work with ollama running on docker?

    • @AICodeKing
      @AICodeKing  หลายเดือนก่อน

      You can do that by changing the base url

  • @prometheas
    @prometheas หลายเดือนก่อน

    “Anyway”

  • @CodeWithAbirOfficial
    @CodeWithAbirOfficial หลายเดือนก่อน

    On windows, i am using LM Studio. can any want tell me how to integrate this with vs code.?

    • @AICodeKing
      @AICodeKing  หลายเดือนก่อน

      Yes, you can do that with ContinueDev