Ollama-Run large language models Locally-Run Llama 2, Code Llama, and other models

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ม.ค. 2025

ความคิดเห็น • 71

  • @vishalnagda7
    @vishalnagda7 10 หลายเดือนก่อน +10

    I'm feeling lucky that I got this video in my suggestions.

  • @divyaramesh3105
    @divyaramesh3105 10 หลายเดือนก่อน +2

    Thank you Krish sir. In Building RAG from scratch ,sunny sir showed about Ollama. Both of you were giving foundational knowledge and updates in GenAI. It was very useful sir.

    • @devanshgupta6064
      @devanshgupta6064 10 หลายเดือนก่อน

      please give sunny sirs youtube @

    • @divyaramesh3105
      @divyaramesh3105 10 หลายเดือนก่อน

      ​@@devanshgupta6064 @sunnysavita10

    • @sailikitha8502
      @sailikitha8502 10 หลายเดือนก่อน

      Sunny Savita @sunnysavita10

  • @mehdi9771
    @mehdi9771 10 หลายเดือนก่อน

    We need a long versions videos like previously and thanks for your efforts ❤

  • @neerajshrivastava5600
    @neerajshrivastava5600 5 หลายเดือนก่อน

    Krish, Fantastic Video and great explanation!!! Keep it up

  • @AjaySharma-jv6qn
    @AjaySharma-jv6qn 10 หลายเดือนก่อน +1

    Content is helpful, thanks for your effort.🎉

    • @durgakorde3589
      @durgakorde3589 10 หลายเดือนก่อน

      R u a data scientist?

  • @rajendarkatravath2207
    @rajendarkatravath2207 10 หลายเดือนก่อน

    Thanks krish! for sharing this knowledge . what an amazing model it is .....!

  • @kenchang3456
    @kenchang3456 10 หลายเดือนก่อน

    Hey Krish, thanks for doing this video in Windows.

  • @computerauditor
    @computerauditor 7 หลายเดือนก่อน

    Really insightful krish!!

  • @ankkol2011
    @ankkol2011 10 หลายเดือนก่อน

    Thankyou so much for these videos

  • @SomethingSpiritual
    @SomethingSpiritual 8 หลายเดือนก่อน +4

    why ollama not taking full gpu? its taking full cpu only, pls guide

  • @deeks_edits
    @deeks_edits 9 หลายเดือนก่อน

    You are the best!🤓

  • @manjeshtiwari7434
    @manjeshtiwari7434 10 หลายเดือนก่อน +3

    Thank You so much for a such a great video , I have a query , I am getting very slow response does the speed of response depends on system config , I have chekced out system use and while running it isn't using much resource , can you tell how can we increase response speed

  • @roshanchandel7929
    @roshanchandel7929 8 หลายเดือนก่อน

    The heroes we need!!

  • @Lastvideoz
    @Lastvideoz 4 หลายเดือนก่อน +1

    Very good explanation, I have question can I train this model for specific taks mean features extraction or others?

  • @marcoaerlic2576
    @marcoaerlic2576 7 หลายเดือนก่อน

    Thanks for the video.

  • @BelhsanMohamed
    @BelhsanMohamed 8 หลายเดือนก่อน

    as always thanks for the information

  • @omarnahdi3380
    @omarnahdi3380 10 หลายเดือนก่อน +1

    Hey sir😄, please make a video on BioMistral( a LLM trained on Medical and Scientific Data). It would perfectly fit your AI Nutriationist. Thanks for your daily dose of GenAI

  • @NISHANTKumar-ct3pb
    @NISHANTKumar-ct3pb 10 หลายเดือนก่อน +1

    Thanks , it's great video. Wanted to ask when we say local what is the configuration of local is it a cpu or GPU based system? Are models compressed / quantized or same as original ? Is there a model size limitation vs local system config?

  • @sagartalagatti1594
    @sagartalagatti1594 2 วันที่ผ่านมา

    also, do you need a GPU to run it locally? If yes, then which GPU are you using. It'd be really great if you could share the complete system specifications of the machine you used for this tutorial!

  • @apurvakulkarni9699
    @apurvakulkarni9699 2 หลายเดือนก่อน

    very nice video

  • @sagartalagatti1594
    @sagartalagatti1594 2 วันที่ผ่านมา

    bro, really awesome video. Just one question: How many GB of RAM do you need to run llama2 and llava simultaneously side by side on your machine???

  • @amoghjain702
    @amoghjain702 3 หลายเดือนก่อน

    Thanks Krish for the great video. I get Error: llama runner process no longer running: -1 when I try to run the model. Did you encounter this issue?

  • @nasiksami2351
    @nasiksami2351 10 หลายเดือนก่อน

    Great tutorial! Can you please make a video on finetuning model on custom csv dataset and integration with Ollama.
    For instance, consider I have class imbalance problem in my dataset. Can I finetune a model, then ask it in Ollama, to generate more samples of minority class using the finetuned model?

  • @shashank046
    @shashank046 6 หลายเดือนก่อน

    Hi, how do I use gpu on open web ui? My model response is really slow and is not using gpu even though is used the command for using gpu for installing as mentioned on the open web ui GitHub page ..

  • @lionelshaghlil1754
    @lionelshaghlil1754 9 หลายเดือนก่อน +1

    Thanks Krish, the briliant, innovative and master of the AI 😊, I have a question please related to the hosting, so assume I'd like to implement my solution on a server, will I need to have both, OLAMA and my app in two seperate dockers? they would communicate together? or they could be implemented in one single docker?

    • @krishnaik06
      @krishnaik06  9 หลายเดือนก่อน +1

      It can be implemented in one docker

    • @ayushmishra5861
      @ayushmishra5861 8 หลายเดือนก่อน

      Have you got clarity on the same, can you please share.

  • @usingsk
    @usingsk 7 หลายเดือนก่อน

    Thanks for Sharing knowledge. Can we fine tune with company domain content in downloaded model and the data is not shared. I mean it comply with IPR if we use locally

  • @Shrieenidhi
    @Shrieenidhi 3 หลายเดือนก่อน

    If the model is installing locally means, will it take space of the RAM?

  • @jacobashwinmathew3763
    @jacobashwinmathew3763 10 หลายเดือนก่อน

    Can you make a complete video of production ready open source LLM basically LLMOps

  • @Notknows
    @Notknows 10 หลายเดือนก่อน

    Nice video sir

  • @velugucharan8096
    @velugucharan8096 10 หลายเดือนก่อน

    Sir please complete the fine tuning llms playlist as much as possible sir

  • @KumR
    @KumR 10 หลายเดือนก่อน

    Do we need to download the entire 7gb llama2 locally to use with ollama

  • @tharunps8048
    @tharunps8048 10 หลายเดือนก่อน

    Since it is running locally, using this model with organization's data doesn't expose it right ?

  • @VishalTank-vk5ju
    @VishalTank-vk5ju 6 หลายเดือนก่อน

    Hello, krish, I am facing an issue with the Ollama service. I have an RTX 4090 GPU with 80GB of RAM and 24GB of VRAM. When I run the Llama 3 70B model and ask it a question, it initially loads on the GPU, but after 5-10 seconds, it shifts entirely to the CPU. This causes the response time to be slow. Please provide me with a solution for this. Thank you in advance.
    Note:- GPU load is 6-12 % and CPU load is 70% .

  • @YashDeveloper-rq2yc
    @YashDeveloper-rq2yc 10 หลายเดือนก่อน

    Bro using these techniques can I convert it as superb ai assistant? And what capabilities can use?

  • @krishnaprasadsheshadri6206
    @krishnaprasadsheshadri6206 10 หลายเดือนก่อน

    Can we get a video about reading tables using unstructured and such frameworks

  • @sawankumar2088
    @sawankumar2088 5 หลายเดือนก่อน

    Can we just download and use or do we require any meta-ai api key as well?

  • @ranemghalion581
    @ranemghalion581 6 หลายเดือนก่อน

    thankyou

  • @kavitajakkali5030
    @kavitajakkali5030 3 หลายเดือนก่อน

    I Installed ollama in my local system but getting responses is taking very long time what can i do for that one ?

  • @NeelamDevi-z6e
    @NeelamDevi-z6e 10 หลายเดือนก่อน

    Great content Krish...Need these coding files kindly share those

  • @nagasudha6928
    @nagasudha6928 10 หลายเดือนก่อน

    Hi Krish This is Sudha from ISRO Hyderabad, I would like to know the documents to be provided for ollama and get the answers from it

  • @kashishvarshney2225
    @kashishvarshney2225 10 หลายเดือนก่อน

    hello sir, what is the minimum system configuration for ollama

  • @AjayYadav-xi9sj
    @AjayYadav-xi9sj 10 หลายเดือนก่อน

    Make a video on Python framework of ollama. Make a end to end project and also host it somewhere where real people can use it

  • @starkgaming1425
    @starkgaming1425 9 หลายเดือนก่อน

    Please release a step by step guide on how to fine tune Gemini API in Python.....I tried by refering to documents but encountered a lot of errors with OAuth Setup please...........!!!

  • @pssab8
    @pssab8 9 หลายเดือนก่อน

    Excellent videos. I set up mistral model locally on ubuntu20.04 and found that it is taking more than a minute for every response .Running in cpu mode only.Can you suggest me to improve the performance.

    • @amazingedits9298
      @amazingedits9298 9 หลายเดือนก่อน

      This models are running on your computer hardware.So it requires a good hardware like gpu or something for creating quicker responses

  • @susnatakanjilal703
    @susnatakanjilal703 10 หลายเดือนก่อน

    Sir I need to create a custom text data set from common crawl.for Bengali language....and train llama2 using that...can you plz demonstrate similar project!?

  • @ashishdayal172
    @ashishdayal172 8 หลายเดือนก่อน

    hii krish, i am facing error creating modelfile .Please help

  • @sanjaynt7434
    @sanjaynt7434 10 หลายเดือนก่อน

    Can this read a document and answer my questions on that document can it.

  • @copilotcoder
    @copilotcoder 10 หลายเดือนก่อน

    Sir please create a codebase understanding model using ollama and test it on a opensource codebase

  • @parthwagh3607
    @parthwagh3607 6 หลายเดือนก่อน

    Thank you so much krish. I am having problem running models downloaded from hugging face having safetensor file. I have these files in oobabooga/text-generation-webui. I have to use this for ollama. I followed everything, even created modelfile with path to safetensor directory, but it is not running >> ollama create model_name -f modelfile. Please help me.

  • @hassanahmad1483
    @hassanahmad1483 8 หลายเดือนก่อน

    How to deploy these custom gpts...?

  • @rajarshidey424
    @rajarshidey424 8 หลายเดือนก่อน

    How can we get the code?

  • @manasjohri2495
    @manasjohri2495 10 หลายเดือนก่อน

    Can you please tell me how we can run this ollama on GPU right now it is working on CPU?

  • @mohammedalfarsi4361
    @mohammedalfarsi4361 10 หลายเดือนก่อน

    are these model support arabic language ?

  • @rishiraj2548
    @rishiraj2548 10 หลายเดือนก่อน

    🙏💯👍

  • @VishalKumar-gv6gy
    @VishalKumar-gv6gy 8 หลายเดือนก่อน

    Does it require GPU ?

  • @naveenkumarmaurya3182
    @naveenkumarmaurya3182 10 หลายเดือนก่อน

    hi krsih i m getting this error
    Ollama run codella! 🐰💨
    (Note: I'm just an AI, I don't have personal preferences or the ability to run code, but I can certainly help you
    with any questions or tasks you may have!)

  • @YashDeveloper-rq2yc
    @YashDeveloper-rq2yc 10 หลายเดือนก่อน

    After installing it will work in offline?

    • @krishnaik06
      @krishnaik06  10 หลายเดือนก่อน +1

      Yes

    • @YashDeveloper-rq2yc
      @YashDeveloper-rq2yc 10 หลายเดือนก่อน

      @@krishnaik06 Thanks for sharing quality content

  • @DeadJDona
    @DeadJDona 10 หลายเดือนก่อน

    please finish that Chrome update 😢

  • @MotoEdge40-j3v
    @MotoEdge40-j3v 10 หลายเดือนก่อน +1

    Every time we see a kid we ask him to say a poem and when you have so many llm models but you only want a poem on machine learning

  • @Nagireddy-lw7rl
    @Nagireddy-lw7rl 6 หลายเดือนก่อน

    Hi Krish sir I have need ollama chatbot python code provide me. I check with your Github.

  • @jatinchawla1680
    @jatinchawla1680 9 หลายเดือนก่อน

    llm=ollama(base_url='localhost:11434',model="llama 2")
    TypeError: 'module' object is not callable
    Can someone pls help w this?