L 2 Ollama | Run LLMs locally

แชร์
ฝัง
  • เผยแพร่เมื่อ 15 พ.ย. 2024

ความคิดเห็น • 37

  • @arnavthakur5409
    @arnavthakur5409 2 หลายเดือนก่อน

    Keep sharing such a knowledgeable content ma'am

  • @vipulsarode2722
    @vipulsarode2722 4 หลายเดือนก่อน +1

    Finally, we got LLM lectures from you. OI would like it so much if you start making in-depth LLM lectures just like you did for Computer Vision. I am excited and looking forward to them.

    • @CodeWithAarohi
      @CodeWithAarohi  4 หลายเดือนก่อน

      I'll definitely make in-depth LLM lectures. In this playlist, I will cover such topics.

  • @soravsingla8782
    @soravsingla8782 หลายเดือนก่อน

    Very nicely explained.

  • @GianmarcoGoycocheaCasas
    @GianmarcoGoycocheaCasas 4 หลายเดือนก่อน

    Great job Madam, Very informative! Ollama simplifies local LLM setup effectively.👍

  • @iamfury2k275
    @iamfury2k275 4 หลายเดือนก่อน +1

    This is really helpful !

    • @CodeWithAarohi
      @CodeWithAarohi  4 หลายเดือนก่อน

      Glad it was helpful!

  • @puneetsachdeva1345
    @puneetsachdeva1345 4 หลายเดือนก่อน

    Very useful tutorial, very good👍, one query on this, can we integrate and use both oLlama and streamlit together to get outcome from other LLM like Gemma or phi3?

  • @bitcoinboss5856
    @bitcoinboss5856 3 หลายเดือนก่อน

    great video please make more videos related to gen ai

  • @halha5678
    @halha5678 2 หลายเดือนก่อน

    thank u

  • @mohammadyahya78
    @mohammadyahya78 4 หลายเดือนก่อน

    Amazing. I hope you could also make a video how to train LLMs on custom dataset like custom PDFs and then build a prompt for it.

    • @CodeWithAarohi
      @CodeWithAarohi  4 หลายเดือนก่อน

      Sure, I will make videos on LLMs with custom datasets. In this playlist. I will cover all the topics related to Generative AI.

  • @nazaruddinnurcharis598
    @nazaruddinnurcharis598 4 หลายเดือนก่อน +1

    Hi, im resepectfull for this video, and im interested, first can i ask you for your specification laptop/desktop. Cause im interested in ai specialy in object detection and i try to build some program and build in and try to run in my laptop, the result after i try is bad, but the result of training epoch in collab is good but when im pair in my program the result is bad. Do the specifications of our device really have that influence on the performance of the program we create?

  • @396me
    @396me 4 หลายเดือนก่อน

    Please make a video on all the genAI architecture, a dedicated one each to one specific model in each, or how to build a gpt model from scratch and agents and RAG

  • @Alex2Hsrw
    @Alex2Hsrw 3 หลายเดือนก่อน

    I get following error:
    (env_langchain1) C:\Requirements_LLM\Generative_AI-main\Generative_AI-main\L-6>ollama run llama3.1:405b
    'ollama' is not recognized as an internal or external command,
    operable program or batch file.

  • @hamidraza1584
    @hamidraza1584 4 หลายเดือนก่อน +1

    Well done arohi

  • @Kishi1969
    @Kishi1969 4 หลายเดือนก่อน

    Dear Madam, I'm always facilitating many about your your TH-cam lectures, but my laptop is window 10 but I'm trying to download ollam but it can't download i don't maybe there are other thing i can do, i need your help, its really good lecture you gave us.. Looking forward to read from you.

    • @CodeWithAarohi
      @CodeWithAarohi  4 หลายเดือนก่อน

      You can email me your query at aarohisingla1987@gmail.com

    • @Kishi1969
      @Kishi1969 4 หลายเดือนก่อน

      @@CodeWithAarohi Thanks,it @CodeWithAaro,It work with German but I try in the place of German,I put Chinese or Japanese but it does work or are those languages not in geminiai?

  • @FirstNameLastName-fv4eu
    @FirstNameLastName-fv4eu 4 หลายเดือนก่อน

    why will I use this if I can go to meta orgmini and run it there ?

  • @SHIVAMKUMAR-l4f8r
    @SHIVAMKUMAR-l4f8r 2 หลายเดือนก่อน

    can we make a chatbot application using stremlit by using ollama...If possible please make a video on that part

    • @CodeWithAarohi
      @CodeWithAarohi  2 หลายเดือนก่อน

      Yes, you can do that. Check this video: th-cam.com/video/6ExFTPcJJFs/w-d-xo.html

  • @396me
    @396me 4 หลายเดือนก่อน

    I have a doubt mam, when we say run- we are already using chatgpt on our device which process on cloud services how is it different when we use models running.

    • @CodeWithAarohi
      @CodeWithAarohi  4 หลายเดือนก่อน +1

      When you use ChatGPT, it processes your requests on cloud servers. Running models on your own device means the processing happens on your device instead of the cloud. This can be faster and give you more control, but it might need more power and storage from your device.

  • @amitsingha1637
    @amitsingha1637 3 หลายเดือนก่อน

    Can you please share your PC configuration?

    • @CodeWithAarohi
      @CodeWithAarohi  3 หลายเดือนก่อน

      64GB RAM, NVidia RTX 3090 24GB

  • @velugucharan8096
    @velugucharan8096 4 หลายเดือนก่อน

    Madam can you immplement person re identification using res net in next yolo using google golab

    • @CodeWithAarohi
      @CodeWithAarohi  4 หลายเดือนก่อน

      I will sure make it after finishing my pipelined videos.

  • @surflaweb
    @surflaweb 4 หลายเดือนก่อน

    Please make a video but by using python

    • @CodeWithAarohi
      @CodeWithAarohi  4 หลายเดือนก่อน

      Sure, In this playlist, I will cover different ways to use LLMs.