End-to-End RAG With Llama 3.1, Langchain, FAISS and OLlama

แชร์
ฝัง
  • เผยแพร่เมื่อ 9 พ.ย. 2024

ความคิดเห็น • 26

  • @ShivangiJhaOfficial
    @ShivangiJhaOfficial 4 วันที่ผ่านมา

    Thank you so much for sharing your knowledge 🙏 it’s great 👍🙌

  • @iftikhar58
    @iftikhar58 19 วันที่ผ่านมา

    Thank you Sunny Savita
    I have one question that your current code is able to generate images?

  • @hamidraza1584
    @hamidraza1584 3 หลายเดือนก่อน

    Well done sunny , your videos are amazing , love from Lahore Pakistan

    • @sunnysavita10
      @sunnysavita10  3 หลายเดือนก่อน

      thankyou keep watching

  • @jasdeepmalhotra452
    @jasdeepmalhotra452 3 หลายเดือนก่อน

    Hi sunny !!. THANKS for informative video. I am using LLM on chat conversation history to find analysis of sales. please suggest some techniques.because RAG is not working if i want to do some analytics on chat history

  • @sabinachellan
    @sabinachellan 3 หลายเดือนก่อน

    Hi sunny,
    Could you please make a video on where and how do you get to know the advance rag content and how do you stay updated?

  • @sudhanshushekhar-d6c
    @sudhanshushekhar-d6c 2 หลายเดือนก่อน +1

    Sir, please make a video on Fine tuning of LLM model

  • @abdullahfarooq-x4b
    @abdullahfarooq-x4b 3 หลายเดือนก่อน

    great sunny sir

  • @sachinborgave8094
    @sachinborgave8094 3 หลายเดือนก่อน

    Nice, Sunny !!!
    Can you please create a Evaluation matrics using LLM and how we can monitor?

  • @sameerranjan8557
    @sameerranjan8557 3 หลายเดือนก่อน +1

    Hey, is there any paid course you have where you completed everything end to end in detail?

    • @mohammad-xy9ow
      @mohammad-xy9ow 3 หลายเดือนก่อน

      Kya yha end to end detail m nhi h?

    • @sameerranjan8557
      @sameerranjan8557 3 หลายเดือนก่อน

      @@mohammad-xy9ow yes it is, but I'm asking for a complete genai course

  • @srinikethanveena2752
    @srinikethanveena2752 3 หลายเดือนก่อน

    How to use this ollama in windows through collab

  • @VIKRANTKUMAR-n4t
    @VIKRANTKUMAR-n4t 25 วันที่ผ่านมา

    Sir it aries this error
    i have ollama downloded on my local
    and also llama 3.1 is running i dont know why this error is comming???
    # Invoke the model to generate responses
    response = llm.invoke("Tell me a joke")
    print(response)
    ConnectError: [Errno 111] Connection refused

    • @sunnysavita10
      @sunnysavita10  20 วันที่ผ่านมา

      not able to connect may be api check with firewall or if it is a local host run it on another port

  • @pradeepmanney6299
    @pradeepmanney6299 หลายเดือนก่อน

    Is it a fully local rag? With this our data will be safe? And secure?

    • @sunnysavita10
      @sunnysavita10  หลายเดือนก่อน

      Yes it is you can use it in your own infra

  • @sudhanshushekhar-d6c
    @sudhanshushekhar-d6c 2 หลายเดือนก่อน

    Sunny, can you make video on fine tuning of LLM

    • @sunnysavita10
      @sunnysavita10  2 หลายเดือนก่อน

      soon will create end to end series

  • @arpitcruz
    @arpitcruz 3 หลายเดือนก่อน

    Nice

  • @namanupadhye3871
    @namanupadhye3871 3 หลายเดือนก่อน

    👍

  • @Mr_Sniper5
    @Mr_Sniper5 3 หลายเดือนก่อน

    Hi sir can you make industry level project

    • @sunnysavita10
      @sunnysavita10  3 หลายเดือนก่อน

      soon will be uplaoded