Local RAG LLM with Ollama

แชร์
ฝัง
  • เผยแพร่เมื่อ 21 ต.ค. 2024

ความคิดเห็น • 6

  • @oswaldogarcia7327
    @oswaldogarcia7327 หลายเดือนก่อน

    Great stuff! I have recently tried one with OpenAi. I love your content!

  • @nicdeen7482
    @nicdeen7482 6 หลายเดือนก่อน +1

    this was very helpful, ty so much!

  • @alfonsor.6722
    @alfonsor.6722 6 หลายเดือนก่อน +1

    Hi, very interesting video. Can you share the code used (github, notebook, etc.)? Thanks.!

    • @apm
      @apm  6 หลายเดือนก่อน

      Sure, it is all available here with a Jupyter Notebook and a link to open the Notebook on Google Colab: apmonitor.com/dde/index.php/Main/RAGLargeLanguageModel

  • @mohamedkeddache4202
    @mohamedkeddache4202 6 หลายเดือนก่อน +1

    how can i do to stream the response like chatGPT ?

    • @apm
      @apm  6 หลายเดือนก่อน

      Set `stream=True`. Here is example code: github.com/ollama/ollama-python