AI Summarize HUGE Documents Locally! (Langchain + Ollama + Python)

แชร์
ฝัง
  • เผยแพร่เมื่อ 15 พ.ย. 2024

ความคิดเห็น •

  • @DebugVerseTutorials
    @DebugVerseTutorials  2 หลายเดือนก่อน +3

    Source code
    github.com/debugverse/debugverse-youtube/tree/main/summarize_huge_documents_kmeans

  • @mightyboessu
    @mightyboessu 15 วันที่ผ่านมา +1

    Why do you use the HuggingFaceBgeEmbeddings and not OllamaEmbeddings?

  • @srivenkateswaraswamy3403
    @srivenkateswaraswamy3403 12 วันที่ผ่านมา

    what if images of tables and equations are there in that case?

  • @meereslicht
    @meereslicht หลายเดือนก่อน

    Excellent, thank you! A very clever strategy for large documents. However, I am a little at a loss in the search of a good embedding model for texts in Spanish. I am not sure whether the BGE models are the best option for these. Can you suggest one that could be integrated seamlessly within your code?

    • @DebugVerseTutorials
      @DebugVerseTutorials  หลายเดือนก่อน +2

      Hi, for Spanish language take a look at jinaai/jina-embeddings-v2-base-es . In your code simply replace the model_name variable and everything should work.

    • @meereslicht
      @meereslicht หลายเดือนก่อน +1

      @@DebugVerseTutorials Thank you very much for your kind answer. I'll do that 😊🤗🤗

    • @igorcastilhos
      @igorcastilhos 9 วันที่ผ่านมา

      @@DebugVerseTutorials Hi, if I would to use the Ollama model, how can I know the exact name necessary to put in the model_name?