GraphRAG个性化参数与配置 | 基于GPT-4o实现更便宜的知识图谱RAG

แชร์
ฝัง
  • เผยแพร่เมื่อ 13 ต.ค. 2024

ความคิดเห็น • 25

  • @BoGao-zn1vq
    @BoGao-zn1vq หลายเดือนก่อน

    现在用mini跑这个例子开销很低啦

  • @dertee
    @dertee 2 หลายเดือนก่อน

    现在可以把模型设置成 4o-mini了🥳

  • @pongpong5441
    @pongpong5441 3 หลายเดือนก่อน

    先赞后看

  • @caoyuhao
    @caoyuhao 2 หลายเดือนก่อน

    我的笔记本是M1 pro芯片,但索引时,要1个多小时,而且还报错,这是什么原因

  • @唐晨曦-y2b
    @唐晨曦-y2b 3 หลายเดือนก่อน

    您好,请教一下,下面这个配置中的 base_dir指定的input 目录里面能带子目录吗?另外每个文件的大小有规定吗?谢谢
    input:
    type: file # or blob
    file_type: text # or csv
    base_dir: "input"

    • @01coder30
      @01coder30  2 หลายเดือนก่อน

      这个我倒还没试过。不妨一试

  •  หลายเดือนก่อน

    其他模型呢 ? 不是说要教配置其他模型吗?

    • @01coder30
      @01coder30  หลายเดือนก่อน

      嘿嘿,耽搁了耽搁了。抱歉

  • @yulongsu1472
    @yulongsu1472 2 หลายเดือนก่อน

    使用国内的豆包模型对一些中文说明书进行索引构建,发现构建后的效果还不如langchain chatchat,博主有什么优化手段吗?

    • @Timothy-su9fj
      @Timothy-su9fj 2 หลายเดือนก่อน

      有没有使用其他模型比如gpt时,同等条件下的测试结果?想排除下效果差不完全是豆包的原因

    • @yulongsu1472
      @yulongsu1472 2 หลายเดือนก่อน

      @@Timothy-su9fj gpt国内禁用了,没法测试,只能测试国内的模型,对比文心和豆包感觉差不多

    • @Timothy-su9fj
      @Timothy-su9fj 2 หลายเดือนก่อน

      @@yulongsu1472 现在可以搞llama3-405b了

  • @johnnysong9781
    @johnnysong9781 2 หลายเดือนก่อน

    4o-mini来的真是时候

  • @qikami
    @qikami 3 หลายเดือนก่อน

    本地模型很重要啊,成本考量~

    • @leosong-lq4dl
      @leosong-lq4dl 3 หลายเดือนก่อน +2

      我正在尝试使用4090本地算力,ollama llm和embedding。

    • @markchao4848
      @markchao4848 3 หลายเดือนก่อน

      ​@@leosong-lq4dl可以分享結果

    • @leonwu355
      @leonwu355 3 หลายเดือนก่อน

      @@leosong-lq4dlOllama embedding 好像用不了

    • @leosong-lq4dl
      @leosong-lq4dl 3 หลายเดือนก่อน

      @@leonwu355 是的,因为ollama没有支持openai风格的异步接口。
      我现在的方案是用lm studio。
      你可以用这个配置试一下
      embeddings:
      async_mode: threaded # or asyncio
      llm:
      # embeddings with lm-studio
      api_key: lm-studio
      type: openai_embedding # or azure_openai_embedding
      model: nomic-ai/nomic-embed-text-v1.5-GGUF/nomic-embed-text-v1.5.Q5_K_M.gguf
      api_base: localhost:1234/v1

    • @leosong-lq4dl
      @leosong-lq4dl 3 หลายเดือนก่อน

      @@markchao4848 我的配置是4090,语言模型推理使用ollama qwen:72b,嵌入模型推理使用lm-studio nomic-ai/nomic-embed-text-v1.5-GGUF/nomic-embed-text-v1.5.Q5_K_M.gguf。
      另外还要改造代码,qwen输出的json字符串有问题,需要用字符串处理只取{}内的内容,还要用json5容忍格式错误(比如缺失引号逗号)。代码本身读配置也会出问题,top_p的参数没有用配置文件里的,而是写死在代码里了、

  • @yiqiujia4587
    @yiqiujia4587 3 หลายเดือนก่อน +2

    嗯,模型索引用了50元,每次搜索还要花费1.7元钱。

    • @01coder30
      @01coder30  2 หลายเดือนก่อน

      不容易。太贵了。

  • @hasszhao
    @hasszhao 3 หลายเดือนก่อน

    超贵的模型,要落地进产品难。