零代码创建本地知识库,与任意文档本地对话;一站式本地大模型+RAG工具,数据不泄露!

แชร์
ฝัง
  • เผยแพร่เมื่อ 23 ก.ย. 2024

ความคิดเห็น • 45

  • @linbintalk
    @linbintalk  3 หลายเดือนก่อน

    🙏🏻如果内容对你有帮助,拜托给我的视频点个赞!
    【问题咨询&免费领取AI资料】微信:ailinplus
    【我的AI课程】《ChatGPT实战指南》已开放,报名地址 🔽
    【国际版地址】ailinplus-s-school.teachable.com/p/chatgpt
    【国内版地址】m.qlchat.com/wechat/page/channel-intro?channelId=2000020101980117
    【承接GPTs定制】linbintalk.com/GPTs-4ab54f0aca0d4e6faa9b061c04979f89
    【我的博客】linbintalk.com(每天更新ChatGPT&AI最新消息)
    【免费AI资料】含:200+AI行业文档(每月更新)、吴恩达全套AI课程中文翻译版、100+AI视频剪辑素材;
    【点个赞呗】视频创作不易,如果你喜欢我的视频,请点赞+订阅;你的支持,是我前进的不竭动力!
    【每周更新视频】分享AI实战与落地的知识,高效探索ChatGPT的使用方法、技巧与行业应用场景,带你实战解锁人工智能、AI Agent的商业价值,让AI成为你手中真正的生产力!
    【订阅频道链接】th-cam.com/channels/XYvWkR9LAOsOZjYhghDiXw.htmlfeatured

    • @王王-r1z
      @王王-r1z 3 หลายเดือนก่อน

      学长,可以多讲讲关于dify和coze的课程吗?

  • @origeniuslaw3288
    @origeniuslaw3288 3 หลายเดือนก่อน +6

    类似这样的我试过很多了,基本没法用,即便是直接用Claude opus网页版,上传一个并不是那么长的文档,其回答也不是一定准确,更别说本地部署了。所以我再也没碰类似这样的项目了。再等等吧。

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน +2

      🙏🏻如果内容对你有帮助,拜托给我的视频点个赞

    • @乾淨核能
      @乾淨核能 3 หลายเดือนก่อน +1

      請問您試用過的工具,哪一個最好?感謝 最低硬體需求?大概希望可以十秒內回覆

    • @abc10997
      @abc10997 2 หลายเดือนก่อน

      請問目前來說 你用過最好的本地Ai是哪一個?

    • @Quetalocatl
      @Quetalocatl หลายเดือนก่อน +1

      RAG的提示詞和ranking 都很關鍵,不是隨便填都可以,暫時只有gpt4o最簡單,本地模型的效果都很差,經常問非所答,應該要做一些微調才可以。

  • @yoongsinjie2034
    @yoongsinjie2034 3 หลายเดือนก่อน +1

    请问,如果我要想 Chat RTX 直接读 system path 的 folder 里面的全部档案,是否能办到,
    因为 Chat RTX的需要内建太苛刻了。
    如果有的话,希望您可以介绍一下

  • @亮歌
    @亮歌 3 หลายเดือนก่อน

    先赞后看❤

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      🙏🏻如果内容对你有帮助,拜托给我的视频点个赞

    • @亮歌
      @亮歌 3 หลายเดือนก่อน

      先赞后看啊学长,必然是点赞完了😂

  • @atwoodwoo
    @atwoodwoo หลายเดือนก่อน

    qwen2 在Obsidian copilot 和 anythingLLM 中对同一个问题给出的答案不同,为什么?qwen2 是用 Ollama 部署在本地的。

    • @atwoodwoo
      @atwoodwoo หลายเดือนก่อน

      我的测试题目是:《春江花月夜》全文。qwen2 在Obsidian copilot 的回答完整无误。anythingLLM 中的回答就凌乱不堪,成了唐诗串烧。两者都是调用 Ollama 部署的 qwen2:7b 模型。

    • @linbintalk
      @linbintalk  หลายเดือนก่อน

      RAG的问题

  • @liuYun-mj2uu
    @liuYun-mj2uu 3 หลายเดือนก่อน

    要是电脑性能不够怎么办,学长能不能出个教用线上云端GPU/CPU来进行运行的教程

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      我留意一下

  • @howhow777
    @howhow777 3 หลายเดือนก่อน

    請問醫學領域的幻燈片(Slides)具有多種曲線與文字的純點陣圖內容,此軟體的切分向量資料庫與最終檢索結果質量夠好嗎? (所謂好,是能知道圖表的意義並且能交叉分析,並指出citation位置)

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน +1

      多模态这个项目效果不好,可以替换其他同类型的软件处理

  • @DiamondArtisan1
    @DiamondArtisan1 3 หลายเดือนก่อน +1

    500万字的小说能上传到向量数据库吗?并能让模型正确理解

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน +1

      能,但是实际使用上影响的因素很多

  • @iithades
    @iithades 3 หลายเดือนก่อน +1

    和ollama哪个好呢

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      没可比性,不是一个类型的产品。这个用了ollama作为基础设施,再此基础上叠加知识库的功能

  • @kl1797
    @kl1797 3 หลายเดือนก่อน

    ollma在本地已经安装成功了,大模型也在终端安装成功了,但是在Anything LLM中无法自动生成Ollama Base URL,也没有显示已经安装的大模型,请问URL在哪查找

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      url就是ollama生成的api地址,一般是默认的

  • @moutonyang5652
    @moutonyang5652 3 หลายเดือนก่อน

    谢谢学长,本地知识库文件有大小限值吗?和数量限值

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      没有

  • @longhu4051
    @longhu4051 3 หลายเดือนก่อน

    请问这个和dify对比怎么样?

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      这个适用本地模型+知识库。dify是开发平台,定位不太一样

  • @chaochen6492
    @chaochen6492 3 หลายเดือนก่อน

    多模态的支持一般,不少文件解析不了。刚出来就测试了

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      嗯,毕竟本地的、能力没那么强。不然闭源模型都没法玩了,视频最后有一些提高效果的建议

  • @杨明龙-z1n
    @杨明龙-z1n หลายเดือนก่อน

    安装了打不开 是要安装到C盘嘛?

    • @linbintalk
      @linbintalk  หลายเดือนก่อน

      不用

  • @AC-pw7rl
    @AC-pw7rl 3 หลายเดือนก่อน

    那請問是否模型還會有道德限制?還是就可以隨心所欲了XD

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน +1

      不管开源闭源都有道德安全标准的

    • @AC-pw7rl
      @AC-pw7rl 3 หลายเดือนก่อน

      @@linbintalk 謝謝小林學長😭

  • @htslong
    @htslong 3 หลายเดือนก่อน

    对本地电脑有什么要求吗

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน +1

      看部署多大的模型,比如我是40系列GPU+16G 显存,跑百亿以内的没问题。

  • @CkBj-cl9lf
    @CkBj-cl9lf 3 หลายเดือนก่อน

    对电脑什么要求

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      看你部署多大的模型、正常来说有个20系列的显卡就能玩

  • @ryandev-kb6sw
    @ryandev-kb6sw 2 หลายเดือนก่อน +1

    希望可以精簡一些, 沒有用的信息實在太多,感覺在堆砌時間

    • @linbintalk
      @linbintalk  2 หลายเดือนก่อน

      受众水平不一,众口难调。作为UP来说,没必要把堆砌时间作为目标,因为没好处。

  • @joshwong5350
    @joshwong5350 3 หลายเดือนก่อน

    这个能连去微信吗?

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน +1

      技术上能实现

  • @leesc311
    @leesc311 3 หลายเดือนก่อน +1

    跑不動

    • @linbintalk
      @linbintalk  3 หลายเดือนก่อน

      和硬件配置有关系,可以换小点的模型