ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
🙏🏻如果内容对你有帮助,拜托给我的视频点个赞!【问题咨询&免费领取AI资料】微信:ailinplus【我的AI课程】《ChatGPT实战指南》已开放,报名地址 🔽【国际版地址】ailinplus-s-school.teachable.com/p/chatgpt【国内版地址】m.qlchat.com/wechat/page/channel-intro?channelId=2000020101980117【承接GPTs定制】linbintalk.com/GPTs-4ab54f0aca0d4e6faa9b061c04979f89【我的博客】linbintalk.com(每天更新ChatGPT&AI最新消息)【免费AI资料】含:200+AI行业文档(每月更新)、吴恩达全套AI课程中文翻译版、100+AI视频剪辑素材;【点个赞呗】视频创作不易,如果你喜欢我的视频,请点赞+订阅;你的支持,是我前进的不竭动力!【每周更新视频】分享AI实战与落地的知识,高效探索ChatGPT的使用方法、技巧与行业应用场景,带你实战解锁人工智能、AI Agent的商业价值,让AI成为你手中真正的生产力!【订阅频道链接】th-cam.com/channels/XYvWkR9LAOsOZjYhghDiXw.htmlfeatured
学长,可以多讲讲关于dify和coze的课程吗?
请问,如果我要想 Chat RTX 直接读 system path 的 folder 里面的全部档案,是否能办到,因为 Chat RTX的需要内建太苛刻了。如果有的话,希望您可以介绍一下
类似这样的我试过很多了,基本没法用,即便是直接用Claude opus网页版,上传一个并不是那么长的文档,其回答也不是一定准确,更别说本地部署了。所以我再也没碰类似这样的项目了。再等等吧。
🙏🏻如果内容对你有帮助,拜托给我的视频点个赞
請問您試用過的工具,哪一個最好?感謝 最低硬體需求?大概希望可以十秒內回覆
請問目前來說 你用過最好的本地Ai是哪一個?
RAG的提示詞和ranking 都很關鍵,不是隨便填都可以,暫時只有gpt4o最簡單,本地模型的效果都很差,經常問非所答,應該要做一些微調才可以。
qwen2 在Obsidian copilot 和 anythingLLM 中对同一个问题给出的答案不同,为什么?qwen2 是用 Ollama 部署在本地的。
我的测试题目是:《春江花月夜》全文。qwen2 在Obsidian copilot 的回答完整无误。anythingLLM 中的回答就凌乱不堪,成了唐诗串烧。两者都是调用 Ollama 部署的 qwen2:7b 模型。
RAG的问题
先赞后看❤
先赞后看啊学长,必然是点赞完了😂
請問醫學領域的幻燈片(Slides)具有多種曲線與文字的純點陣圖內容,此軟體的切分向量資料庫與最終檢索結果質量夠好嗎? (所謂好,是能知道圖表的意義並且能交叉分析,並指出citation位置)
多模态这个项目效果不好,可以替换其他同类型的软件处理
和ollama哪个好呢
没可比性,不是一个类型的产品。这个用了ollama作为基础设施,再此基础上叠加知识库的功能
500万字的小说能上传到向量数据库吗?并能让模型正确理解
能,但是实际使用上影响的因素很多
ollma在本地已经安装成功了,大模型也在终端安装成功了,但是在Anything LLM中无法自动生成Ollama Base URL,也没有显示已经安装的大模型,请问URL在哪查找
url就是ollama生成的api地址,一般是默认的
请问这个和dify对比怎么样?
这个适用本地模型+知识库。dify是开发平台,定位不太一样
要是电脑性能不够怎么办,学长能不能出个教用线上云端GPU/CPU来进行运行的教程
我留意一下
安装了打不开 是要安装到C盘嘛?
不用
谢谢学长,本地知识库文件有大小限值吗?和数量限值
没有
对电脑什么要求
看你部署多大的模型、正常来说有个20系列的显卡就能玩
对本地电脑有什么要求吗
看部署多大的模型,比如我是40系列GPU+16G 显存,跑百亿以内的没问题。
这个能连去微信吗?
技术上能实现
那請問是否模型還會有道德限制?還是就可以隨心所欲了XD
不管开源闭源都有道德安全标准的
@@linbintalk 謝謝小林學長😭
多模态的支持一般,不少文件解析不了。刚出来就测试了
嗯,毕竟本地的、能力没那么强。不然闭源模型都没法玩了,视频最后有一些提高效果的建议
希望可以精簡一些, 沒有用的信息實在太多,感覺在堆砌時間
受众水平不一,众口难调。作为UP来说,没必要把堆砌时间作为目标,因为没好处。
跑不動
和硬件配置有关系,可以换小点的模型
🙏🏻如果内容对你有帮助,拜托给我的视频点个赞!
【问题咨询&免费领取AI资料】微信:ailinplus
【我的AI课程】《ChatGPT实战指南》已开放,报名地址 🔽
【国际版地址】ailinplus-s-school.teachable.com/p/chatgpt
【国内版地址】m.qlchat.com/wechat/page/channel-intro?channelId=2000020101980117
【承接GPTs定制】linbintalk.com/GPTs-4ab54f0aca0d4e6faa9b061c04979f89
【我的博客】linbintalk.com(每天更新ChatGPT&AI最新消息)
【免费AI资料】含:200+AI行业文档(每月更新)、吴恩达全套AI课程中文翻译版、100+AI视频剪辑素材;
【点个赞呗】视频创作不易,如果你喜欢我的视频,请点赞+订阅;你的支持,是我前进的不竭动力!
【每周更新视频】分享AI实战与落地的知识,高效探索ChatGPT的使用方法、技巧与行业应用场景,带你实战解锁人工智能、AI Agent的商业价值,让AI成为你手中真正的生产力!
【订阅频道链接】th-cam.com/channels/XYvWkR9LAOsOZjYhghDiXw.htmlfeatured
学长,可以多讲讲关于dify和coze的课程吗?
请问,如果我要想 Chat RTX 直接读 system path 的 folder 里面的全部档案,是否能办到,
因为 Chat RTX的需要内建太苛刻了。
如果有的话,希望您可以介绍一下
类似这样的我试过很多了,基本没法用,即便是直接用Claude opus网页版,上传一个并不是那么长的文档,其回答也不是一定准确,更别说本地部署了。所以我再也没碰类似这样的项目了。再等等吧。
🙏🏻如果内容对你有帮助,拜托给我的视频点个赞
請問您試用過的工具,哪一個最好?感謝 最低硬體需求?大概希望可以十秒內回覆
請問目前來說 你用過最好的本地Ai是哪一個?
RAG的提示詞和ranking 都很關鍵,不是隨便填都可以,暫時只有gpt4o最簡單,本地模型的效果都很差,經常問非所答,應該要做一些微調才可以。
qwen2 在Obsidian copilot 和 anythingLLM 中对同一个问题给出的答案不同,为什么?qwen2 是用 Ollama 部署在本地的。
我的测试题目是:《春江花月夜》全文。qwen2 在Obsidian copilot 的回答完整无误。anythingLLM 中的回答就凌乱不堪,成了唐诗串烧。两者都是调用 Ollama 部署的 qwen2:7b 模型。
RAG的问题
先赞后看❤
🙏🏻如果内容对你有帮助,拜托给我的视频点个赞
先赞后看啊学长,必然是点赞完了😂
請問醫學領域的幻燈片(Slides)具有多種曲線與文字的純點陣圖內容,此軟體的切分向量資料庫與最終檢索結果質量夠好嗎? (所謂好,是能知道圖表的意義並且能交叉分析,並指出citation位置)
多模态这个项目效果不好,可以替换其他同类型的软件处理
和ollama哪个好呢
没可比性,不是一个类型的产品。这个用了ollama作为基础设施,再此基础上叠加知识库的功能
500万字的小说能上传到向量数据库吗?并能让模型正确理解
能,但是实际使用上影响的因素很多
ollma在本地已经安装成功了,大模型也在终端安装成功了,但是在Anything LLM中无法自动生成Ollama Base URL,也没有显示已经安装的大模型,请问URL在哪查找
url就是ollama生成的api地址,一般是默认的
请问这个和dify对比怎么样?
这个适用本地模型+知识库。dify是开发平台,定位不太一样
要是电脑性能不够怎么办,学长能不能出个教用线上云端GPU/CPU来进行运行的教程
我留意一下
安装了打不开 是要安装到C盘嘛?
不用
谢谢学长,本地知识库文件有大小限值吗?和数量限值
没有
对电脑什么要求
看你部署多大的模型、正常来说有个20系列的显卡就能玩
对本地电脑有什么要求吗
看部署多大的模型,比如我是40系列GPU+16G 显存,跑百亿以内的没问题。
这个能连去微信吗?
技术上能实现
那請問是否模型還會有道德限制?還是就可以隨心所欲了XD
不管开源闭源都有道德安全标准的
@@linbintalk 謝謝小林學長😭
多模态的支持一般,不少文件解析不了。刚出来就测试了
嗯,毕竟本地的、能力没那么强。不然闭源模型都没法玩了,视频最后有一些提高效果的建议
希望可以精簡一些, 沒有用的信息實在太多,感覺在堆砌時間
受众水平不一,众口难调。作为UP来说,没必要把堆砌时间作为目标,因为没好处。
跑不動
和硬件配置有关系,可以换小点的模型