如何用 Llama 3 免费本地 AI 分析数据和可视化?
ฝัง
- เผยแพร่เมื่อ 21 เม.ย. 2024
- 欢迎加入我的会员频道:
/ @wshuyi
兴趣:数据科学、人工智能、效率工具、知识管理
Substack: wangshuyi.substack.com/
Patreon: / wshuyi
Twitter: / wshuyi
Medium: / wshuyi
知识星球:t.zsxq.com/124DmsQLS
小报童服务:xiaobot.net/p/yushuzhilan
少数派专栏:sspai.com/column/245
微信公众号:玉树芝兰(nkwangshuyi) - วิทยาศาสตร์และเทคโนโลยี
推荐一个比Ollama更好用的本地部署:LM Studio
相比Ollama有什么优势呢?
studio模型切换不方便,ollama不用手动切😂
LM Studio 不是开源的,而且也一直联网,所以还是有很多人不放心
哦,还真没注意这事,它不至于把和模型的所有聊天都传回到它自己的服务器吧?要是只是做一些和加载模型相关的事,应该没问题!
就连输入法和杀毒软件,都在时刻向自己的服务器传信息!
@@albertwang5974 是的普通用户没什么好担心的。但是对数据安全敏感的人可能会在意
不過目前看到,可以用A卡加速的好像只有它,還是有其他可以用A卡加速且不連網的選擇呢?
剛剛去Ollama的網站上看,它也支援A卡,試著跑了一下,工作管理員裏面的確是有看到調用顯示卡
@@chihuahsieh7471 gpt4all
王老师,这个Open Interpreter 是什么东西,怎么回事呀?
如何用 AI 工具做数据分析与可视化?20240414千人工作坊精编
th-cam.com/video/sag_dq794vM/w-d-xo.html
8b 是不太行。有时引用数字都出错,比方说上文出现的 72323,下文写成了 72233
求问本地运行Llama 3 过得去的硬件配置?
我用的 M3 Pro ,内存小了些,你预算内可以选大一些的
suno做一期啊老师。
做了啊🤣