ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
TH-cam会员:th-cam.com/channels/PpdGTNbIKdiWgxCrbka4Zw.htmljoin知识星球:t.zsxq.com/19IaNz5wKPatreon:www.patreon.com/newtype_ai订阅ChatGPT、Claude,用Wildcard,支付和海外短信都有。我个人一直在用。用这个链接注册,请我喝杯瑞幸:bewildcard.com/i/Z42NWXNL
我个人是觉得,除非是对数据私密性要求比较高,或者单纯就是喜欢折腾,否则现阶段真的没啥必要在开源模型上浪费时间,毕竟Deepseek V3 600多B的模型效果也就那么回事,7B以下的模型不能有好效果,也就能胜任一些简单的翻译类工作。实用性角度考虑,不如直接买零一万物的API,1块钱1百万的token。
确实!本地大模型就是一个玩具,还是那种只玩儿一、二次就束之高阁的。
不能再同意了 本地除非裝雙卡 不然這些都是浪費時間
的確,重點是應用跟解決問題,不要花心思在追模型
你说得没错,但不如直接购买20美金的ChatGPT。100万的token也不够做专业工作,写一段程序纠正几次修改几次就没了。
@@elijahmalik9365 写程序的话我现在更喜欢用免费的Gemini-Exp-1206,当然目前最好的依然是Claude 3.5, 就是有点太贵用不起。
M4 Mac mini就是一台消费级AI终端该有的样子。功耗和性能平衡得很好。如果要高性能的话,我公司有一台4090的PC,另外准备去日本买台M4 Max的MBP。现在这台mini其实承担了日常一半以上的工作。
日本买便宜吗?
@@znsoftm 只是正好要去日本旅游,就顺便买了。
用dify去接ollama啊,還能結合workflow搞自動化
Sam: tmd 我投資了一百億AI 中心, 你叫人自已host?
老师,Ollama是直接下载安装就可以了吗?我有个闲置M2的 MINI想试试
跑视觉模型怎么样?不知道对视觉模型加速什么情况
博主 m4能跑whisper本地模型吗 效果怎么样
想請問下現時運行OLLAMA 在mac mini是cp值最高的嗎?還是有其他軟件代替呢?
请问一下,视频中这个版本的ai 与、豆包 比的话,大概是怎么一个优劣?
什么是大模型
请问M4旁边的扩展坞是什么品牌的那个型号?谢谢
制糖工厂的桌面充电站,不是Mac扩展坞
@@huanyihe777 谢谢
这段时间,思维链模型成了刚需。只能用gpt o1了
最近尝试了lm studio跑mlx的model,速度直接翻倍,有没有考虑用lm studio的local server?
果然还是需要看完视频再发评论啊🫠,终究还是一个取舍的问题
希望Ollama也能尽快支持MLX
@ 🤞
黄老师,请问不可抗拒的因素是什么呢😂,是敏感词吗,🤔
比如Claude封号。ChatGPT经常会因为VPN的问题不让用。这些都很烦
ollama下了llama3.2-vision還可以有很不錯的視覺能力,UI部分用open webui 架一套打全平台 。一個可視覺化可語音可搜尋可RAG的方案就在你眼前了。
那个11B版本,需要至少8G显存,MAC mini能带的动?
@@kenl4816 m4 最低是16g ram 内存显存公用
@@kenl4816 跑的动,有点慢
黄老师,我发现一款参数很好看的mini pc: FEVM fn60g.正在纠结要买它部署模型,还是mac mini.fn60g 满配i913900T, rtx4090_12g显存,96g缓存,8t硬盘。能不能麻烦您给点建议呢?虽然根据您的视频《本地跑大模型,需要什么配置》两者都是足够强的)
4090是比Mac mini强的,但是功耗肯定也高。我建议是先有一台高性能的机子,再考虑像Mac mini这种拿来长时间挂机、处理轻量级需求的机子。
@@huanyihe777 懂了,入手4090. 谢谢老师!
@@Vcsoundengineer现在入手5090 现在4090都是尾货 价格高
@@paipaiwei9602 5090商家不给配呀
没用过mac,但好奇 mac mini 怎样适配其他 第三方的hardware,比如dell display, mouse 等等。。。因为mac 的display 很贵😂
显示器直接用就可以。键鼠我都用罗技的,鼠标MX Master公认最强
國行版為什麼是閹割的?請教一下😊
Apple Intelligence,不能接ChatGPT等国外的AI,只能用国产
ollama 是支持 open AI API 的。用这个 API 来接入app 最方便
直接上pro,应该能再快50%
但价格不只高50%
不會,因為我就是滿血m4 pro+64GB記憶體跑32b的千問也只有6 token
我买的是32g内存 ssd可以升级的 内存升级不了
之前看到评测,这代mini的内存接口不是特殊的。也许之后可以升级。等第三方厂商了
@ 那个是ssd也就是说硬盘可以换 不是内存哦
同款电视柜啊啊!
宜家的
@ 是滴!我也是半个月前跑了一下千问,可玩性非常高,基础性问题完全没问题!
我想要个128G unified ram但只要512G SSD的😂
第一次见科技博主因为魔法闹心...
Claude封号基本是不可避免的
claude一直用,为何从来没有听过封号一说?因为没有开会员?
因為中國要抽你17%的稅
我买下来国行是8299, 不过我是m4 pro芯片, 其他配置和你一样.
没什么不可抗的,折腾一下,美国人,台湾人能用的,咱也能,当然会麻烦一点
Claude封号基本就不可抗
教育优惠6749
阉割了Apple Intelligence。Mac和iPhone我都不会再买国行了。
@@huanyihe777 国行Mac开Apple intelligence比较容易,能用上国补还划算的。其实Phone也能开,不过iPhone阉割的东西太多了以后再换机我也不买国行了。
@@ConanIsNotKid 主要是,我不想花钱支持这种行为。钱就是选票。他们会觉得这样是可以的。
TH-cam会员:th-cam.com/channels/PpdGTNbIKdiWgxCrbka4Zw.htmljoin
知识星球:t.zsxq.com/19IaNz5wK
Patreon:www.patreon.com/newtype_ai
订阅ChatGPT、Claude,用Wildcard,支付和海外短信都有。我个人一直在用。用这个链接注册,请我喝杯瑞幸:bewildcard.com/i/Z42NWXNL
我个人是觉得,除非是对数据私密性要求比较高,或者单纯就是喜欢折腾,否则现阶段真的没啥必要在开源模型上浪费时间,毕竟Deepseek V3 600多B的模型效果也就那么回事,7B以下的模型不能有好效果,也就能胜任一些简单的翻译类工作。实用性角度考虑,不如直接买零一万物的API,1块钱1百万的token。
确实!本地大模型就是一个玩具,还是那种只玩儿一、二次就束之高阁的。
不能再同意了 本地除非裝雙卡 不然這些都是浪費時間
的確,重點是應用跟解決問題,不要花心思在追模型
你说得没错,但不如直接购买20美金的ChatGPT。100万的token也不够做专业工作,写一段程序纠正几次修改几次就没了。
@@elijahmalik9365 写程序的话我现在更喜欢用免费的Gemini-Exp-1206,当然目前最好的依然是Claude 3.5, 就是有点太贵用不起。
M4 Mac mini就是一台消费级AI终端该有的样子。功耗和性能平衡得很好。如果要高性能的话,我公司有一台4090的PC,另外准备去日本买台M4 Max的MBP。现在这台mini其实承担了日常一半以上的工作。
日本买便宜吗?
@@znsoftm 只是正好要去日本旅游,就顺便买了。
用dify去接ollama啊,還能結合workflow搞自動化
Sam: tmd 我投資了一百億AI 中心, 你叫人自已host?
老师,Ollama是直接下载安装就可以了吗?我有个闲置M2的 MINI想试试
跑视觉模型怎么样?不知道对视觉模型加速什么情况
博主 m4能跑whisper本地模型吗 效果怎么样
想請問下現時運行OLLAMA 在mac mini是cp值最高的嗎?還是有其他軟件代替呢?
请问一下,视频中这个版本的ai 与、豆包 比的话,大概是怎么一个优劣?
什么是大模型
请问M4旁边的扩展坞是什么品牌的那个型号?谢谢
制糖工厂的桌面充电站,不是Mac扩展坞
@@huanyihe777 谢谢
这段时间,思维链模型成了刚需。只能用gpt o1了
最近尝试了lm studio跑mlx的model,速度直接翻倍,有没有考虑用lm studio的local server?
果然还是需要看完视频再发评论啊🫠,终究还是一个取舍的问题
希望Ollama也能尽快支持MLX
@ 🤞
黄老师,请问不可抗拒的因素是什么呢😂,是敏感词吗,🤔
比如Claude封号。ChatGPT经常会因为VPN的问题不让用。这些都很烦
ollama下了llama3.2-vision還可以有很不錯的視覺能力,UI部分用open webui 架一套打全平台 。一個可視覺化可語音可搜尋可RAG的方案就在你眼前了。
那个11B版本,需要至少8G显存,MAC mini能带的动?
@@kenl4816 m4 最低是16g ram 内存显存公用
@@kenl4816 跑的动,有点慢
黄老师,我发现一款参数很好看的mini pc: FEVM fn60g.
正在纠结要买它部署模型,还是mac mini.
fn60g 满配i913900T, rtx4090_12g显存,96g缓存,8t硬盘。
能不能麻烦您给点建议呢?虽然根据您的视频《本地跑大模型,需要什么配置》两者都是足够强的)
4090是比Mac mini强的,但是功耗肯定也高。我建议是先有一台高性能的机子,再考虑像Mac mini这种拿来长时间挂机、处理轻量级需求的机子。
@@huanyihe777 懂了,入手4090. 谢谢老师!
@@Vcsoundengineer现在入手5090 现在4090都是尾货 价格高
@@paipaiwei9602 5090商家不给配呀
没用过mac,但好奇 mac mini 怎样适配其他 第三方的hardware,比如dell display, mouse 等等。。。因为mac 的display 很贵😂
显示器直接用就可以。键鼠我都用罗技的,鼠标MX Master公认最强
國行版為什麼是閹割的?請教一下😊
Apple Intelligence,不能接ChatGPT等国外的AI,只能用国产
ollama 是支持 open AI API 的。用这个 API 来接入app 最方便
直接上pro,应该能再快50%
但价格不只高50%
不會,因為我就是滿血m4 pro+64GB記憶體
跑32b的千問也只有6 token
我买的是32g内存 ssd可以升级的 内存升级不了
之前看到评测,这代mini的内存接口不是特殊的。也许之后可以升级。等第三方厂商了
@ 那个是ssd也就是说硬盘可以换 不是内存哦
同款电视柜啊啊!
宜家的
@ 是滴!我也是半个月前跑了一下千问,可玩性非常高,基础性问题完全没问题!
我想要个128G unified ram但只要512G SSD的😂
第一次见科技博主因为魔法闹心...
Claude封号基本是不可避免的
claude一直用,为何从来没有听过封号一说?因为没有开会员?
因為中國要抽你17%的稅
我买下来国行是8299, 不过我是m4 pro芯片, 其他配置和你一样.
没什么不可抗的,折腾一下,美国人,台湾人能用的,咱也能,当然会麻烦一点
Claude封号基本就不可抗
教育优惠6749
阉割了Apple Intelligence。Mac和iPhone我都不会再买国行了。
@@huanyihe777 国行Mac开Apple intelligence比较容易,能用上国补还划算的。其实Phone也能开,不过iPhone阉割的东西太多了以后再换机我也不买国行了。
@@ConanIsNotKid 主要是,我不想花钱支持这种行为。钱就是选票。他们会觉得这样是可以的。