ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
我感觉未来不久老石要去AMD了
希望本期视频对你有帮助!也记得看这期,看AMD为啥敢一颗芯片卖十万:th-cam.com/video/dmCoeUI6Mdc/w-d-xo.html我和AMD苏妈(aka咱熟人)的采访:th-cam.com/video/1-Xgt7j8_S4/w-d-xo.html
看來蘇媽打通左你的科技樹!😊
视频是25帧的,看起来有点卡卡的,原理我记得影视飓风有专门出视频说过,设置成30帧就好很多。
看他那标题党就知道水平。半桶水知识,他以为25帧是电影电视帧数,就可以套用在youtube上
@@yi-vn4fz願聞其詳🤔
好棒的內容👍 GPU當然無法取代CPU了 是各司其職,就如同ASIC/FPGA不可能取代GPU/CPU一樣
前面同意,後面那我可不同意,那兩個基本上都能做出GPU CPU功能~能取代低階或特定產品,只不過通用晶片有其他優勢
3D TSV 什麼的技術,不是AMD 研發的,而是台積電備妥的製程技術,透過EDA讓AMD 選來用的,如CoWoS 也是台積電10年前研發,多年來根本無客戶採用,一直到最近的NV才火起來,台積電提供的function 大家都能來用,眾客戶都在同一條產線上生產,你客戶行的話就自己建廠了不是? 來這下單就是要照台積的function和flow對手Intel一樣能在台積電用上TSV製程
還有一點老石說錯了,3D-VCache是放在SRAM之上的 不是放在CPU內核上。SRAM占用面積大但耗電少,所以在他上面架3D-VCache。內核耗電發熱大的地方是不太可能(考慮到intel的架構似乎有在上面架其他的 故不敢確定)給架上其他耗電的東西的。
天下之勢 合久必分 分久必合。CPU跟GPU跟NPU也是如此。但這裡講的不是會全部合,而功能性上的整合或是偏重轉移。CPU商想讓其他功能及軟體圍繞著他來增加,GPU商想讓CPU專門為他(GPU)服務。NPU呢....我還不清楚......
我現在跑CNN架構的藥物發現模型,超級期待NPU可以派上用場啊!只是現在這類應用在github上幾乎都是用Cuda或是tensorflow做核心,自己用之前還要改核心代碼就心很累
巨型机虽然用的是CPU,但原理也和GPU一样,都是并行,唯一不同的是巨型机是一群CPU在总线上并行加速计算,并且通过这个总线交换协调计算,而GPU则是在一颗芯片内部实现成千上万颗小CPU,并且通过GPU内部的总线通信。所以本质上根本就是一样的,没太必要厚此薄彼的。CPU一直坚持的是提升频率,结果走到了物理尽头,所以一直提不上去很久了,所以才有多核CPU,到现在发现,其实想NVIDIA那样造成千上万个简单的小CPU难度,其实比堆叠十几个甚至几十个的大CPU要容易的多,仅此NVIDIA和Intel的GPU与CPU的斗争胜负已分。
換句話說 那不會發展幾百核心甚至幾千核心幾萬核心CPU
@@magic155555 主CPU内核实现的硬件成本太高了,现在搞100个cores的CPU, AMD就卖十几万块钱了,NVIDIA的4090只卖一万块钱,就有快两万个cores了。另外搞了那么多的CPU你怎么控制?up主没有说一个更重要的现实,那就是人类现有的软件都是基于CPU的线型执行做的,对于并行执行的软件编程支持,只搞出了可怜的几个技术,比如CPU多核对应的多线程/进程,以及利用线性代数的tensor运算来描述算法实现用顺序的算法描述来实现多运算内核的计算,除此之外,人类还没有发明或者发现更好的控制并行计算的描述语言或者编程框架。多线程/进程只能对付几十个内核,再多了,人脑都晕了(直到今天多进程的编程系统依然是人类设计软件的bug高发区),GPU的tensor运算,利用编译器和调度器机制把计算graph分配到成千上万的GPU里面的小cpu上,这样就实现了自然而然的并行计算。对于并行计算,由于有deep learning的工程实践进步的太快了,而在理论基础上,其实和几十年前差不多,根本没啥进步。所以大家把这叫作炼丹,OpenAI自己也承认chatGPT是他们的一次豪赌,在打开花了几十亿成本的炼丹炉以前,心里也是没底的,虽然scaling law一次一次的被证明是对的,但人类就像火鸡一样,不能保证这次天亮的早晨是一个给食物的早晨还是复活节的早晨,虽然一直都是天一亮,主人就给食物吃。
AMD的高效缓存技术很关键,很重要。
同意CPU不会被完全取代。但许多workloads(包括视频中提到的天气预报等)已经有越来越多的deep learning 成份,这就可能导致CPU在总计算里面的份额进一步降低
我认为 不会,就像当初GPU出来一样,今天你DIY一台电脑,虽然GPU预算占大头,但一台电脑的速度最张还是CPU决定的,只有在游戏和AI等特定应用时GPU才发挥作用,然后CPU特别是CPU的单核性能贯穿整个工作过程,它的性能高低决定了整体的速度
11:15 "无纳米" 字幕错了
hi 老石,很喜欢你最近share关于amd的视频!是不是考虑来amd了?😁
老石能聊聊量子计算的最新发展吗?
我想知道用adobe illustrator。主要做平面复杂线条的扁平插画用什么CPU好?
3D V Cache 目前來說也就TSMC能做,台積電除了製程獨霸天下,CoWos封裝技術也是。
是嗎。華為的HBM. 也解決垂直堆疊問題
@@changszuchin856 等東西做出來再說吧,中國的PPT能力那可是遙遙領先。
@@changszuchin856嘴砲一堆,沒產品
@@changszuchin856遙遙領先😅
以前的CPU專指INTEL X86,AMD曾經遠古時代有段時間還被質疑是不是,因為相容太差。現在ARM跟RISC一堆,大概這名詞就越來越模糊
CPU GPU 兩者相輔相成 ,沒有誰要取代誰,繼續卷,科技真的太有趣。
有没有发现,CPU某些设计越来越向GPU方向靠拢,而GPU的每颗小核的算力也达到了多年前CPU的算力。我觉得CPU和GPU最终将会被AI整合到一起,而现在的APU就是未来终极芯片的雏形。
GPU不能进行通用计算,CPU是通用计算单元。😂
@@朝辉-w6g 搞不好以后就可以了😎😎
想太多,會把兩個搞混代表你連指令集是什麼都不知道,gpu 要實現x86的指令集要專門電路,而那時就會成為超多核的cpu ,能耗就爆炸,因此只能各玩各的,這是兩種不同計算形式。
但是你的apu 的想法是對的,讓gpu 集成部分cpu ,以達到加速是可行的,類似soc 的作法。
@@陳彥碩-r6s 你可以把以后的芯片想象成现在的电脑主机,这样是不是就好理解了?😎😎
怎麼感覺像是軟廣,不排斥廣告,但把廣告混在一般影片裡就有點拉低格調了
N卡很貴但是有十多年CUDA軟件.AMD才搞ROCM沒幾年
干货满满
要重写软件,成本太大。而且并行性能不太好的计算,比如有限元只能用GPU加加速,中流砥柱还是CPU。
CPU是剛需+1(( 在VFX產業打雜的低端碼農飄過
话说,为啥要买呢?能不能租服务器啊?
老石,好像你的视频帧率有问题,不到25fps。
CPU通用性强多的多,可以用开发编程工具太多了,从高级语言,与低级语言都有,gpu目前来说也是CUDA工具,还是闭源的非通用化工具,而且非英伟达卡不能用,完全不能同日而语。
厉害👍
还请讲讲英特尔该如何翻身
英特尔还没到需要翻身的地步把。人家也没跌落十八层地狱,何须翻身。只是英特尔的CPU没站在时代的风口上而已。我们那些个人电脑用CPU基本都是用英特尔的。你有听说谁的个人电脑用不要CPU就安装GPU就能运行的吗?
@@中国农民工-c5c 建议了解一下datacenter端各个大厂自研的arm cpu以及客户端的windows on arm
nvidia 也做cpu了 要包圆数据中心
AMD 的软广么… 工作中用到 AMD CPU,烦死了,datasheet 写得很糟糕
伺服器領域amd本來就有絕對優勢 不說amd說誰
@@OwO-meow-UwU 。。。。。。你说反了吧
老師好帥!
蘇媽fighting!!!
为什么科学计算,比如CFD,或者EDA,就不能使用大量的GPU来大幅加速计算?是因为这些软件是以前写的?能不能用CUDA或者ROCm改写这些软件的部分计算密集的部分呢?
已经在做了,如分子模拟、量子化学计算等领域主流软件,大多增加了GPU加速功能,把矩阵运算等计算密集部分挪到GPU上执行。
不是,這跟數據模型與硬體指令等都有關,GPU的""浮點運算硬體""規模太小,無法實現一些複雜運算。而科學運算只能""雙精度浮點運算"",再加上,許多數學模型並非單純SIMD,有許多是MIMD複雜數據模型,很難每個都去套GPU,所以拿CPU來算比較簡單。如果CPU能力夠,實際上可以捨棄GPU,網路上有人只用""純CPU渲染""玩遊戲(極客灣 YT頻道)。
@@mikejacken8986 以前只尝试过使用numpy来优化一些矩阵计算,相比传统的CPU计算,比如使用Java/C#的数组,已经可以提升数十倍甚至百倍的性能,但这仍然只是CPU内部的指令集(AVX等),没有尝试过使用GPU来改写,相信应该会有另一个数量级的提升
@@許明陽 我觉得应该可以通过CUDA或者ROCm这种SDK来改写(模拟)CPU的所谓复杂计算
CPU=能力值平均,GPU=繪圖能力突出
人类科技树其实hei复杂😂
不是hei,是hin
09年吴恩达就用GPU编程解决神经网络和图片识别问题,为啥三年后的12年Alexnet才火呢?
因为数据量,还有网络架构不同另外当时可以work、解决梯度消失问题的深度神经网络是Deep Belief Network,他在训练前要做逐层预训练,还比较麻烦。alexNet就很简洁了,比起以前的卷积神经网络来说,只加深了层数和更换了激活函数为relu,外加一些Normalization和dropout的技巧。alexnet用更简洁有效的方法解决了训练网络层数增加后梯度消失的问题。
老石要变成AMD粉丝了 🤭
金主爸爸呗,很正常,只有这样,才会吸引其他金主爸爸。
老石好帥!
声音太小了。。我把声音调到最大,然后突然跳出来广告,吓一跳🥲
你的观看设备音源有问题要换了!我这听的可正常、没你说的问题。
没有问题啊,你的电脑有问题吧
本人很期待以后PC多架构组成(x86.GPU.RISCV.NPU)只为打游戏呵呵😄☺
服务器CPU AMD epyc 确实很牛,但是GPU 确实不如老黄的N卡,主要是软件生态落后
讲讲英特尔神经形态计算机Hala Point
恰飯,超明顯
关注点有点歪,看到了苏妈的大钻戒,靴靴💔
華人驕傲!
hin 复杂
那女的手上的戒指真大,超大钻戒。有钱人。!
老石还在中科院吗?还是出来专注做自媒体了?
不可能专门做自媒体的。
SEI PU
別再amd了,youtube演算法,我不想買amd卡,那東西對ai來說很不方便
人家推荐人家的,你爱买啥买啥,皆大欢喜。
再等一兩年。美系的開源AI語言已經定案。補程式庫很快的
我感觉未来不久老石要去AMD了
希望本期视频对你有帮助!也记得看这期,看AMD为啥敢一颗芯片卖十万:th-cam.com/video/dmCoeUI6Mdc/w-d-xo.html
我和AMD苏妈(aka咱熟人)的采访:th-cam.com/video/1-Xgt7j8_S4/w-d-xo.html
看來蘇媽打通左你的科技樹!😊
视频是25帧的,看起来有点卡卡的,原理我记得影视飓风有专门出视频说过,设置成30帧就好很多。
看他那标题党就知道水平。半桶水知识,他以为25帧是电影电视帧数,就可以套用在youtube上
@@yi-vn4fz願聞其詳🤔
好棒的內容👍 GPU當然無法取代CPU了 是各司其職,就如同ASIC/FPGA不可能取代GPU/CPU一樣
前面同意,後面那我可不同意,那兩個基本上都能做出GPU CPU功能~能取代低階或特定產品,只不過通用晶片有其他優勢
3D TSV 什麼的技術,不是AMD 研發的,而是台積電備妥的製程技術,透過EDA讓AMD 選來用的,
如CoWoS 也是台積電10年前研發,多年來根本無客戶採用,一直到最近的NV才火起來,
台積電提供的function 大家都能來用,眾客戶都在同一條產線上生產,
你客戶行的話就自己建廠了不是? 來這下單就是要照台積的function和flow
對手Intel一樣能在台積電用上TSV製程
還有一點老石說錯了,3D-VCache是放在SRAM之上的 不是放在CPU內核上。
SRAM占用面積大但耗電少,所以在他上面架3D-VCache。
內核耗電發熱大的地方是不太可能(考慮到intel的架構似乎有在上面架其他的 故不敢確定)給架上其他耗電的東西的。
天下之勢 合久必分 分久必合。
CPU跟GPU跟NPU也是如此。
但這裡講的不是會全部合,而功能性上的整合或是偏重轉移。
CPU商想讓其他功能及軟體圍繞著他來增加,GPU商想讓CPU專門為他(GPU)服務。
NPU呢....我還不清楚......
我現在跑CNN架構的藥物發現模型,超級期待NPU可以派上用場啊!只是現在這類應用在github上幾乎都是用Cuda或是tensorflow做核心,自己用之前還要改核心代碼就心很累
巨型机虽然用的是CPU,但原理也和GPU一样,都是并行,唯一不同的是巨型机是一群CPU在总线上并行加速计算,并且通过这个总线交换协调计算,而GPU则是在一颗芯片内部实现成千上万颗小CPU,并且通过GPU内部的总线通信。所以本质上根本就是一样的,没太必要厚此薄彼的。CPU一直坚持的是提升频率,结果走到了物理尽头,所以一直提不上去很久了,所以才有多核CPU,到现在发现,其实想NVIDIA那样造成千上万个简单的小CPU难度,其实比堆叠十几个甚至几十个的大CPU要容易的多,仅此NVIDIA和Intel的GPU与CPU的斗争胜负已分。
換句話說 那不會發展幾百核心甚至幾千核心幾萬核心CPU
@@magic155555 主CPU内核实现的硬件成本太高了,现在搞100个cores的CPU, AMD就卖十几万块钱了,NVIDIA的4090只卖一万块钱,就有快两万个cores了。另外搞了那么多的CPU你怎么控制?up主没有说一个更重要的现实,那就是人类现有的软件都是基于CPU的线型执行做的,对于并行执行的软件编程支持,只搞出了可怜的几个技术,比如CPU多核对应的多线程/进程,以及利用线性代数的tensor运算来描述算法实现用顺序的算法描述来实现多运算内核的计算,除此之外,人类还没有发明或者发现更好的控制并行计算的描述语言或者编程框架。多线程/进程只能对付几十个内核,再多了,人脑都晕了(直到今天多进程的编程系统依然是人类设计软件的bug高发区),GPU的tensor运算,利用编译器和调度器机制把计算graph分配到成千上万的GPU里面的小cpu上,这样就实现了自然而然的并行计算。
对于并行计算,由于有deep learning的工程实践进步的太快了,而在理论基础上,其实和几十年前差不多,根本没啥进步。所以大家把这叫作炼丹,OpenAI自己也承认chatGPT是他们的一次豪赌,在打开花了几十亿成本的炼丹炉以前,心里也是没底的,虽然scaling law一次一次的被证明是对的,但人类就像火鸡一样,不能保证这次天亮的早晨是一个给食物的早晨还是复活节的早晨,虽然一直都是天一亮,主人就给食物吃。
AMD的高效缓存技术很关键,很重要。
同意CPU不会被完全取代。但许多workloads(包括视频中提到的天气预报等)已经有越来越多的deep learning 成份,这就可能导致CPU在总计算里面的份额进一步降低
我认为 不会,就像当初GPU出来一样,今天你DIY一台电脑,虽然GPU预算占大头,但一台电脑的速度最张还是CPU决定的,只有在游戏和AI等特定应用时GPU才发挥作用,然后CPU特别是CPU的单核性能贯穿整个工作过程,它的性能高低决定了整体的速度
11:15 "无纳米" 字幕错了
hi 老石,很喜欢你最近share关于amd的视频!是不是考虑来amd了?😁
老石能聊聊量子计算的最新发展吗?
我想知道用adobe illustrator。主要做平面复杂线条的扁平插画用什么CPU好?
3D V Cache 目前來說也就TSMC能做,台積電除了製程獨霸天下,CoWos封裝技術也是。
是嗎。華為的HBM. 也解決垂直堆疊問題
@@changszuchin856 等東西做出來再說吧,中國的PPT能力那可是遙遙領先。
@@changszuchin856嘴砲一堆,沒產品
@@changszuchin856遙遙領先😅
以前的CPU專指INTEL X86,AMD曾經遠古時代有段時間還被質疑是不是,因為相容太差。
現在ARM跟RISC一堆,大概這名詞就越來越模糊
CPU GPU 兩者相輔相成 ,沒有誰要取代誰,繼續卷,科技真的太有趣。
有没有发现,CPU某些设计越来越向GPU方向靠拢,而GPU的每颗小核的算力也达到了多年前CPU的算力。我觉得CPU和GPU最终将会被AI整合到一起,而现在的APU就是未来终极芯片的雏形。
GPU不能进行通用计算,CPU是通用计算单元。😂
@@朝辉-w6g 搞不好以后就可以了😎😎
想太多,會把兩個搞混代表你連指令集是什麼都不知道,gpu 要實現x86的指令集要專門電路,而那時就會成為超多核的cpu ,能耗就爆炸,因此只能各玩各的,這是兩種不同計算形式。
但是你的apu 的想法是對的,讓gpu 集成部分cpu ,以達到加速是可行的,類似soc 的作法。
@@陳彥碩-r6s 你可以把以后的芯片想象成现在的电脑主机,这样是不是就好理解了?😎😎
怎麼感覺像是軟廣,不排斥廣告,但把廣告混在一般影片裡就有點拉低格調了
N卡很貴但是有十多年CUDA軟件.AMD才搞ROCM沒幾年
干货满满
要重写软件,成本太大。而且并行性能不太好的计算,比如有限元只能用GPU加加速,中流砥柱还是CPU。
CPU是剛需+1
(( 在VFX產業打雜的低端碼農飄過
话说,为啥要买呢?能不能租服务器啊?
老石,好像你的视频帧率有问题,不到25fps。
CPU通用性强多的多,可以用开发编程工具太多了,从高级语言,与低级语言都有,gpu目前来说也是CUDA工具,还是闭源的非通用化工具,而且非英伟达卡不能用,完全不能同日而语。
厉害👍
还请讲讲英特尔该如何翻身
英特尔还没到需要翻身的地步把。人家也没跌落十八层地狱,何须翻身。
只是英特尔的CPU没站在时代的风口上而已。我们那些个人电脑用CPU基本都是用英特尔的。你有听说谁的个人电脑用不要CPU就安装GPU就能运行的吗?
@@中国农民工-c5c 建议了解一下datacenter端各个大厂自研的arm cpu以及客户端的windows on arm
nvidia 也做cpu了 要包圆数据中心
AMD 的软广么… 工作中用到 AMD CPU,烦死了,datasheet 写得很糟糕
伺服器領域amd本來就有絕對優勢 不說amd說誰
@@OwO-meow-UwU 。。。。。。你说反了吧
老師好帥!
蘇媽fighting!!!
为什么科学计算,比如CFD,或者EDA,就不能使用大量的GPU来大幅加速计算?是因为这些软件是以前写的?能不能用CUDA或者ROCm改写这些软件的部分计算密集的部分呢?
已经在做了,如分子模拟、量子化学计算等领域主流软件,大多增加了GPU加速功能,把矩阵运算等计算密集部分挪到GPU上执行。
不是,這跟數據模型與硬體指令等都有關,GPU的""浮點運算硬體""規模太小,無法實現一些複雜運算。而科學運算只能""雙精度浮點運算"",再加上,許多數學模型並非單純SIMD,有許多是MIMD複雜數據模型,很難每個都去套GPU,所以拿CPU來算比較簡單。如果CPU能力夠,實際上可以捨棄GPU,網路上有人只用""純CPU渲染""玩遊戲(極客灣 YT頻道)。
@@mikejacken8986 以前只尝试过使用numpy来优化一些矩阵计算,相比传统的CPU计算,比如使用Java/C#的数组,已经可以提升数十倍甚至百倍的性能,但这仍然只是CPU内部的指令集(AVX等),没有尝试过使用GPU来改写,相信应该会有另一个数量级的提升
@@許明陽 我觉得应该可以通过CUDA或者ROCm这种SDK来改写(模拟)CPU的所谓复杂计算
CPU=能力值平均,GPU=繪圖能力突出
人类科技树其实hei复杂😂
不是hei,是hin
09年吴恩达就用GPU编程解决神经网络和图片识别问题,为啥三年后的12年Alexnet才火呢?
因为数据量,还有网络架构不同
另外当时可以work、解决梯度消失问题的深度神经网络是Deep Belief Network,他在训练前要做逐层预训练,还比较麻烦。alexNet就很简洁了,比起以前的卷积神经网络来说,只加深了层数和更换了激活函数为relu,外加一些Normalization和dropout的技巧。alexnet用更简洁有效的方法解决了训练网络层数增加后梯度消失的问题。
老石要变成AMD粉丝了 🤭
金主爸爸呗,很正常,只有这样,才会吸引其他金主爸爸。
老石好帥!
声音太小了。。我把声音调到最大,然后突然跳出来广告,吓一跳🥲
你的观看设备音源有问题要换了!我这听的可正常、没你说的问题。
没有问题啊,你的电脑有问题吧
本人很期待以后PC多架构组成(x86.GPU.RISCV.NPU)只为打游戏呵呵😄☺
服务器CPU AMD epyc 确实很牛,但是GPU 确实不如老黄的N卡,主要是软件生态落后
讲讲英特尔神经形态计算机Hala Point
恰飯,超明顯
关注点有点歪,看到了苏妈的大钻戒,靴靴💔
華人驕傲!
hin 复杂
那女的手上的戒指真大,超大钻戒。有钱人。!
老石还在中科院吗?还是出来专注做自媒体了?
不可能专门做自媒体的。
SEI PU
別再amd了,youtube演算法,我不想買amd卡,那東西對ai來說很不方便
人家推荐人家的,你爱买啥买啥,皆大欢喜。
再等一兩年。美系的開源AI語言已經定案。補程式庫很快的