从GPU到IPU:忘记英伟达吧,未来在这里!

แชร์
ฝัง

ความคิดเห็น • 291

  • @worldking5059
    @worldking5059 ปีที่แล้ว +16

    感覺在胡說八道一通,CPU,GPU根本是兩回事,CPU是通用處理器,管理電腦各種工能之間的運作協調,必要時加以運算,以前CPU之所以會慢,是因為除了計算外,還要處理各種設備的請求,給與處理時間,中繼現有計算,所以一直在中斷中度過當然慢,例如CPU要計算12345X54321,在計算過程中,CPU必需把計算過程存入記憶體中,一個動作就中斷一次再做下個動作,不斷來回就不斷的中斷,所以CPU除了計算外,還要中斷計算來處理把資料丟到記憶體這件事(CPU->RAM;RAM->CPU)!!其中如還在聽音樂CPU還要中斷之前動作來處理數位和類比轉換,後變音樂,然後中斷所有動作把音樂送到音箱!!然後算完結果要顯現在螢幕,CPU還要中斷手上工作,處理對螢幕狀態哪裡要亮點,你手賤不小心碰到鍵盤,CPU還要處理你的賤手造成的事件,所以CPU會慢是因為雜事太多.當圖形變3D後,處理速度更慢,所以發展出專業硬體圖形處理器GPU來專職做此事,GPU只做圖形處理和記億體間的事,其它事它就不管,當然速度更快!!同理人工智能AI也一樣,你要從一堆資料找出有用的,再比對這些資料哪個比較對,靠CPU來做根本做不來,所以就發展出APU或這主題講的IPU.其原理和當年的VPU(創新未來音效卡上的音效處理器)的方式有點像,就是把各種樂器取樣本存入音效卡上記憶體,整個音樂數位類比轉換給VPU處理!!音樂處理例如鋼琴聲,你就必需把所有鋼琴的狀態(音調,大小聲,長短等鋼琴樣本)取樣,例如你給半拍DO的鋼琴聲指令,VPU就到取樣庫把這音找出來播放!!又如風聲也是要取樣各種大自然風聲狀態!!這個IPU應該就像VPU,就是把可能的知識點放入(應該只是目錄),當需要現在資料,找出相應的回答時,可先把這問題丟給IPU,經過IPU蒐尋目錄,找出最合適的目錄再丟給CPU,然後CPU再到資料庫去找到該目錄對應的資料全部內容!!之前還有浮點輔助運算器FPU,專門處理小數運算(CPU只能處理整數運算,算小數會慢到你想砸電腦),不過這功能已放在CPU內,所以沒出單獨晶片。還有數位類比轉換器DSP,專門處理數位類比的事,比如音樂轉換成數位,方便存在電腦,然後再轉換成類比,方便人耳去欣賞音樂!!大自然一切狀態,幾乎都要DSP來處理,這東西用在飛彈上,可使飛彈的精度性能提升很多!!用在處理攝像頭影像也很好用,例如用攝像頭分辨車牌號碼!!

    • @yinjun-of3xm
      @yinjun-of3xm 22 วันที่ผ่านมา +1

      CPU不是不能做ai运算,只不过效率低一些,但通用性强,,可编程性最好。现在CPU甚至能模拟显卡工作,但反过来gpu基本不可能模拟CPU全部工作。gpu要编程还只有唯一cuda工具,还是封闭的工具,看看CPU多少编程工具,低级汇编,高级c c++ 等等一大堆编程工具,gpu一开始出现是为多边形3D加速开发的,并行计算更好,每个计算单元都不大,误打误撞发现适合ai运算,ai核心算法就是多维空间向量变换和计算,这个3d空间多边形图形计算很相似。

  • @huili9116
    @huili9116 ปีที่แล้ว +28

    不好比,对于不同的模型(BERT、DLRM、DNNLM、RNN-T,ResNet-50、Mask R-CNN、SSD)性能差异很大。GPU, IPU, DPU, TPU, NPU 各有各的应用场景,而且和软件也有很大关系

  • @歸虛
    @歸虛 ปีที่แล้ว +26

    NV 從2060~2080開始就加入AI處理單元了呀 雖然小規模而已 但可以看到30系列40系列AI都在加強加大。
    INTEL CPU近一代也已經開始加入AI功能,AMD則要到下一代CPU才引進AI功能。
    數值運算跟AI運算是兩種截然不同的領域,在精確計算領域GPU無可取代,引用AI可以"模糊"一點,得到相近值但可以節省大量運算時間。
    做個比喻在同樣的時間下,要演算到小數點後10位光靠GPU可能要算上10秒得到小數點後10位的精度。
    但加入AI功能,可能先由GPU去演算到小數點後6位7位,然後用AI根據線性數據學習曲線就可以去猜到小數點後10位的精確度,但第10位數會有誤差不可能達到像GPU計算那樣準確無誤差。
    而時間可能只需一半。5秒完成。甚至學習的好的話3秒達到。
    重點在於時間可以節省消耗功率也就可以節省,但精度跟誤差仍不能跟用GPU精確計算相比
    AI另一個重要的能力在於模擬神經系統 類似人的思考能力 不過仍然是屬於"猜"的能力上
    所以AI不可能完全取代CPU或GPU,AIㄧ樣要架構在數學運算的基礎上再來"猜"。
    只是根據運用的場景不同,誰大一點誰小一點的差異。都是要互相配合運用的。

    • @zilchnov5234
      @zilchnov5234 ปีที่แล้ว +5

      你說的這個功能大致上就是現在顯卡的DLSS……

    • @KaLeungYip
      @KaLeungYip ปีที่แล้ว

      @@zilchnov5234 DLSS便是應用了AI技術。

    • @歸虛
      @歸虛 ปีที่แล้ว

      慢慢的AI會擴展運用 不僅僅DLSS、FSR、XESS的演算,物件導向 NPC(模擬生物)行為模擬跟預測...還有很多啦 但一下子想不起。
      CPU可以用AI來分配指令到哪個核心運作等

    • @user-ed2dh6if8n
      @user-ed2dh6if8n ปีที่แล้ว

      超分辨率是这么实现的吗。。

    • @歸虛
      @歸虛 ปีที่แล้ว

      @@user-ed2dh6if8n NV的DLSS是這樣的,未來可能還有更加倚重AI的部分。

  • @user-mp9so4he4m
    @user-mp9so4he4m 3 หลายเดือนก่อน +5

    噢 现在看来英伟达看来是忘不了

  • @hysioshu
    @hysioshu ปีที่แล้ว +29

    这让我想起了刘慈欣在采访中说过的一段话:”在目前的冯诺依曼的架构体系下,永远不可能实现真正的 AI", 一个人即能在不懂冯诺依曼架构的,也不懂什么是 AI 的情况下,同时评论这两件事

    • @steveb5021
      @steveb5021 ปีที่แล้ว +1

      就说ai的概念有什么好不懂的?

    • @a8m1_reppuu
      @a8m1_reppuu ปีที่แล้ว +3

      現在所謂AI也只不過是一個工具而已,基礎邏輯仍舊是人輸入的,而非人一樣自然生成,只能當梯子,是延伸,而絕對而取代不了人。說白了就跟一個複雜化的搜索引擎沒本質區別。

    • @user-zj7qp8jr7b
      @user-zj7qp8jr7b ปีที่แล้ว

      他说的可能应该还是图灵停机问题

    • @hysioshu
      @hysioshu ปีที่แล้ว

      @M 我不是博士,只是一个行业内老鸟

    • @hysioshu
      @hysioshu ปีที่แล้ว

      现在的人工智能更强调的是实验与观察,经管我们在研究的时候有理论的支持,但是这种理论很难给个解释清楚,为什么会工作,并且如此有效,我们用到的通常办法是,通是大量的样本去验证结果(事实证明这很有效)

  • @waterfree6856
    @waterfree6856 ปีที่แล้ว +1

    给大刘点个赞,,,视频很好

  • @user-ej5fb9no9b
    @user-ej5fb9no9b ปีที่แล้ว +17

    目前家里gpu训练网络模型只能用nvidia,对于大的网络模型来说,性能不行,价格还很贵。期望能有更便宜的ai处理器,小的公司也能开发自己的AI模型。

    • @user-qz3nx4xy8c
      @user-qz3nx4xy8c ปีที่แล้ว

      IPU 這家公司好幾年前就再做了,但看起來普及率不高,重點是沒法人人用

    • @yfzhang4709
      @yfzhang4709 ปีที่แล้ว

      @@user-qz3nx4xy8c 关键是搬数据进去要时间,那就只能是网速了。所以这东西只能局部用。比如人像框架识别会更快。但要是数据不在本地............
      更强的分布式计算才是未来

    • @9263STYV
      @9263STYV ปีที่แล้ว

      但是没有见过到商业化的a.i 处理器。之前有看很多公司在做,但都是实验室的产物。

  • @user-zj7qp8jr7b
    @user-zj7qp8jr7b ปีที่แล้ว +20

    不太看好,GPU能这么成功很大程度上不是因为它能算AI,而是它不止能算AI。游戏市场积累了大量的经验分摊了开发成本,然后能制造出相对来说便宜好用的科学计算用显卡。
    你开发一种全新芯片结构,专门为张量计算任务,提高了并行量不,是否有CUDA这样好用的API?是否有提前构筑的软件生态?更关键的,没有消费市场,同等算力要卖到多少钱?

    • @user-zj7qp8jr7b
      @user-zj7qp8jr7b ปีที่แล้ว +3

      我感觉未来的某个方向可能是存算分离,现在的显卡都是都是板载VRAM,这样一张卡多少显存是定死的。以后可能像CPU和主板那样二者分开。低频bios+大显存=机器学习训练显卡;高频bios+小显存=消费级PC显卡。

    • @yuqian1768
      @yuqian1768 ปีที่แล้ว +1

      商用,不一定要民用。

    • @Dksfu
      @Dksfu หลายเดือนก่อน

      我覺得是各有各的巿場,且很重要的是,誰更適合能發展出 AI 邊際 (終端用戶) 的晶片,以和雲端的 AI 系統組成隊,以分攤雲端 AI 的效能,並提升離線 AI 的算力,而這會反過來影響雲端 AI 系統的種類。

  • @MusicalPan
    @MusicalPan ปีที่แล้ว

    設計一個能更好的脫鉤逢紐曼架構的AI訓練硬體系統是個必然的趨勢,因為成本,如果生成式AI被評估為未來趨勢大力發展,勢必碰到效能和功耗的瓶頸,而這樣的改善很可能帶來數量級的改善,對於成本而言絕對差很大。

  • @qingfeng738
    @qingfeng738 ปีที่แล้ว +3

    长见识了,感觉信息革命又开始高速推进了

  • @mikslids7083
    @mikslids7083 ปีที่แล้ว +2

    所有的數據,不管是文字、聲音或任何數字及類比訊息,必須轉化成公式或程式呈現出來,再產出人類能讀懂思考的文字、圖像或影像,所以必須由GPU (圖像處理器晶片)來判讀記憶過濾處理,因為能判讀記憶,所以產生學習,因為學習所以產生AI。CPU(中央處理器晶片)加程序指令,只能做資料轉換、邏輯程序處理、過濾同樣資料的工作,無法有效率的去執行求同存異或求異存同的篩檢與判斷。CPU負責邏輯運算力,處理訊息進來的前段運算與編碼,包含垃圾訊息,GPU負責判讀CPU編碼後送過來的訊息,找出求同存異或求異存同的篩檢、過濾、記憶、比對、判斷,給出過濾後的答案,這是CPU與GPU最大的不同之處,所以有強大的GPU,就能有強大的AI演算力。
    這就是為何設計製造CPU的Intel英特爾股價跌,而設計GPU的Nvidia輝達大漲,生產GPU的台積電跟著漲的主要原因。

  • @jiero115
    @jiero115 ปีที่แล้ว

    讚得真好

  • @charlieli3106
    @charlieli3106 ปีที่แล้ว +3

    现在的IPU也是冯诺依曼架构呀。只不过它是一种新的并行处理架构。如果是数据流处理器那才不是冯诺依曼架构。

  • @cgc5221
    @cgc5221 ปีที่แล้ว

    请问是我们否研究过澳洲公司Brainchip? neuromorphic chip

  • @user-cs2tq7fb3z
    @user-cs2tq7fb3z ปีที่แล้ว +4

    说了半天其实你知不知道他还是ASIC的一种,英伟达的AH100和AD100才是AI算力的核心芯片。别而在这抓住个新名词就秀了。

  • @ericchang4792
    @ericchang4792 ปีที่แล้ว +1

    Buffer 緩存,cache 快取。快取和緩存是不同的。

  • @davidtomcai7821
    @davidtomcai7821 ปีที่แล้ว +2

    好几年前惠普也搞过这个类似的计算机。但没有下文了。

  • @pomo7496
    @pomo7496 ปีที่แล้ว +3

    AI矩阵计算量大,专用芯片还是很有必要的。

    • @Wind_of_Night
      @Wind_of_Night ปีที่แล้ว

      跟圖形生產器GPU同樣一個道理。

  • @steven.n.friends
    @steven.n.friends ปีที่แล้ว +4

    终于不讲电动车了,讲到我熟悉的领域。
    这期就是标题党,英伟达,英特尔,高通的优势不是你理解的,说颠覆就颠覆的。市场是讲资金和渠道的,你有新技术也要臣服。chatGPT也要被微软控股。

  • @mflow502
    @mflow502 ปีที่แล้ว +2

    我觉得这个技术的难点倒不在于硬件架构,硬件架构是优势,软件的调度逻辑是难点,可能在运筹学上还有一些技术问题待突破,否则这个东西已经出来了

  • @lixing-xu3ny
    @lixing-xu3ny ปีที่แล้ว +2

    关于你说的Graphcore,这个方向是原来nvida希望和ARM marge的原因之一,当时Jensen就希望做个CPU和GPU高度融合的机器,目前没有merge,但是nvidia有ARM授权,已经在做这方面的研究了,好像产品也已经出来了。

    • @qiwang7662
      @qiwang7662 ปีที่แล้ว

      Grace Hopper Arch

    • @michaelz4903
      @michaelz4903 ปีที่แล้ว

      @@qiwang7662 Grace和Hopper是两个不同的东西。目前还没有任何融合。

  • @user-yb9vs2pw3o
    @user-yb9vs2pw3o ปีที่แล้ว

    cpu、gpu等硬件的发展,就像是打了个it硬件和科技发展的底层基础。从互联网应用到工厂操控以及科研领域,都不免不了最后作出细分。就像汽车,开始也许功能就仅仅是代步。后来演变成了多种用途,商务用车、远程客车、货车等等,还细分出来两厢三厢suv普通轿车等等爱怎么起名就怎么起名。燃料发动机方面也有改进,看见了新能源电动汽车总不可能说传统内燃机就真的会被取代了,可无论内燃机还是电动的驱动电机,这些就像cpu和gpu,工作机制逻辑这些,本质上是一样的,这些就是底层基础,它们的作用会被多数人(老百姓)忽视,比如服务器。行外人用不上也不会买一个也不一定需要去了解。
    即使现在说华为服务器,估计多数人都会以为硬件都是华为的!市场就是这样,和行内八竿子打不着,可以说市场的运营本身就不需要大谈特谈硬件基础,这一点参考amd当年的推土机ppt,也是各种期待各种跑分,最后不得不说营销文案很OK,现实却不得不回到硬件问题上。
    多领域的发展需要各种ai、cpu、gpu,也算是多项发展。ai的研发也需要依赖于服务器承载的大量数据做支撑,也需要gpu提供其他方面的算力运算,这些都是协作任务,整合一下,一个硬件处理所有,这个是趋势,但是目前不现实。

  • @歸虛
    @歸虛 ปีที่แล้ว +20

    我講個例子 在2X年前 我在主板上設計多了一個高通的晶片 是什麼呢 是網路通訊編解碼晶片。
    在一個主板有4個網路接頭 1進3出的情況下 1進是100Mbps 按理3出每一個平均就只分配到33Mbps。
    因為那時還是要靠CPU來編解碼 所以3出每一個就只能達到20Mbps而已 而且還要占用CPU不少的時間。
    但加上高通的編解碼晶片來幫CPU做處理,CPU可以省下不少時間,3出每一個也可以達到30Mbps輸出也就接近滿輸出了
    而現在這種編解碼晶片的能力早已一步步逐漸的被加入了網路晶片跟CPU 之中,現在已經消失在歷史長河了。

    • @jerryjoey888
      @jerryjoey888 ปีที่แล้ว

      现在都集成了,异构域组合,类似高通跟博通的芯片,一般双核处理器的情况下,带两个NPU,就俗称四核。NPU,N是用来处理网络编解码工作的,network.

    • @歸虛
      @歸虛 ปีที่แล้ว +1

      @@jerryjoey888
      補充說明 NPU有兩種說法 一種是網路處理器(Network Processing Unit)
      另一種是神經網絡處理器 (Neural-network Processing Unit)也就是現在所說的AI處理
      像NVidia講內建NPU是指神經網路處理器

    • @jerryjoey888
      @jerryjoey888 ปีที่แล้ว +1

      @@歸虛 对的

  • @Guavaava
    @Guavaava ปีที่แล้ว

    视频里的缓存是显存还是片上缓存啊?Apple的M1和M2就把内存做到了CPU gpu同一块芯片上,是不是你说的这个scratchpad memory?

    • @jedi1112
      @jedi1112 ปีที่แล้ว

      你沒看懂喔。M1/M2 算 SOC吧。

    • @animamyosotis7785
      @animamyosotis7785 ปีที่แล้ว

      M2和一眾手機處理器一樣,是基於ARM的SOC

  • @HIM0034
    @HIM0034 ปีที่แล้ว +1

    但是你還是要有能夠適應性的晶片才行阿XD北七 GPU CPU IPU這些都只是框架而已 都是建立在足夠先進的晶片之上的要投資之前還是先看看 這個廠商的晶片供應者是誰比較好

  • @ytl6674
    @ytl6674 ปีที่แล้ว

    大刘,等你解读TESLA INVESTOR'S DAY 哦😘

  • @chenrain4262
    @chenrain4262 ปีที่แล้ว +15

    个人觉得从CPU到GPU这的确是“计算”从通用型计算到“特定领域”的计算走出的第一步,把图形计算甩了出来,但是这个IPU或者叫AIPU或者叫什么PU吧 好像也还只是不同的计算,通用计算,向量计算,张量运算。从第一个到第二个进化出了GPU这个有具体的应用,而且需求很强烈,这第二个计算到第三个说实话没看到太多非要不可的应用,最近的chatgpt那也不是同一个量级而且模型计算还很贵。所以从历史广度上来看这第三个*PU 不会这么快出现

    • @Hugo_Musk
      @Hugo_Musk ปีที่แล้ว

      同意 現在的AI主要就是做乘加
      GPU就可以勝任了

  • @stevenfeng2909
    @stevenfeng2909 ปีที่แล้ว +26

    听着好像和TPU差不多,谷歌和英伟达也都在开发

    • @niming7956
      @niming7956 ปีที่แล้ว +3

      像宝马X5,他们宝马自己不叫它suv,而是叫SAV···

    • @zhzhou1275
      @zhzhou1275 ปีที่แล้ว +4

      ​@@niming7956 超级AV

    • @henrygu6149
      @henrygu6149 ปีที่แล้ว +2

      估计就是全是tensor core的GPU

    • @9263STYV
      @9263STYV ปีที่แล้ว

      ​@@niming7956 这个总结太精辟

  • @lugongguo8125
    @lugongguo8125 ปีที่แล้ว

    讲科普,我只认大刘!谢谢!

  • @kwongfatchan955
    @kwongfatchan955 ปีที่แล้ว

    和量子電腦相比,npu有優勝之處嗎?

  • @歸虛
    @歸虛 ปีที่แล้ว +2

    兩處理器疊在一起不是為了降低能耗呀,是反過來
    因為能耗低所以可以疊在一起以增加處理能力。

    • @zhuo-mo7qw
      @zhuo-mo7qw ปีที่แล้ว

      不是因为频率锁死基本5g多。。。。核心来凑

    • @changfrank3084
      @changfrank3084 ปีที่แล้ว

      因為能耗低,疊加起來也不至於過熱,而疊加後縮短了傳輸路徑,提高了效率,進一步改進能耗比,總體來說無誤

    • @歸虛
      @歸虛 ปีที่แล้ว +1

      @@changfrank3084 像現在的AMD 7900X3D在CPU上面疊加了V-Cache SRAM就造成了必須降低使用頻率,也就是為了疊加SRAM耗能增加發熱也就增加 不得已只好降低CPU頻率降低能耗來因應。
      本身能耗低的CPU疊加影響還不太大,但對高性能CPU那是鐵定有影響。
      所以不是疊在一起是為了降低能耗,而是能耗低疊在一起才不至於損失太多處理能力又能使處理能力加倍。
      縮短傳輸路徑是對傳輸速度(也是頻寬)有所增加,但對能耗改進不大,是本身的結構影響比較大。
      例如目前預計會加入CPU裡的記憶體是HBM結構的。
      那是用低速低耗能的記憶體利用疊加擴展Bit數的方式回頭來撐起效能。

  • @user-ej3ki9fw7l
    @user-ej3ki9fw7l ปีที่แล้ว

    分割更多徊微线程,
    但总输出仍旧集式。

  • @Jersey1225
    @Jersey1225 ปีที่แล้ว

    主板得首先支持

  • @stargatec
    @stargatec ปีที่แล้ว +1

    和nvdia的计算卡有啥区别,感觉是打造概念,忽悠资本,nvidia也不傻,已经在行业顶端了,不会放过任何xPU的竞争。和架构也没啥关系,其他器件也都有瓶颈。IPU看起来也就是开大了缓存。另外开发难度和生态也很有关系,opencl概念很好,但是多年也都没起来可能也是这个原因。

  • @huangivan52
    @huangivan52 10 วันที่ผ่านมา

    恩恩 你說的對

  • @cocoyang6761
    @cocoyang6761 ปีที่แล้ว

    叠加就会积热 你的频率越高 最烫 积热就会影响效能 所以ipu也是摆脱不了挤牙膏

  • @kocpc
    @kocpc ปีที่แล้ว +7

    還好啦,IPU架構真這麼好,NV也會搞自己的版本

    • @歸虛
      @歸虛 ปีที่แล้ว

      現在就有加入AI功能了呀 從2060開始就逐漸加重GPU內AI的部分

  • @8.gauge.shotgun
    @8.gauge.shotgun ปีที่แล้ว

    好厉害......

  • @shinmealo9775
    @shinmealo9775 ปีที่แล้ว

    把科技發展用分離技術與市場需求來討論,個人認為難說

  • @user-rk9pg4vr3c
    @user-rk9pg4vr3c ปีที่แล้ว +1

    聽起來就是3D堆疊的架構,不知道跟目前台積電發展的新型封裝有什麼關系?
    太專業了,搞不懂。

  • @CL1024
    @CL1024 ปีที่แล้ว +10

    遙想當年第一台電腦是386. 主板上面除了CPU外還有一個空插口.當時叫協處理器(插上後變成386DX好像是這樣). 它就是專門負責浮點運算的.後來486時代開始標配到CPU內了. 和現在的 AI core 性質是類似的. 不久的未來估計也是標配.

    • @teco13051305
      @teco13051305 ปีที่แล้ว +3

      我的第一台電腦 apple ii 記憶體容量64k😅
      還沒有硬碟及軟碟

    • @weiye8830
      @weiye8830 ปีที่แล้ว +1

      我的第一台电脑是AMD的386,协处理器是Intel-----装反了吗?第一台用的是8086高配有512K内存,双1.2M软驱没硬盘

    • @tzuangel521
      @tzuangel521 ปีที่แล้ว

      @@teco13051305Apple II 用的是錄音帶….台灣稱為卡式錄音帶 在那個年代這種產品替代早前LP音樂唱片的舊時代

    • @ivanyeh4269
      @ivanyeh4269 4 หลายเดือนก่อน

      1.2Mb硬碟,現在看來真是不可思議的小

  • @janchangchou777
    @janchangchou777 4 หลายเดือนก่อน

    另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
    GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片。英偉達GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片可以非常簡化。

  • @xyzabc9527
    @xyzabc9527 ปีที่แล้ว +2

    個人電腦要有新革命了😮
    PC 要變成CC了😊

  • @georgechang4163
    @georgechang4163 ปีที่แล้ว +1

    Whatever it's IPU or GPU component, the HPC unit must be manufactured by TSMC. We will upgrade this territory of AI very quickly in the coming future.

    • @flarelu3157
      @flarelu3157 ปีที่แล้ว +1

      IT'S IMPOSSIBLE, Americans will always come for you if you are capable of stealing any piece of bread from them. Nonetheless, if you keep serving them like a dog, you will be petted with care and love.

    • @georgechang4163
      @georgechang4163 ปีที่แล้ว

      @@flarelu3157 If you served them like a shit, you can say to serve PRC becomes worse motherfucker than to serve USA. Even to the last moment, you don't get any sympathy from PRC. The proverb said never to trust a born liar.

  • @georgehwang1164
    @georgehwang1164 หลายเดือนก่อน

    GPU, IPU 都可當成 CPU 的 COPROCESSOR , 以利用其PARALLEL 運算能力, 要跟 CUDA 拼? 那麼先(1) 完成 CUDA code 相似的生態圈, 讓 machine intelligence, 3D graphic acceleration, HPC 應用直接上手, 無須再寫CODE 才行, (2) 硬體的集積度與生產的生態圈趕快找台灣廠商協助; 否則怎麼跟NVIDIA 拼? or (3) 跟Nvidia 合作, 加入其行列, 搭其現有生態圈也提升其效能; 如果nvidia 直接踏入optical computing ??

  • @lifejourney881
    @lifejourney881 ปีที่แล้ว

    7:36 这里说雇佣了几千个工人分别在拨算盘,但是最后也是为了组在一起,那这个不就是大家一起踢足球,但是有共同的目标,根GPU一样了?

  • @UUU5221
    @UUU5221 หลายเดือนก่อน +2

    一年後nVIADIA統整了人類AI的架構,市值邁向高峰,IPU就。。。。

  • @buyou0509
    @buyou0509 ปีที่แล้ว +2

    拿2年前的数据现在说不太合适,不能光看性能,AI领域的应用不光是靠性能,还有配套的生态环境,AMD也有性能很优秀的硬件GPU卡,但就是没有在AI领域做好,原因在此

    • @feifeirun001
      @feifeirun001 ปีที่แล้ว

      对的,这个东西软件层面的对接是霸权所在

  • @user-vw6dw9sl3w
    @user-vw6dw9sl3w ปีที่แล้ว

    何時能突破倫理道德走向生物計算的方向 不同的科技樹

  • @medalox
    @medalox ปีที่แล้ว

    聽著像是AMD正在做的3D系列
    核外堆更多的快取直連

  • @YorkJong
    @YorkJong ปีที่แล้ว +5

    IPU 現在出貨量最大的也是英偉達,只是沒用IPU 這名字而已

    • @terryjoun1687
      @terryjoun1687 ปีที่แล้ว +2

      事實上100系列主任務就是運算加速,設計上也很接近ipu了,其中專用的單元應該就是深度學習模塊可以稱作ipu

    • @YorkJong
      @YorkJong ปีที่แล้ว +1

      @@terryjoun1687 而且主要幾個科技大廠,例如GOOG, AAPL, TSLA, BABA 等都卯起來自己搞NPU 或者IPU 之類的。就會出現的就算不是NVDA ,也會是這些大廠之一

  • @paulzhu7694
    @paulzhu7694 4 หลายเดือนก่อน +2

    一年后来看……GPU稳如老狗啊

  • @hinhangsiu6783
    @hinhangsiu6783 11 วันที่ผ่านมา +2

    ARM 架構也是英國的。

  • @user-hl2dn7sr6y
    @user-hl2dn7sr6y ปีที่แล้ว +1

    牛皮牛皮

  • @eruisiwang
    @eruisiwang 3 หลายเดือนก่อน

    这个IPU和compute in memory什么差别?

  • @jasenliu
    @jasenliu 3 หลายเดือนก่อน

    dream is always sweet and reality is to catch up the leader is always hard, the best chance is to wait leader make a mistake, a series mistakes, because chasers are more likely to make mistake than leader.

  • @waspec
    @waspec ปีที่แล้ว +5

    tile是“地砖”,shingle才是“瓦片”,差别不能说没有,也能说是巨大了。

    • @simonrouse9461
      @simonrouse9461 ปีที่แล้ว

      屋顶的瓦片也可以叫tile、半吊子英语就别在这指指点点了

    • @waspec
      @waspec ปีที่แล้ว +3

      @@simonrouse9461 我是就事论事,你怎么人身攻击呢?UP主也不喜欢看到楼下吵架吧?

  • @awesomegmg956
    @awesomegmg956 ปีที่แล้ว +3

    老黄搞软硬件codevelop, 没有软件支持干不过的。开发半天如果真好用,老黄抄来以后再在CUDA里做好支持,谁都干不过。

  • @joeyluan1673
    @joeyluan1673 ปีที่แล้ว +1

    google针对AI的叫TPU,浮点运算方面也是高很多,弄一个IPU的名字,就是突破了?

  • @sdfbdgbsrtvarvaraef1902
    @sdfbdgbsrtvarvaraef1902 ปีที่แล้ว +2

    ipu? 其实是in memory computing 吧

  • @williamlew6910
    @williamlew6910 ปีที่แล้ว

    👍👍👍

  • @yewu3408
    @yewu3408 ปีที่แล้ว +1

    现代架构下的Cache基本上多少都有buffer模式。所以也就那么回事。。。

    • @歸虛
      @歸虛 ปีที่แล้ว

      其實應該說CACHE就是BUFFER的加大加量加預先預期指令順序分派能力

    • @Hugo_Musk
      @Hugo_Musk ปีที่แล้ว

      沒錯 就那麼回事
      真的要有突破性的發展會是材料那邊

    • @user-ku2fo3in3n
      @user-ku2fo3in3n ปีที่แล้ว

      科普嘛,并不太懂

  • @wemwem8262
    @wemwem8262 ปีที่แล้ว +1

    我是这样理解的IPU是专注张量的,GPU是专注矢量的。是否合适?

    • @getstevenliu
      @getstevenliu  ปีที่แล้ว

      合适。

    • @user-nm7dj9eg1x
      @user-nm7dj9eg1x 5 หลายเดือนก่อน

      现在的NPU中也包含张良计算​@@getstevenliu

  • @user-uq1wq2mz2q
    @user-uq1wq2mz2q ปีที่แล้ว

    什么时候,cpu可以实现静态存储,就可以了。。

  • @franklin4959
    @franklin4959 หลายเดือนก่อน

    IPU等了很多年了,啥时可以进入一般user的生活?

  • @kkl2469
    @kkl2469 ปีที่แล้ว

    DPU和IPU的区别是啥?听起来两者很像

  • @bosi3233
    @bosi3233 ปีที่แล้ว

    存算一体不就是忆阻器吗

  • @normanf.2304
    @normanf.2304 ปีที่แล้ว

    2:58,针对缓存的定义不准确,通常说的缓存是cpu和内存之间的数据存放地方,如果说的是硬盘缓存应该说详细写

  • @etnicotinate5392
    @etnicotinate5392 ปีที่แล้ว

    相当于把很多CPU缩小很多倍,再粘在一起?

    • @Wind_of_Night
      @Wind_of_Night ปีที่แล้ว

      CPU、GPU、AI芯片,都是同樣一個東西,不同的架構方式。
      說的更值白點,就是水的三態,你的比喻比較不洽當,AI的算法更大程度上的是需求資料的搬運、分析。

  • @dc99yt
    @dc99yt 28 วันที่ผ่านมา

    蘋果不是也已經用Unify Memory了嗎?
    蘋果AI也是用自家的晶片呦!

  • @haozheccm
    @haozheccm หลายเดือนก่อน +2

    一年後回頭看 被你忘記得應該很恨你 哈哈哈

  • @yumie0816
    @yumie0816 ปีที่แล้ว +1

    什麼xxU都不是關鍵,關注CXL的發展吧,瓶頸是在系統架構

  • @chitailun
    @chitailun 4 หลายเดือนก่อน

    估计最终就是硬件神经网络,加上硬件学习器。一个时钟跳动完成一次学习循环,估计到时候数据存取速度就变成瓶颈了。

  • @sharedman9631
    @sharedman9631 ปีที่แล้ว

    可以用IPU挖矿吗?

  • @user-pg2zg9cf7f
    @user-pg2zg9cf7f ปีที่แล้ว +1

    以前做项目跟这家公司合作过 ipu不好用

  • @frankchi2482
    @frankchi2482 4 หลายเดือนก่อน

    Graph core 應該出於 computing graph

  • @kenlin6872
    @kenlin6872 ปีที่แล้ว

    聽起來是3D封測,全部整合成一個的方向走

    • @user-xs3rz1jj4i
      @user-xs3rz1jj4i ปีที่แล้ว

      @@cordeliafuentas所以台積電研究在晶片內搞類似水冷的技術

  • @hinhangsiu6783
    @hinhangsiu6783 ปีที่แล้ว +2

    半導體工業的上游至今仍掌握在美英等各工業強國之中!

    • @luubruce9274
      @luubruce9274 ปีที่แล้ว +1

      一步一个脚印,脚踏实地。只要我们想干,就没有干不成的

    • @user-vc1sd2cc2m
      @user-vc1sd2cc2m ปีที่แล้ว

      @@luubruce9274 你这个我们是指共匪国吗?它与自由民主国家的制度架构是不同的,它是腐朽反动的,因此它永远做不到别人能做的东西,所以它只能靠偷和抢!

    • @luubruce9274
      @luubruce9274 ปีที่แล้ว

      @@user-vc1sd2cc2m 煞笔

    • @user-vc1sd2cc2m
      @user-vc1sd2cc2m ปีที่แล้ว

      @@luubruce9274 你这个下贱的共奴!跑这里来凑什么热闹?

    • @luubruce9274
      @luubruce9274 ปีที่แล้ว

      @@user-vc1sd2cc2m 烂人你好哇呱呱呱哈哈哈

  • @lngkfan
    @lngkfan 3 หลายเดือนก่อน

    核心,速度!
    量子计算?

  • @chelliaxu1838
    @chelliaxu1838 หลายเดือนก่อน

    IPU 聽起來很好,但是Graphicore 是一家中資的英國公司, 以目前美中關係的發展,短期這家公司的前景可憂啊⋯⋯

  • @xiaomingjiang7733
    @xiaomingjiang7733 ปีที่แล้ว

    刘先生好🌹🍟🥩🥓🥃🥫🍧🍜🥣🌹

  • @snowsong100
    @snowsong100 หลายเดือนก่อน

    老朋友,現在什麼都買不到,有錢有傻用?怎麼開發?

  • @tinlu4137
    @tinlu4137 ปีที่แล้ว

    存算一体計算吧...

  • @allenahil
    @allenahil 4 หลายเดือนก่อน

    特斯拉的Dojo是不是IPU?

  • @feifeirun001
    @feifeirun001 ปีที่แล้ว

    存算一体还是冯诺依曼构架,要算就是存存就是算的基本单元才更像神经元

  • @touvictor
    @touvictor ปีที่แล้ว

    繼chatgpt 之後,IPU 又看到微軟的影子

  • @jenssabai9885
    @jenssabai9885 หลายเดือนก่อน

    人类因为人脑计算很慢,所以发明了算盘,计算机。
    但是计算机对大量的整理数据速度也太慢了,而且太耗电太烧钱。
    人脑反而是计算更快,可惜人脑与外界的讯息交换太慢,所以现在制造人工智能来模拟人脑。不过,现在ai的智商有如一只乌鸦。大量的信息也帮助不了多少。
    为什么不研究怎么让人脑和电脑相连接呢,科幻电影小说都已经安排好了啊。😁

  • @weifengzhang3853
    @weifengzhang3853 10 หลายเดือนก่อน

    DPU? NPU?

  • @kingsleykk6049
    @kingsleykk6049 3 หลายเดือนก่อน

    这公司上市了吗?

  • @沈丽君
    @沈丽君 ปีที่แล้ว

    每秒PB级别😏

  • @saitama3753
    @saitama3753 ปีที่แล้ว

    緩存是以TB來衡量? ??????

  • @alexsun1203
    @alexsun1203 ปีที่แล้ว +1

    只要還是堆ALU那就是換湯不換藥

    • @wzjiang856
      @wzjiang856 ปีที่แล้ว

      三十多年前用过Zilog的单片机, 整个便笺的寄存器都可以当累加器用的.

  • @user-hz6qz9ft9e
    @user-hz6qz9ft9e ปีที่แล้ว +4

    如果英偉達的GPU出生在4G/5G時代,那英偉達根本肥不起來,GPU會出現是因為離線運算需求,而且輸出吞吐大根本沒辦法通過網路,但IPU可以輸出結果就好不是要將過程全部輸出。
    而AI需求已經至少是普及的4G時代,甚至還沒有到很剛需,只要反應速度快就好,所以離線AI需求並沒有到影響消費級硬件的情況。
    最多成為更多雲服務硬件的企業級產品銷售,沒辦法作消費級產品想成為英偉達…難。
    你不會為了收郵件特地準備一個郵件主機,同樣的AI也是,而且像Google/AWS這類也會為了吃到ai收入努力讓你不用真的買ai硬件,只要置入廣告或買流量算力。

    • @user-hz6qz9ft9e
      @user-hz6qz9ft9e ปีที่แล้ว +1

      @RO 1.大廠商買伺服器,還是需要做AI訓練,但...很難依靠企業級成就英偉達,就像是如果蘋果放棄手機消費端,只銷售企業級,你覺得蘋果的手機還能有現在的營收嗎? 不可能,搞不好最後手機市場連HTC都打不贏。
      2.競技類遊戲對延遲更敏感確實沒錯,但...如果光靠競技類遊戲,英偉達還能成為英偉達嗎? 要知道英偉達自己都在搞雲計算用的GPU了,如果4G 5G時代提前,這東西發展更快,英偉達發展方向就不會是現在這樣縮減體積,到顯卡被迫與機板廠商溝通採取外置供電了,研發方向會完全改變。
      而且雲計算跟雲服務遊戲,還有什麼雲端桌面玩遊戲,有本質上的差別,更別說她自己都搞了GeForce NOW,還有不需要那麼高延遲的歷年3A大作,就算真有幾款需要超低延遲到4G5G無法支撐的競技遊戲,靠這幾款遊戲英偉達能賺錢? 不說其他的,如果那些3A大做跟礦場挖礦如果不能用英偉達,英偉達可能股價都崩掉9成了,競技類真沒想像中那麼剛需。還有你所謂低延遲敏感,是取決於你有現在的延遲做為基礎對照,如果所有競技玩家都使用網路雲計算做競技有高延遲,而沒人使用本地GPU計算,那這受限於網速的雲計算高延遲就是當代的低延遲,會被視作正常的。
      就這樣說好了,如果在2005年,有類似GeForce NOW平台雲計算跑信長之野望Online,4G的延遲就算在高在800X640下,絕對秒開用英偉達一堆GeForce FX 5900系列AGP顯卡。
      另外英偉達早期無次都是靠著遊戲主機平台的大量財力採購,如果那時有4G 5G,你覺得索尼跟微軟需要被迫踩到英偉達的坑? 不說其他的,要不是英偉達消費級報價更低開發周期短,VOODOO更早時就輾死英偉達了,連生存都不存在哪有後面,索尼跟以前的任天堂,在幾十年前都有過嘗試,用網路來避免盜版,而不使用平台的硬體。如果網速能上去GPU肯定放自家公司了,誰還跟拿錢跟英偉達採購放進主機平台 ?
      3.消費級顯卡都要受限於產品本身體積與散熱、供電、南橋寬帶,拘限了桌機顯卡發展,而企業級GPU則不用考慮這些,該放大多少就能放大多少,如果提前有4G/5G做GPU雲計算,那一點點的延遲絕對速度能超過十幾年以前那一堆顯卡因為各種硬件受限而產生的延遲。

    • @alanwu4813
      @alanwu4813 ปีที่แล้ว

      本末倒置了兄弟

  • @wu-weihong2010
    @wu-weihong2010 3 หลายเดือนก่อน

    輝達現有的規模人才不可能你會他不會

  • @user-nm7dj9eg1x
    @user-nm7dj9eg1x 5 หลายเดือนก่อน

    和NPU,存算一体没有差别把

  • @BarryQin-ws4qm
    @BarryQin-ws4qm ปีที่แล้ว

    这有点不靠谱。。看看谷歌TPU的市场怎么样就知道炒概念是啥下场了。。。CUDA指令集之后,硬件层以上暂时还没有出现革命性的协处理器技术吧?

  • @wei4549
    @wei4549 22 วันที่ผ่านมา +3

    豪小

  • @shawnlu6080
    @shawnlu6080 ปีที่แล้ว

    和apple的自研芯片里神经网络核心应该一个道理

  • @linlin-yx7gr
    @linlin-yx7gr ปีที่แล้ว

    理论叠代走在制造迭代之前,且无止境

  • @thepowerofcriticalthinking1744
    @thepowerofcriticalthinking1744 ปีที่แล้ว +1

    AI專用的芯片,阿里,百度等都在做。