十分钟略懂存内计算:解除人工智能最后的「封印」?

แชร์
ฝัง
  • เผยแพร่เมื่อ 5 ก.ย. 2024
  • 最近没有重大突破,插播一期预留很久的选题--存内计算(Processing In Memory)。

ความคิดเห็น • 152

  • @star95
    @star95 ปีที่แล้ว +4

    Ai的底层逻辑是概率计算, 模拟计算特别适合做概率计算 给大刘深入浅出的讲述点赞

  • @MusicalPan
    @MusicalPan ปีที่แล้ว +9

    類比計算對精度並不擅長,所以人腦對於追求100%正確度的東西向來是不行的,人腦是站在生存的高度看待計算而並非針對特定領域的計算的精確和高效。
    追求正確答案和依循固定邏輯的東西,這些計算機很容易取代,但人腦最大的優勢就是可以把五感傳輸的大量無規律的資訊和自身現在的狀態(等同目前大腦的記憶)歸納出一個簡單的結論,而這結論雖然不是最佳結論卻高度近似最佳結論,最主要還是適應,會依照情況不同而有所不同。

  • @user-hf3wo5lt7i
    @user-hf3wo5lt7i ปีที่แล้ว +3

    这集让我震惊了。感觉如果做出来,真的是新时代

  • @shinweichiou
    @shinweichiou ปีที่แล้ว +30

    @6:30 模擬電路,在台灣稱為類比電路。 「模擬」或「類比」對應的英文是「analog」。 兩者翻譯沒有對錯,幫忙解釋理解。
    @7:20 這裡 U 是电压的符号。而 V 伏特是电压的单位。 大家比較習慣 V = I*R
    @8:48 簡單舉例,當數位訊號為了記錄255數據就要有8bit 電路,而類比訊號則可以直接表示255V即可。

    • @user-gs2cc1sq1m
      @user-gs2cc1sq1m ปีที่แล้ว +4

      U=I*R才是常见形式吧?否则你就要写成v=a*Ω了

    • @user-ci4yl7yk5r
      @user-ci4yl7yk5r ปีที่แล้ว +4

      @@user-gs2cc1sq1m 台灣的電學課本大多是寫V=IR,因為台灣大多數人習慣用V當電壓的符號

    • @kevinlantw
      @kevinlantw ปีที่แล้ว +3

      有人另外說明了, 大陸在1980年代前也是用V=IR的, 是後來才改拿U當電壓符號.

    • @shinweichiou
      @shinweichiou ปีที่แล้ว +2

      @@kevinlantw 呵呵~ 我是 1977 出生的老屁股,那年代都是學 V=IR。

    • @user-gs2cc1sq1m
      @user-gs2cc1sq1m ปีที่แล้ว

      @@kevinlantw 这个倒是不清楚。

  • @wesleyzeng4087
    @wesleyzeng4087 ปีที่แล้ว +2

    大刘的每个视频讲的都非常好👍

  • @yygreat1982
    @yygreat1982 ปีที่แล้ว

    讲的很好,能把这个事讲到这个份上,已经很厉害了。

  • @maomao3593
    @maomao3593 ปีที่แล้ว +2

    跟软件一样,不同模块/类/库之间耦合得越紧密效率越高,省去了接口调用、参数传递和合法性检查开销。但设计模式上这种耦合是大忌,会给后期维护带来很大的麻烦

  • @Beagle5ce
    @Beagle5ce ปีที่แล้ว +4

    这个其实就是电子神经元的概念了.概念很早就有,但存算一体的芯片价格实在是太高了.
    如果电子神经元架构的芯片能普及的话,那算力将是指数级的提升.

  • @feifeishuishui
    @feifeishuishui ปีที่แล้ว +2

    听起来模拟计算来算卷积比二进制优势姚高数量级啊,有意思了。会不会模拟电路因为要减少噪声,所以反而要用比较大的制程,国内的光刻机反而正好够用。不过这方面很多算法要重写,这方面国内是不怎么样的吧,还得等老外写好了发表出来再去跟

  • @wenbozhao4325
    @wenbozhao4325 ปีที่แล้ว +4

    模拟计算一个电路算浮点矩阵乘法这个很有意思,pandas底层再怎么优化也比不了这个,未来很值得期待😊

  • @user-cf6ds8ld7l
    @user-cf6ds8ld7l ปีที่แล้ว +1

    讲的不错,开阔了些眼界

  • @JohnNeo
    @JohnNeo ปีที่แล้ว +3

    模拟计算的本质是放弃力精度和确定性,换取成本效益。 这是合理的,NN计算根本不需要太高的精度。

    • @heartminer5487
      @heartminer5487 ปีที่แล้ว +1

      模拟运算芯片有精度修复的模块,过一段时间就要过一遍adc然后dac,就跟dram要不断刷新一样。

  • @nz8666
    @nz8666 ปีที่แล้ว +1

    这类科技还有一个名词叫科技边疆,现在的Ai就是新的科技边疆,每次新的科技边疆的能创造的价值,是之前边疆的几十、甚至几百倍,之前认为不太可行或价值不大的技术,方案在新的边疆可能就会产生巨大的价值。

  • @stevenguo2030
    @stevenguo2030 ปีที่แล้ว +6

    大刘,天马行空的问一个问题,人类的大脑存储是不是也存在类似硬盘永久存储和内存条的临时存储,人类大脑曾经储存的信息无法“调用”是因为被“擦写”掉了还是无法找到“调取”路径,如果被擦写了那是谁下的指令,如果无法调取是不是意味着如果找到调取路径的方式人类大脑有成为超级计算的可能。随便一问,不必在意,多谢大刘分享科技!

    • @kelvinli2970
      @kelvinli2970 ปีที่แล้ว +1

      真要說的話其實人的大腦更接近視頻中的存算一体,而並非馮諾伊曼架構的電腦

    • @user-hf3wo5lt7i
      @user-hf3wo5lt7i ปีที่แล้ว +1

      大脑系统本身当然有擦写机制,要不然也不会有帕金森,各种蛋白质和激素就能完成擦写的工作,另外神经细胞本身就是活的。大脑本身就是个超级计算机,不过跟目前的计算机完全不同所以性能也不一样

    • @刘翔峰还逍遥法外
      @刘翔峰还逍遥法外 ปีที่แล้ว

      大脑容量肯定是有限的,否则人类也不会进化出能让人类早产才能出生的大脑袋。

    • @aynmol8094
      @aynmol8094 ปีที่แล้ว +1

      据说,大脑能存储所有的以往学习到的信息,但是人类不能调用所有的信息。但是在特殊状态下可能能够调用到。比如做梦,比如有的人头部受伤,可能会把以往的信息调出来。

    • @aynmol8094
      @aynmol8094 ปีที่แล้ว

      @@user-hf3wo5lt7i 是的,人类的大脑只需要简单的学习几次,就可以,而现在的AI却需要大量的数据来学习。比如:人类认识大象,只需几次,就可以在很多动物中直接找到大象。现在的AI却需要巨大大量的参数,辅助模型来辨认,结果却还是97%是大象,1%是猪,1%是牛之类的哈哈。还有人妄想着这种东西会产生意识。笑了。

  • @user-nu9vj4hg6p
    @user-nu9vj4hg6p ปีที่แล้ว +1

    類比運算是比數位運算快很多,在數位計算機未成熟前都是它的天下,但它最大的缺點是容易受到雜訊干擾,變得不穩定。

  • @thringgha
    @thringgha ปีที่แล้ว +1

    請大劉有機會,能否談談憶阻器(memristor)

  • @jiding113
    @jiding113 ปีที่แล้ว +2

    mac有了,存储单元有了,可是算子,dsp,mcu所用的数据不还是得传到数字部分?而且可能得来回多传好几次,反而增加总带宽。存算一体只能用于非常受限的应用场景,说是伪概念也不为过。

  • @dixjia4095
    @dixjia4095 ปีที่แล้ว +3

    存算一体不过是一个美好的概念。打破冯诺依曼结构(人体结构)需要算法的支持。存算一体的主角理论上还真应该是动态存储器而非其他。想想CPU不就是寄存器吗,不就是动态存储吗?早期的位片机(控制器)不就是ROM一类的存储条吗?只要有了算法存算一体就可实现。

    • @jiding113
      @jiding113 ปีที่แล้ว

      大刘的讲解,每次讲到我的领域,总会让我感到讲的不得要领。

  • @baiy-cn
    @baiy-cn ปีที่แล้ว +2

    我记得 fpga 等芯片很早以前就是计算单元和存储单元一起在片内工作的模式了吧?

  • @kevinlantw
    @kevinlantw ปีที่แล้ว

    類比運算(大劉說的模擬計算)一看就知道原理.
    數位運算影片看完還是沒有什麼感覺, 想了一下應該是偏向把記憶體給內建計算電路(例如加法器跟乘法器), CPU只要下指令給記憶體說把這堆資料跟那堆資料乘完之後相加直接原地把結果存起來, 之後CPU再來調用就好了?
    好比工廠要加工一個產品, 得先把原材料從倉庫搬到工廠, 工廠的生產線把產品做好了, 再把產品運回倉庫等著出貨. 現在變成把只能生產單一產品的生產線直接塞進倉庫, 就地取材加工, 就地存放成品的意思?

    • @chi1dg0r
      @chi1dg0r ปีที่แล้ว

      問題是SRAM(Cache)很貴,這也是CPU裏的Cache很小的原因。
      就像大家都很討厭通勤,最好5分鐘走路就能到公司。但你付不起房租啊。

  • @janchangchou777
    @janchangchou777 5 หลายเดือนก่อน

    另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
    GPU 可以當做兼為AI 算力工具,但是GPU 如果僅專用在AI 上,則已是超規格。 因此微軟搞出了這種純滿足AI 小學暴力算術晶片。英偉達GPU一定要小心了,GPU 涵蓋應用面遠大於AI , 如果僅用於AI 算力工作,則晶片可以非常簡化。

  • @slavikslavjful
    @slavikslavjful ปีที่แล้ว +5

    人腦本身就是存算一體,有著超強算力卻無比節能

    • @feifeishuishui
      @feifeishuishui ปีที่แล้ว +1

      是不是节能不好说吧,算那么慢,比算盘都不如

    • @young7802
      @young7802 ปีที่แล้ว

      @@feifeishuishui 你懂个屁,人脑的图像处理能力甩4090一百条街都有富余

    • @davidtomcai7821
      @davidtomcai7821 ปีที่แล้ว +1

      有利就必有弊的,存算一體是節能,但計算速度(效率)肯定就會大大下降。關於大腦這個存算一體原理,其實我在10年前看過一本專著,當時我就想到了。用CPU程序也可以模仿出來,簡單來說就是,模仿大腦5种特質神經元,分別運行計算和存儲,運算這個大家很容易理解,但如果作為存儲的時候,這塊存儲神經元的周圍的計算通道變堵住了,等其他計算神經元計算完以後,再把這個存儲神經元的打通接通,通過一個類似海馬體的東西轉換,把存儲神經元上的記憶搬到特定的存儲位置。這樣存儲神經元又變成了計算神經元。另外AI要實現這個智能和意識的話,還要模仿大腦的另一個特質,就是有6層腦皮質。第1層腦皮質應該是很多脊椎動物都有的,第2層腦皮質就是複杂一點的智力,以此類推,用到第6層腦皮質的應該是人類最聰明的人。現在的網絡神經計算也有點類似多層大腦皮質。但的AI神經網絡的層數太多,達100多層,而且參數往往達上千億個,沒有大腦效率高。我這裡說的效率不是計算效率高,是指智力效率高。就是從小樣本中去尋找事物的規律的高度抽象能力,人類大腦暫時還是獨一無二的。但我上面說的原理一旦運用起來,估計很容易突破。不需要大算力就可以實現真正的人工智能。

    • @yuqian1768
      @yuqian1768 ปีที่แล้ว

      ​@@feifeishuishui 确实算的慢,而且还很容易出错。

    • @slavikslavjful
      @slavikslavjful ปีที่แล้ว +2

      @@feifeishuishui 你搞錯了,人腦意識的數學計算是抽象概念,這根電腦那種低維度計算是兩回事。另外人腦的無意識算力也遠超你的CPU,哪怕只是操控手指在鍵盤打字所需要的計算量都大到嚇死人,把這些計算丟給你的電腦,你會看到他算到冒煙都還沒開始動

  • @GeorgeHaiweiPeng
    @GeorgeHaiweiPeng ปีที่แล้ว +1

    非常好的科普,不过估计不是it 行业的可能看不大懂。谢谢!

  • @user-jw3um5nv1y
    @user-jw3um5nv1y ปีที่แล้ว +1

    有关U=IR&V=IR
    1980年代之前大陆也是V=IR,我爸和少年宫老师都是这样教我的。老师说大V代表电压,小v是电压单位伏特,后来1984年我上初中课本就是U=IR,老师说U代表电压,我爸表示不解且亦可😅
    这里要说明一下。大陆对于外来的东西并不是遵循英文习惯而是其原产地习惯。比如Trump大陆并不按照英文发音规则译作“川普”,而是按照德文发音译作“特朗普”。

    • @kevinlantw
      @kevinlantw ปีที่แล้ว

      感謝您的說明, 想說怎麼從小學到大的V=IR什麼時候改了. 另外也解惑了我一直搞不懂為什麼Trump要翻譯成"特朗普"這件事...

    • @user-gq3xs7rn2c
      @user-gq3xs7rn2c ปีที่แล้ว

      大陆在英文翻译中文,没有原则遵循,尤其人名和地名,主要目的是在华人圈制造“文化障碍”,同时也能体现对文化的专制,让防火墙的效果提升;纽约可以叫纽约,而纽西兰却改成新西兰。

    • @javazhang6309
      @javazhang6309 ปีที่แล้ว

      @@user-gq3xs7rn2c 很多译名都是约定俗成的,历史上哪个翻译版本用的最多往往就成为其专用的,应该只是最初译法不统一,或者最初翻译错误(似乎大陆的不少叫法是源自香港的粗暴翻译),但后来广为传播就将错就错沿用了。
      只有你这样垃圾什么都能扯到所谓"文化障碍""文化专制",被洗脑的傻屌

    • @user-jw3um5nv1y
      @user-jw3um5nv1y ปีที่แล้ว

      @@user-gq3xs7rn2c 纽约是满清和民国38年以前约定俗成的译法,大陆只是继承。现在大陆清华大学还是Tsinghua U北京大学还是Peking U,都是民国38年以前的翻译。

  • @jessishandsome
    @jessishandsome ปีที่แล้ว +4

    analog 的難點在於ADC 與 DAC, 需要高速型,與高精度,然後很多專利都在ANALOG DEVICE 與ST手上,所以應該最後提出解決方案的,還是是美國公司。

  • @abc-so5nw
    @abc-so5nw ปีที่แล้ว +2

    从神经元的生物模型来看,其传输的是模拟信号。基于人工神经网络的AI,最好能传递模拟信号。
    播主能否解释一下,模拟计算是否可以用光控管来实现呢?

  • @ahchoooo
    @ahchoooo ปีที่แล้ว +1

    很精彩的科普,如果能用模擬計算加上Jeff Hawkins的模仿人腦的設計,就能真正模仿人腦的運作了!沒想到真正的AGI能這麽快就能實現!精彩!建議中國要加緊研究Jeff Hawkins的model,就能把這AGI芯片研發出來了。

    • @schofieldy7533
      @schofieldy7533 ปีที่แล้ว +1

      为数不多的理性派,AI的瓶颈根本就不是算力,更不是数据。
      而是模型。
      ChatGPT,资本游戏而已,是AI的死胡同。

    • @lee928
      @lee928 ปีที่แล้ว

      @@schofieldy7533 人們假想的能夠催生出一個智慧足夠替代人類對AI進行升級的人工智慧 假想到了這一步 AI發展將會一日千里
      哪個國家的AI先達到這一步 便有可能輾壓全世界 進一步反過來壓制其他國家的強AI生成
      類似先有核彈的國家 壓制其他國家做核彈的道理 所以比拚的是時間 而不是成本 也不是道德 正似可能導致這種類似軍備競賽局面使得AI可能脫序擴張 所以才有大老在呼籲正視人工智能發展的危險性
      總之比拚的是時間

    • @gigabytechanz9646
      @gigabytechanz9646 ปีที่แล้ว

      @@schofieldy7533 同意!現在Generative AI 是基於超大數據加上超大模型才有語言理解能力!很明顯是模型及算法效率低的結果!將來必定是走中小模型及小數據的方向!現在算力足夠有餘!

  • @duton661203
    @duton661203 ปีที่แล้ว +2

    存内计算, 利好那些個股?

    • @matthewang1971
      @matthewang1971 ปีที่แล้ว

      应该是两长吧,长江,长鑫

  • @user-ng9sx2tv7p
    @user-ng9sx2tv7p ปีที่แล้ว +3

    V=IR

  • @georgechang4163
    @georgechang4163 ปีที่แล้ว +1

    不管 Chip on memory 或 Memory on chip 的設計,生產製造,封裝 IP 全在台灣。而且有客戶用了

    • @julienj3139
      @julienj3139 ปีที่แล้ว

      请问具体是哪些客户的芯片有用啊

    • @georgechang4163
      @georgechang4163 ปีที่แล้ว

      @@julienj3139去 查查 AMD, Nvidia 新品, 可惜中共倍禁售

    • @georgechang4163
      @georgechang4163 ปีที่แล้ว

      @@julienj3139 可以去问问 DARPA , 其 MRAM + Chip , 你问的到吗?

  • @linbay1599
    @linbay1599 ปีที่แล้ว

    謝謝分享,👍👍👍👍👍👍

  • @gogogo1161
    @gogogo1161 ปีที่แล้ว +1

    大國才有能力兼顧各種形式同步發展,沒有一個企業能通通兼顧

  • @davidcheung8595
    @davidcheung8595 ปีที่แล้ว +1

    那么,靠电荷储存和计算时,抗干扰能力是不是很弱?比如电磁、温度影响,因为我想到了战时环境

    • @JohnNeo
      @JohnNeo ปีที่แล้ว

      苏联人就是这么想的,于是放弃了晶体管研究转向电子管小型化,然后就没有然后了

    • @davidcheung8595
      @davidcheung8595 ปีที่แล้ว

      @@JohnNeo 我是从物理角度上问有无可能,你跟我提苏联

  • @TheXao886
    @TheXao886 ปีที่แล้ว

    感覺說了跟沒說一樣 ...........一台電腦裏的硬件效能跟硬件匹配從來都是相互有落差.........的
    您的意思是往後會有一張 專業的 AI 卡的意思嗎?或是專業的AI電腦?

  • @mizhang118
    @mizhang118 ปีที่แล้ว +30

    经常看大刘的科普,只要不直接关系到“厉害国”,内容都挺有意义。

    • @zijingyang238
      @zijingyang238 ปีที่แล้ว

      你就一傻逼,好好看视频学习就行了,满脑子政治累不累

    • @fungbai3041
      @fungbai3041 ปีที่แล้ว +12

      啥都能扯到历害国,你心里上是不是有点问题?

    • @mizhang118
      @mizhang118 ปีที่แล้ว +6

      @@fungbai3041 科普最基本的原则就是科学态度嘛

    • @SSSS-gs8ec
      @SSSS-gs8ec ปีที่แล้ว +8

      @@mizhang118 你的科学是不能接受中国也有领先的地方吗?

    • @lingguohuang4963
      @lingguohuang4963 ปีที่แล้ว +7

      但你这回复就显得你态度不端正,没有保持科学求实的角度。

  • @user-ci5be9bu2m
    @user-ci5be9bu2m ปีที่แล้ว

    想问问大刘老师,国内ai算力最受益的上市公司应该是哪个?

  • @goldmansky7540
    @goldmansky7540 ปีที่แล้ว +1

    国内28nm工艺做存算一体搞AI硬件大有作为。

  • @xiaomingjiang7733
    @xiaomingjiang7733 ปีที่แล้ว +1

    大刘好🌹🍧🥃🍜🥣🥩🥓🥟🍟🥫🌹

  • @wangvincent5302
    @wangvincent5302 ปีที่แล้ว +1

    ai计算,比挖矿要高几个数量级。这个。。值得探讨

    • @user-jw3um5nv1y
      @user-jw3um5nv1y ปีที่แล้ว

      是啊,这就像比较搬砖和判断哪只股票要涨两者哪个需要吃更多食物😂

  • @william2chao
    @william2chao ปีที่แล้ว

    V=IR?

  • @user-xi8rc3sz5c
    @user-xi8rc3sz5c 5 หลายเดือนก่อน

    人工智障❓
    其實
    很簡單
    問人工智障:
    宇宙之外是什么❓
    真智假智立刻現形🧘

  • @yixingwang
    @yixingwang ปีที่แล้ว

    同DPU有什么差别?

  • @user-rh1sw6ji6t
    @user-rh1sw6ji6t ปีที่แล้ว +1

    根本不可能取代,GPU通用性跟普及性跟價錢還是差很多

    • @jerryhuang3565
      @jerryhuang3565 ปีที่แล้ว +4

      其實gpu性價比還是滿差的,只有實驗室初期還摸不著頭緒在使用,所以真正ai應用,多數還是跑在ASIC、FPGA上面,無論你的手機或者伺服器多半都這樣

  • @jailbreaker7023
    @jailbreaker7023 ปีที่แล้ว +1

    我一直有个想法,已经很成熟运算放大器能否用于当今计算机的各种非高精度计算

    • @JohnNeo
      @JohnNeo ปีที่แล้ว +1

      肯定可以啊!这个是老技术了,在没有微处理器的时代,导弹上面的飞控就是用运放搭建的。但是运放与欧姆矩阵相比,成本还是太高了

    • @alexyoung6418
      @alexyoung6418 ปีที่แล้ว

      Veritasium有一期讲analog computers非常值得一看。

    • @shinchin384
      @shinchin384 ปีที่แล้ว +1

      可以的

    • @JohnNeo
      @JohnNeo ปีที่แล้ว

      说到这个,想起了大学时期的自控老师,算来应该已经仙去了🕯️

  • @jackliao8080
    @jackliao8080 ปีที่แล้ว

    Volta的名字開頭V弄醋成U是不是Typo?😅

    • @kevinlantw
      @kevinlantw ปีที่แล้ว

      電壓(電位差)在科學的表示符號用U或是V都可以, 沒有差異(稍微查了一下U的用法起源是德語系地區); 電壓的「單位」(例如台灣的家用電壓110V)符號就只有V了.

  • @viktorjin6972
    @viktorjin6972 ปีที่แล้ว

    hadoop 到 Spark?磁盘io 到 Memory io

  • @howdareyouare
    @howdareyouare ปีที่แล้ว

    并行计算

  • @BunmJyo
    @BunmJyo ปีที่แล้ว

    👍👍 不明觉厉

  • @junchaochang6962
    @junchaochang6962 ปีที่แล้ว

    good video

  • @kmschn3321
    @kmschn3321 2 หลายเดือนก่อน

    簡單地說出那家公司,讓我去買它的股票吧

  • @goldmansky7540
    @goldmansky7540 ปีที่แล้ว +1

    华为还是可以弯道超车的,关键在于创新设计。

  • @Hongcai12345
    @Hongcai12345 ปีที่แล้ว

    真正的封印或者说瓶颈 只有量子计算才可能有智能出现,现在所谓AI 从算力上看还是属于大数据范畴

  • @boxgame2404
    @boxgame2404 ปีที่แล้ว +1

    这不是以前的网吧专用吗? 国内的网吧为了速度快,没病毒,直接用内存来运行系统。

    • @cnguoyi
      @cnguoyi ปีที่แล้ว

      理解不对,网吧的无盘系统归根到底还要靠网线从局域网服务器上读取系统文件。

  • @user-ov9ds4bz4b
    @user-ov9ds4bz4b ปีที่แล้ว

    这些科技较前卫,听得云里雾里的

  • @richardchang5014
    @richardchang5014 ปีที่แล้ว

    👍

  • @webset53
    @webset53 ปีที่แล้ว

    u=IR

  • @zhihangzhou7141
    @zhihangzhou7141 ปีที่แล้ว

    最后发现人类就是AI发展的最高形态,最后还得雇人😂

  • @beyondsakai
    @beyondsakai ปีที่แล้ว

    存算一体,不就是GPU吗

    • @catchnkill
      @catchnkill ปีที่แล้ว

      不是,GPU架构跟CPU十分相似,存取记忆体也大同小异,只是善长运行图像处理指令。

  • @jedywei
    @jedywei ปีที่แล้ว

    FlipFlop???

  • @jedywei
    @jedywei ปีที่แล้ว +1

    CPU 內的 cache 不就幹這件事

    • @JohnNeo
      @JohnNeo ปีที่แล้ว

      不是,完全不是

  • @Hugo_Musk
    @Hugo_Musk ปีที่แล้ว

    別 不可以

  • @zhilongsong8978
    @zhilongsong8978 ปีที่แล้ว

    老技术了

  • @richardyeung270
    @richardyeung270 ปีที่แล้ว +1

    内存计算还用 出一期?