哇,原来跟我一起看大飞视频的还有Nvidia的大佬。十分荣幸😊
真硬核,学习到了
很棒的一集,benchmark的算力作法😊😊
优秀
只要scaling law没有看到尽头,集群的规模也看不到尽头
謝謝
是不是可以戰略合作。
google、open AI等 共同搭建,各自訓練。
以君子協議 或其他契約 限制公開的D day,
可能同時同天,也可能基於其他參數調整發布的先後順序。
老馬就要建個10萬個H100,再建個30萬顆GB200 總價要90億美刀
牛逼啦
学习了,虽然大概率用不到🤣
不管在簡單的工作,當它的規模大到一定程度的時候,都會變成極度複雜的工程
大飞以后会有机会搭建的
老黃都幫你安排的整整齊齊
我支持核電
指明了devops的未来😂
哥 你很幽默喔
你覺得你的ta有誰有能耐或需求要知道怎樣搭100k h100 cluster
我想问一下各位大佬,未来ai算力是趋于集中还是趋于分散或者分布式?对于2-5年没什么好讨论的集中更多算力才能训练更大的模型,如果把时间尺度放到10-20年是一个什么趋势?
个人认为:基于目前的GPU技术,AI算力希望不断扩容但是电力无法支撑算力集中,趋势是跟随电力资源去分布算力。如果下一代专门针对LLM的TRANSFORMIER计算的专用芯片成功推出,能耗承几十倍的下降,算力分布会向集中靠拢。电力的供应和消耗成为驱动因素。
似乎有些思路了,也就是说算力本身是趋向于集中,而受限于电力供应,不得不考虑能源分布,而导致算力分散。是这个意思吧?从生物界也许能推出这个结论,单个生物体的神经元规模越来越大,就像人类为了发育足够的脑容量,"早产"出生。
@@changxu21 目前GPU的解决方案是把并行计算发挥到及至,在处理有大量数据背景的AI问题上远超CPU。就是老黄说的“加速运算”。但都是数据及运算分离的,大量资源消耗在数据搬运上,所以能耗惊人。因为电力瓶颈所以算力分散。美国好像目前有多达16家创新公司在搞核电。哪天核能突破,电力瓶颈就会消失。即便算力集中了可是数据中心的位置又会受到散热、水源左右,会建在远离城市的海边、湖边或两极;人脑不然,860多亿神经元,整个功率大概20W。据称结构是存算一体的。计算机是硅基的而人脑是碳基的。从材料到信息原理,人脑到底是如何工作已经能否被“仿生” 还是一个未知数,无法类比。
讲个好故事,找马一龙啊
冯诺依曼体系不存在了,物理学不存在了,超高速网络,存储,架构全部需要重新设计了,苹果还在死守8G不动摇!
好奇怪谁会有需要看这个,老黄要沦落到这样推销的地步还需要一些时间吧。
😂😂😂
谁借我40亿美元我自己搭个练习一下。
本来以为会增加一些没用的知识,可点进来之后,虽然每个字我都认识,但说的是啥?一句没听懂!!😮💨😮💨😮💨
有40億美元我還不放著給他生利息就可以過上好日子了,幹嘛瞎折騰
早說嘛!原來這麼簡單,明天就來搭建一套😂
赞,我就知道有人有一片园区的😁