世界最强AI集群,马斯克建成了! 这一爆炸消息,由老马在推特上亲自官宣。
这一规模已远超世界最强超算Frontier。 xAI的创始成员紧随其后表示:
马斯克帖子下,和英伟达关系密切、擅长液冷技术的超威(Supermicro)也发来祝贺。其创始人查尔斯·梁表示:
同时,马斯克补充说,该集群的建成,为在今年内训练出全球最强模型提供重大优势。 按照此前说法,训练Grok-3正需要10万张H100。 △集群俯拍图不止于此,今年6月,他曾提到为了H100投入1GW电力是不值当的。明年夏天,可能要投入使用由30万块B200组成的集群。 自建集群更有底气 今年5月,The Information消息称马斯克要在2025年秋季前建成一个由10万H100组成的超算集群,与甲骨文进行合作。 消息称,xAI将出资100亿美元用来租用甲骨文的服务器。 当时还有人质疑,为啥明年建成但还要用上一代技术? 英伟达已经推出了基于Blackwell新架构的B100和B200,训练大模型的效率远超H100。 如今来看,说不定是消息中的时间有误?如果是今年落成就合理多了。 就在最近,马斯克回应了和甲骨文终止合作建设超算集群的消息。 他表示,xAI从甲骨文拿到了24000块H100的资源用来训练Grok-2。相关消息证明,xAI和甲骨文之间的服务器租用合作还在继续。 但是在10万卡H100集群的建设上,选择了自建模式,而且以最快速度推进,据说10万张卡安装完毕只用了19天。
之后消息显示,戴尔和超微成为了马斯克的新合作商。 戴尔CEO、超微CEO最近都在推特表示,正在进行合作,并配上了数据中心的照片。 集群建设过程中,马斯克亲自去过现场。 同时也在推特透露过Grok正在孟菲斯训练,Grok-2将在8月推出。 值得一提的是,此前甲骨文对集群落成地点的电力供应提出担忧。 按照估算,10万块H100需要从电网分配到150兆瓦电力,不过马斯克似乎已解决这一问题。 最新消息显示,目前集群暂时拿到了8兆瓦。8月1日签署协议后将拿到50兆瓦。现在已经有32000块卡在线,第四季度将100%在线——这足以支持GPT-5规模模型训练运行。 总之可以肯定的是,AI巨头们都认为,算力握在自己手里更可靠,为此值得疯狂烧钱。 按照成本估算,每块H100的价格约为3-4万美元。马斯克的超算集群,价值将达40亿美元(折合人民币超290亿)。 早前消息称,微软和OpenAI正在制定一项耗资达1000亿美元的数据中心项目名为“星际之门”。 知情人士透露,甲骨文和微软之间正在达成一项交易,涉及10万块B200。这一集群可能在明年夏天准备就绪。 除此之外,如Meta也被曝出过豪华超算集群,AWS等云厂商也在数据中心上的投入更大。 本文来源:量子位 |
原创栏目
IT百科
网友评论
聚超值•精选