哈希游戏- 哈希游戏平台- 哈希游戏官方网站
训练生成式AI模型所需的巨大算力依赖于10万个到100万个XPU的大规模集群。这些XPU需要越来越复杂的计算、内存和I/O功能集成,同时最大限度地降低功耗和成本。在过去十年中,2.5D集成——涉及在中介层上集成多个芯片(面积高达250mm²)和HBM模块(高达 8 HBM)——已被证明对XPU的开发很有价值。然而,随着渐趋复杂的LLM(大型语言模型)推出,它们的训练需要3D硅堆叠,以达到更好的尺寸、功率和成本。因此,将3D硅堆叠与2.5D封装相结合的3.5D集成,有望成为未来十年下一代XPU的首选技术。
博通在人工智能市场的成功很大程度上归功于其定制硅片解决方案和高速网络产品。它已成为主要科技巨头的人工智能芯片的主要供应商,其XPU技术在超大规模客户中越来越受欢迎。博通还指出,芯片市场正从以CPU为中心转向以连接为中心,而后者正是博通的专长。Piper Sandler分析师Harsh Kumar也看好博通:「我们继续认为博通是最好的AI公司(不包括英伟达),因为它在定制ASIC业务中占据强势地位,并且拥有强大的软件产品组合」。
与此同时,随着AI大模型训练数据渐趋枯竭,AI领域的任务从训练端逐步转向推理端。有行业人士指,这一转型或意味着人们对芯片的计算精度要求相对可能降低,但对计算速度、能效成本等要求提高,而能以较低功耗实现快速推理计算的ASIC正好满足这一需求。对此,博通CEO Hock Tan预测:未来50%的AI算力都会是ASIC提供。他更放言:2027年市场对定制AI芯片ASIC的需求规模将达600亿至900亿美元。
英伟达竖起的坚固壁垒,靠的不仅是其通用芯片,还有平台衍生出的庞大软件生态。英伟达公认的强大「护城河」CUDA,作为一种专门用于加速GPU运算的专利软件技术,能让工程师省下大量撰写低阶语法的时间,直接使用诸如C++或Java等高阶语法,来编写应用于通用GPU上的演算法,解决平行运算中复杂的问题。这一软件配以英伟达的GPU和网络传输NVLINK——后者是一种高速、低延迟的互联技术——三张王牌合力,强大的软硬件协同完善的生态,巩固其广泛的客户群体。