Meta、OpenAI和微软于当地时间周三,在AMD投资者活动上表示,他们都将使用AMD最新开发的人工智能芯片InstinctMI300X,这是迄今为止科技公司正在寻找昂贵的英伟达图形处理器替代品的最大迹象。
英伟达图形处理器对于创建和部署像OpenAI的ChatGPT这样的人工智能程序至关重要,但考虑到成本,很多科技公司都在寻找替代品。
如果AMD最新的高端芯片InstinctMI300X能在明年初开始出货,足以满足构建和服务人工智能模型的科技公司和云服务提供商的需求,它可能会降低开发人工智能模型的成本,并对英伟达不断飙升的人工智能芯片业务形成竞争压力。
AMD首席执行官苏姿丰周三表示:“所有的关注点都集中在云计算所用的大型处理器和大型GPU上。”
AMD表示,MI300X基于一种新的架构,这种架构通常会带来显著的性能提升。它最显著的特点是拥有192GB的尖端高性能HBM3内存,传输数据速度更快,可以适应更大的人工智能模型。
在周三的分析师活动中,苏姿丰还直接将MI300X及其构建的系统与英伟达推出的主流人工智能GPU芯片H100进行了一番比较。
就基础规格而言,MI300X的浮点运算速度比H100高30%,内存带宽比H100高60%,内存容量更是H100的两倍以上。
当然,MI300X对标的更多是英伟达最新的GPUH200,虽然规格上同样领先,但MI300X对H200的优势就没那么大了,内存带宽仅比后者多出个位数,容量比后者大近40%。
苏姿丰认为:"这种性能可以直接转化为更好的用户体验,当你向模型提问时,你希望它能更快地回答,尤其是当回答变得越来越复杂时。"
AMD目前面临的主要问题是,一直以英伟达为基础的公司是否会在另一家GPU供应商身上再投入时间和金钱。“采用AMD还需要努力“,苏姿丰说。
AMD告诉投资者和合作伙伴,公司已经改进了名为ROCm的软件套件,这为与英伟达CUDA软件竞争,解决了一个关键缺陷。
芯片价格也很重要,周三AMD并没有透露MI300X的定价。目前英伟达GPU芯片每块售价约为4万美元。苏姿丰表示,为了说服客户购买,AMD的芯片价格必须比英伟达更低,运营成本也更低。
周三AMD还表示,已经与一些最需要GPU芯片的公司签订了使用协议。根据研究公司Omidia最近的一份报告,Meta和微软是2023年度英伟达H100GPU芯片的两大买家。
Meta表示,它将使用InstinctMI300XGPU来处理人工智能推理工作负载,如处理人工智能贴纸、图像编辑和操作助手。微软首席技术官凯文·斯科特表示,微软将通过Azure网络服务采用MI300X芯片。甲骨文的云计算也将使用这种芯片。
OpenAI表示将在一款名为Triton的软件产品中支持AMD的GPU芯片。Triton不是像GPT那样的大型语言模型,而是用于人工智能研究。
AMD目前还没有对这款芯片的大规模销售做出预测,仅预计2024年数据中心GPU的总营收约为20亿美元。相比之下,单单最近一个季度英伟达的数据中心营收就超过140亿美元,不过这一数据中还包括GPU以外的其他芯片业务。
然而AMD表示,未来四年人工智能GPU芯片市场的规模可能会攀升至4000亿美元,是公司此前预期的2倍。这表明业内对高端人工智能芯片的期望很高,也正是AMD现在将投资者的注意力集中在产品线上的原因。
苏姿丰还对媒体坦然地说,AMD不需要击败英伟达,也能在市场上取得好成绩。言下之意就是,第二名也可以活得很好。
她在谈到AI芯片市场时表示:“我认为可以明确地说,英伟达现在肯定是市场的领导者,我们相信,到2027年,这个市场的规模可能会达到4000多亿美元。我们可以从中分得一杯羹。”