找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 125|回复: 0

[科技新闻] 首次使用“非英伟达”芯片!OpenAI租用谷歌TPU,降低推理计算成本

[复制链接]
  • 打卡等级:已臻大成
  • 打卡总天数:411
发表于 2025-6-28 11:32 | 显示全部楼层 |阅读模式

马上注册,查看更多内容,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

×
英伟达的芯片主导地位正被侵蚀,OpenAI租用谷歌TPU,为首次大规模使用“非英伟达”芯片。
周六,据媒体报道,作为全球最大的人工智能芯片客户之一,OpenAI近期开始租用谷歌的TPU芯片为ChatGPT等产品提供算力支持,这是该公司首次大规模使用非英伟达芯片。
据知情人士透露,此次合作安排使得OpenAI缓解对微软数据中心的依赖,同时为谷歌的TPU提供了挑战英伟达GPU市场主导地位的机会。OpenAI希望通过谷歌云租用的TPU芯片降低推理计算成本。
随着ChatGPT付费订阅用户从年初的1500万增长至超过2500万,加上每周数亿免费用户的使用,OpenAI的算力需求正在快速攀升。
值得一提的是,越来越多公司正在开发推理芯片以减少对英伟达的依赖并长期降低成本。亚马逊和微软,以及OpenAI和Meta等大型AI推理芯片都已启动自主研发推理芯片的计划,见闻此前文章提及,微软造芯计划受挫,Maia 100目前仅用于内部测试,Braga的AI 芯片面临至少六个月的延迟,且预计其性能将远低于英伟达Blackwell芯片。
OpenAI需求激增推动转向谷歌芯片

OpenAI主要通过微软和甲骨文租用英伟达服务器芯片来开发训练模型并为ChatGPT提供算力。 据了解,该公司去年在此类服务器上的支出超过40亿美元,其中训练和推理成本各占一半,预计2025年在AI芯片服务器上的支出将接近140亿美元。
谷歌TPU转向的直接推动因素是今年早些时候ChatGPT图像生成工具的爆红,这给OpenAI在微软的推理服务器带来了巨大的压力。为了应对不断增长的计算需求和成本压力,OpenAI首先寻求了谷歌云的支持。
据谷歌云员工透露,谷歌虽然向该竞争对手开放其强大的TPU芯片,但还是会将更强大的TPU保留给自己的AI团队开发,然后供Gemini模型使用。
谷歌大约10年前就开始研发TPU芯片,并从2017年开始向意识训练自有AI模型的云客户提供这一服务。除了OpenAI外、苹果、Safe Superintelligence和Cohere等公司也一直租用谷歌云的TPU,部分原因是这些公司的一些员工在谷歌工作,熟悉TPU的运作方式。
据知情人士透露,同样是全球最大AI芯片客户之一的Meta近期也考虑使用TPU。
此外,谷歌云还向其客户出租英伟达支持的服务器,因为英伟达芯片是行业标准,这样做带来的收益仍然比出租TPU多得多。开发者对控制这些芯片的专用软件更加熟悉。谷歌此前已向英伟达订购了超过100亿美元的最新Blackwell服务器芯片,并于今年2月开始向部分客户提供。
本文来自华尔街见闻,欢迎下载APP查看更多
您需要登录后才可以回帖 登录 | 注册

本版积分规则

文字版|手机版|小黑屋|RSS|举报不良信息|精睿论坛 ( 鄂ICP备07005250号-1 )|网站地图

GMT+8, 2025-7-19 09:34 , Processed in 0.133276 second(s), 4 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表