这是我第一次使用“ No Nvidia”芯片! Openai向Go
作者:365bet体育注册 日期:2025/06/30 11:02 浏览:
谈判行动时,您可以查看Jin Qilin分析师的研究报告。这是授权,专业,及时和包容的,可帮助他利用潜在的主题机会。 资料来源:华尔街新闻
NVIDIA芯片优势是侵蚀,OpenAI是第一个租用Google TPU大规模使用“非nvid”芯片的人。
媒体报道说,周六,作为世界上最大的人工智能客户之一,Openai最近开始租用Google TPU芯片,并为Chatgpt等产品提供计算机能源支持。
据熟悉该问题的人说,合作协议使Openai可以减少其对Microsoft数据中心的依赖,从而为Google提供了挑战NVIDIA GPU市场领域的机会。 Openai希望通过租用的Bygoogle Cloud租用的TPU芯片来降低推理计算机成本。
支付给chatgpt的订阅用户数量已从年初的1500万增加到更多t汉2500万,除了每周使用数亿免费用户外,对OpenAI计算机能源的需求迅速增加。
值得一提的是,越来越多的公司正在开发推理芯片,以减少其NVIDIA依赖并降低长期成本。亚马逊和微软,以及Openai和Meta等AI的大推理芯片,已经开始计划独立开发推理芯片。先前的文章表明,Microsoft Chips制造计划令人沮丧,而Maia 100目前仅用于内部测试,Braga的AI面临至少六个月的延迟,预计其性能将远低于Nvidia的Blackwell。
它出现在Openai的需求变化对Google筹码的变化中
OpenAi DIT主要开发培训模型,并通过Microsoft和Oracle的Nvidia Server芯片提供Chatgpt计算机功率。该公司去年在这些服务器上花费了超过40亿美元,一半OF在每个帐户中花费了一半的培训和推理,预计将在2025年在AI芯片服务器上花费近140亿美元。
Google的直接TPU转向控制器是今年早些时候ChatGpt图像生成工具的普及,对Microsoft OpenAI推理服务器施加了很大的压力。为了满足对计算机科学和成本压力的不断增长的需求,OpenAI寻求Google Cloud支持。
根据Google Cloud员工的说法,Google向其竞争对手开了一个强大的TPU芯片,但将保留AI团队的强大TPU进行开发,并将其用于双子座模型。
Google大约在10年前就开始开发TPU芯片,并一直向云客户提供这项服务,这些客户自2017年以来一直在培训自己的AI型号。OpenAI,安全的超级智能以及Co-Co-Co-Co-Co-Co-Co-Co-co-Co-co-co租用Google Cloud Cloud TPU,以及这些公司的一些员工在Google中工作并熟悉TPU。
根据人民熟悉这个问题,他是世界上最受欢迎的芯片客户之一,目标最近一直在考虑使用TPU。
此外,由于Nvidia芯片是行业标准,因此Google Cloud还向其客户租用了由Nvidia支持的服务器,而且这样做的好处不仅仅是租用TPU。开发人员熟悉控制这些芯片的专用软件。 Google此前订购了Blackwell Server的最后筹码,订购了超过100亿美元的NVIDIA,并于今年2月开始向某些客户提供。
官方NINA Finance帐户
24-最新信息和财务视频的流离失所,以及扫描QR码以关注更多粉丝(Sinafinance)