你的位置:九游娱乐(中国)有限公司-官方网站 > 新闻 >

j9九游会并以为这是一项极具远景的工夫-九游娱乐(中国)有限公司-官方网站

j9九游会并以为这是一项极具远景的工夫-九游娱乐(中国)有限公司-官方网站

(原标题:亚马逊云科技“反攻”:投资、投资再投资,从“云期间”向“AI期间”决骤)

21世纪经济报说念记者倪雨晴 西雅图、深圳报说念

硅谷和西雅图是好意思国AI的两大高地,顶尖的AI工程师掀翻了一波波波澜。

OpenAI在硅谷的楼里洞开AI魔盒、谷歌的Transformer架构为大模子奠定基础;通盘向北,西雅图的微软、亚马逊正在从“云期间”往“AI期间”决骤。

尤其是2024年的亚马逊云科技(AWS),营收体量依然接近1000亿好意思元,2024年第三季度的营收同比增长19%。但本钱阛阓是尖刻的,对比微软Azure等云职业同期33%的增幅、谷歌云35%的增幅时,外界依然会商讨AWS增幅不足同业的影响。

对此,AWS CEO Matt Garman在近期收受21世纪经济报说念在内的媒体采访时谈说念:“如果你从充足限制来看,咱们的业务仍在增长,AWS的业务仍然率先于而且大于所有其他公司的业务,咱们需要不时专注于客户。”

(亚马逊云科技CEO Matt Garman)

对于云阛阓的竞争,他进一步强调,这个阛阓限制浩瀚,它并不是一个“赢家通吃”的行业,这个范畴会有多个赢家,“如果你看和咱们最接近的竞争敌手,比如微软,他们有些举措骨子上是在将现存业务的阛阓份额更动到这个新业务中。因此,并不可进行浮浅类比,需要看其他业务和举座情况。”

同期,Matt Garman指出,面前大致80%到90%的责任负载仍然运行在土产货,对所有的云职业竞争者来说,若何将这部分迁徙到云霄,面前是最大的契机方位。

而AWS并非从零启动,客户教诲蕴蓄是它上风,“但咱们也意志到,必须永久保抓饥渴感,必须不休为客户进行立异。咱们需要不时为客户责怪价钱、增多新功能,同期也要不休拓展地舆隐敝范围。因此,咱们毫不会因为今天是最大的云职业提供商而停驻脚步。”Matt Garman说说念。

在2024年的re:Invent全球大会上,AWS确乎迈出了大按次,推出Amazon Nova系列基础模子并强化Amazon SageMaker、Amazon Bedrock和Amazon Q等中枢职业;告示AI磨砺芯片Trainium2实例认真可用,并推出新一代Trainium3。

刻下,AWS正在AI产业链的各个设施上秣兵历马。正如亚马逊标识性的球体建筑(Amazon Spheres)中华贵孕育的植物,AWS也在构建生成式AI期间热带雨林式的重生态。

投资、投资再投资

AI,毫无疑问依然成为AWS、乃至亚马逊的主题词。就连卸任CEO的亚马逊首创东说念主Jeff Bezos(杰夫·贝索斯),也归来一线,引导AI责任。

在2024年12月的一场媒体访谈中,杰夫·贝索斯久违地出头,并告示我方仍然在亚马逊,并干与好多期间在亚马逊,面前参与的责任中95%聚拢在东说念主工智能。

同在2024年12月,AWS一年中最迫切的re:Invent大会上,亚马逊CEO Andy Jassy也亲身上台,发布新款基础大模子Amazon Nova系列。面前,Nova包括6款大模子,涵盖言语、图像生成和视频生成模子。

此前,AWS依然有Titan模子,面前更多的模子正在路上,不管自家模子照旧第三方模子,都将在其AI应用开发平台Bedrock上提供。

同期,AWS推出的新一代AI芯片Trainium3,将选定3纳米工艺制造。而Adobe、Poolside、Databricks、Qualcomm等企业已大限制干与使用Trainium2。

比拟2023年围绕Bedrock和强化英伟达相助,显着2024年AWS的节拍更快。

谈及AWS的生成式AI策略,Matt Garman提到,AWS在生成式AI方面选定了融为一体的应付步地。

行为在AI范畴深耕20多年的企业,AWS早在十年前就推出了SageMaker,匡助客户在云中构建AI模子。大致两年前,AWS已入部下手尝试生成式AI模子开发,并以为这是一项极具远景的工夫。ChatGPT的出现颠簸了全国,点火了东说念主们的遐想力,调动了客户对AI的看法。

关联词AWS选定了长期布局,而非仓猝中推出功能。AWS信托生成式AI将成为每个应用步调的中枢工夫。此外,Matt Garman强调,他们以为不会有单一模子主导阛阓,斟酌到生成式AI不菲的运行成本,AWS遴荐构建一个平台,确保数据隐痛与安全内置其中,为企业提供更全面的支抓。

2024年AWS确乎在AI范畴火力全开,投资也更凶猛。

在2024年11月底,AI初创明星Anthropic告示与AWS进一步加深相助,同期亚马逊将新增40亿好意思元投资。这意味着,亚马逊对Anthropic的总投资达到80亿好意思元。

在2024年三季度功绩会上,Andy Jassy还默示,2025年预计破耗750亿好意思元在AWS和生成式AI之上。

大笔的本钱支抓,也反馈了AWS要补都AI板块的浩瀚计算。

与此同期,微软和谷歌等巨头也在抓续投资开荒。尽管近日微软CEO纳德拉在采访中默示算力投资要严慎,微软不会胡作非为、鼎力采买,关联词从限制上看依然很可不雅。

摩根士丹利(Morgan Stanley)2024年11月发布的求教自大,亚马逊、Google、Meta和微软2025年的本钱支拨共计将达到3000亿好意思元把握,2026年将进一步增长至3365亿好意思元,这些支拨广阔将干与固定钞票,举例数据中心和房地产。

其中,摩根士丹利将亚马逊2025年本钱支拨预估值调高22%至964亿好意思元,主如果数据中心加码采购AI GPU与职业器,2026年预估将进一步增长至1050亿好意思元。

从数据中也能看出,亚马逊正在加速干与,关联词生成式AI能否达到如斯高的答复,也成为本钱阛阓的拷问。

对于投资答复问题,Matt Garman默示,刻下客户案例中依然初现生成式AI的后劲。这并不单是是“请为我写一首对于咖啡杯的俳句”这样的浮浅应用。尽管诡计机步调能够生成这些内容,这种身手虽风趣,但并非能守旧万亿好意思元阛阓的想法。如今,AWS依然看到了一些骨子案例的出现,比如在医疗范畴,一些公司依然诈欺生成式AI尝试冲破性的揣摸。

在Matt Garman表看来,尽管许多模子的身手尚不够强劲,器用仍需完善,数据的应用也有待优化,但从投资角度来看,这是一条正确的说念路。这些工夫正不休朝上,经验了从第一代到第四代的抓续更正。信托这种趋势将不时下去,生成式AI将带来深刻的影响。

“6页文档”和芯片旅途

在Matt Garman谈完策略后,西雅图市中心一家历史悠久的餐厅Virginia里,AWS副总裁兼特出工程师James Hamilton向记者叙述了AWS Silicon(芯片)的出生。

James Hamilton在AWS里面亦然颇具传说颜色的东说念主物,在他走动责任和家庭(一艘汽船)的路上,日常会来到Virginia。用他的话说,AWS Silicon,也等于芯片业务等于在这家餐厅起步的。

“我每周会有2到3次来到Virginia,和初创公司、供应商、客户等东说念主会面,花一个小时详备了解别东说念主的东西。我总能学到一些东西,偶尔我也会有新想法,在这里还遭逢了竖立AWS硬件部门的伙伴。”James Hamilton说说念。

因此,他遴荐在Virginia和媒体交流AWS的芯片职业,在十年前,即2013年把握,他提倡让亚马逊投资芯片,还写了一份“6页文档”(6 page document)。

亚马逊里面有一个独有的“6页纸”(6 pager)文化,包括研发团队的工夫工程师都要写文档,文档从分析客户需求启动动手。而当会议启动时,专家先埋头读文档20分钟把握,然后再进行发问相通设施。

James Hamilton回忆说念:“那是2013年8月,依然是很久以前的事了。那时AWS的CEO Andy Jassy让我整理一份文档,要点是硬件立异,而咱们那时是一家软件公司。他是一个具有前瞻性想维的东说念主,他以为硬件是这个行业的迫切构成部分。因此,我写了这份文档,并向Jeff Bezos、Andy Jassy以及AWS团队的科罚层进行了展示。”

这份文档中有两个基本论点,第一个论点是“限制老是胜出”,超越货量会鼓励立异。他以ARM处理器为例,面前每部手机、每台电视里都有一个ARM处理器,它们无处不在,面前ARM出货量已超2000亿个。

第二个论点是公司需要立异职业器,简化团队的责任历程,“咱们但愿从硬件最底层、从职业器的中枢启动进行立异,为客户创造独有的价值,必须要这样作念。2013年于今,所有的立异和组件都被整合到芯片上。”James Hamilton谈说念。

AWS诡计与收罗副总裁Dave Brown进一步默示,AWS于2017年启动开发第一款生成式AI芯片Inferentia,这亦然一款专注于机器学习的芯片,于2019年推出,“咱们一直在追求的标的是,匡助客户每花一好意思元得回更多性能。这有点像畴昔的摩尔定律,但摩尔定律基本上在2003年把握就依然失效了,咱们都收受了这少许。但AWS定律是新的,它一直在抓续发展。”

他还提到,AWS将芯片从流片到数据中心部署的周期裁减至一两个月,大幅加速了开发进度,匡助客户更快得回性能普及。以Graviton系列为例:2018年推出第一代,2019年推出第二代,如今第四代芯片已于2024年头发布。AWS大致每18个月推出一款新的Graviton芯片,涵盖从遐想、流片到部署,再到为客户提供职业的无缺历程。

此外,AWS还有自研AI磨砺芯片Trainium系列,最新的Trainium3基本上所有遐想都会围绕生成式AI。而在芯片层面,绕不开的话题等于和英伟达等芯片巨头的竞争,刻下不管AWS、谷歌、微软,都依然有我方的芯片业务,大多是用于自家业务,关联词AWS的芯片和职业器对外售售。

谈及竞争,Dave Brown复兴说念,NVIDIA、Intel和AMD是AWS最精致的相助伙伴之一,客户在AWS可遴荐Intel、AMD或Graviton,每种有辩论都有不同的优流毒。部分客户遴荐Intel或AMD以诈欺x86架构和成本省俭,而另一些客户则倾向于Graviton,因为其可提供约40%的性价比普及。

在AI范畴,这种遴荐权同样适用。有些客户偏疼NVIDIA的生态系统,而另一些客户则尝试AWS的磨砺芯片和Inferentia,以罢了成本省俭并完成更多任务。他还提到,AWS还与Intel相助,使Sapphire Rapids芯片在AWS上的性能普及约18%,AWS与NVIDIA相助推出GB200的集群,用于磨砺大型言语模子和支抓DGX Cloud。

而AWS强调最多的等于多方相助责怪成本,不管是对自身业务照旧客户业务。多位分析师也向21世纪经济报说念记者默示,互联网巨头自研芯片多是出于成本和业务发展斟酌,面前尤其是在推理阛阓上,定制化芯片正在和英伟达变成竞争之势。

在谈及AI推理带来的新需求时,亚马逊云科技大中华区居品工夫总监王晓野告诉21世纪经济报说念记者:“一方面在模子遏抑上,智能体调用时模子身手至关迫切;另一方面在底层,不仅要优化延迟latency,还有少许值得感情,那等于底层算力中CPU和GPU诡计的配比。以前在模子身手优化时,专家多聚焦预磨砺阶段(此阶段GPU使用较多),但如今在优化推理身手时,好多作念法是预磨砺到一定程度后,在后续一步推理中选定强化学习等步地,而且会左证CPU诡计终结来判断和退换,这势必会使CPU算力比例发生相应变化。”

瞻望芯片范畴的工夫趋势,James Hamilton默示:“畴昔几年大广阔立异都聚拢在芯片自身罕见若何收缩尺寸方面。面前,咱们进入了大限制多芯片封装的阶段。刻下感情的要点是,多大限制的多芯片封装骨子可行?咱们若何通过光互连工夫来普及性能?以及接下来四到五年内,这一范畴将会发生什么变化?我异常慑服,这将是畴昔五年内立异的中枢范畴。”

云厂商的“ABCD模子”竞赛

云厂商的竞争如今更加强烈,卤莽咱们不错用“ABCD模子”来量度厂商综称身手的范例。

一位AI资深从业者向21世纪经济报说念记者默示,要在刻下阶段胜出,一家云厂商至少需要具备AI(东说念主工智能)、Business(业务)、Cloud(云诡计)、Data(数据)四项身手,成为“万能型选手”,而非只是专注于某一范畴。

AI行为中枢工夫框架无疑是整个模子的领头看法,各家都在不休发力。但商用的关节性经常被冷落。许多公司盲目投资AI,但愿通过工夫冲破业务瓶颈,正确的旅途应是业务优先,通过明确的业务场景鼓励AI工夫的落地。

从刻下的竞争来看,业务先行方面,亚马逊集团电商垂类业务率先,微软举座增长较快,径直将C端一系列应用迁徙上云。

云则是基础身手,左证Gartner的统计,2023年全球基础设施即职业(IaaS)阛阓上,亚马逊在2023年不时位居IaaS阛阓第一,微软、谷歌、阿里巴巴和华为紧随后来,以39%的阛阓份额不时领跑。

而数据是应用AI的关节,数据的丰富性和种种性径直决定了AI磨砺和应用的后果。亚马逊举座有丰富的电商数据上风,微软数据类型较为种种化,谷歌在数据范畴同样证据出色,依托搜索引擎蕴蓄的海量数据上风,但在云上的证据稍显一般。

举座而言,AWS的上风则在于云的强劲身手,集团电生意务垂直范畴的基础塌实,数据也多元,面前它在AI范畴干与浩瀚,补都相干的短板。对照ABCD四个主义,微软、谷歌也各有优劣。

瞻望畴昔,AI厂商要想实在扩大AI和云的限制,必须更加依赖业务的驱动,这亦然2024年以来业界感情的生意模式话题。

从全球竞争态势来看,AI阛阓的竞争仍在加重。DeepSeek发布的新一代大言语模子DeepSeek-V3,与全球顶尖大模子并排,这标明国内AI初创企业正匠心独具,试图在这场竞争中占据一隅之地。在全球AI名次榜中,OpenAI、谷歌的Gemini、Anthropic等依然占据率先位置,但新的竞争者不休显现,为阛阓注入了新的活力。

与此同期,基础设施的能耗问题成为云厂商发展的新挑战,换言之,ABCD除外,E所代表的动力(Eenergy)也将成为关节身分。

数据自大,在好意思国,基础设施的耗电量面前占电网总负荷的2%,而畴昔十年可能飞腾至6%-7%甚而更多。动力成本和效率依然成为云厂商无法遁藏的问题,影响着基础设施蔓延和AI工夫的部署。

Matt Garman默示,高效诈欺动力是AWS的迫切标的之一。云数据中心相较于传统土产货数据中心,效率更高,诈欺率更强。关联词,畴昔浮浅肯求更多电力的期间依然末端,面前需要从长期角度遐想电力供应,异常是零碳动力的容量问题。AWS将电力遐想延长至2024年、2030年乃至2040年,效用鼓励可再机动力相貌的蔓延。

但风能和太阳能可能不足以满足畴昔需求,核能成为迫切补充。AWS此前与核电厂达成相助公约,并对袖珍模块化反应堆(SMR)进行了大限制投资。这些自包含的反应堆可部署在荟萃数据中心的位置,有用减少电力传输损耗。尽管SMR的部署或需比及2030年,但AWS对后来劲充满期待,视其为畴昔几十年满足需求的关节契机。

谷歌也告示将从SMR 开发商Kairos Power购买电力。微软也与Constellation Energy相助重启三哩岛核电站,为其数据中心供电。

云厂商的竞争已从单一范畴的比拼转向多维度的较量,各大厂商在得当中枢身手的同期,不休寻求立异旅途以应付全球阛阓的挑战和变化。畴昔j9九游会,云厂商的得胜不仅依赖工夫实力,更需在业务驱动、生态构建和动力遐想上罢了冲破。



相关资讯