来源 / Alter
2024年注定是云计算发展的关键时间节点。
过去两年多时间里,云计算行业被讨论最多的话题就是“降价”,在市场增速放缓,甚至有企业高呼“下云”的背景下,云厂商纷纷打出了“价格牌”,导致整个行业陷入到了“低水平内卷”的境地。
进入2024年后,在大模型的促进下,千行万业的智能化转型愈演愈烈,而云化算力作为灵活高效、性价比极高的算力资源获取方式,正在成为各AI厂商新的算力底座。如果说芯片是智能时代的“石油”,那云化算力就是AI发展的“新能源”。
新旧业态的转变,对云计算的影响绝不仅仅是舆论层面,属于云计算的“黄金时代”或许才刚刚开始。
01 云计算的“第二增长曲线”
生成式AI正在席卷千行万业,想要拿到通往新时代的船票,“上云”可以说是第一选择。生成式AI需要云计算,也为云计算提供了新的驱动力。
直接的例子就是坐上OpenAI“副驾驶”的微软。
4月25日,微软发布了2024财年第三财季的财报,微软云业务的整体收入为351亿美元,同比增长23%;智能云业务部门收入达到267亿美元,同比增长21%,其中Azure和其他云服务的收入增长31%,AI对Azure的收入贡献提升至7%,高于2024财年第二财季的6%和第一财季的3%。
人工智能释放出的增长推动力,让华尔街的分析师们普遍对微软持有乐观态度。券商Wedbush的知名科技分析师Daniel Ives直言:“未来6到12个月内,人工智能用例可能会在整个企业领域呈爆炸式增长。我们将此视为微软的’iPhone时刻’,人工智能将改变微软未来几年的云增长轨迹,我们对此充满信心。”
一个礼拜前结束的WWDC 2024,进一步印证了这样的趋势。
从苹果公布的AI战略来看,全场最大的亮点莫过于和ChatGPT的整合:用户可以呼唤Siri,以及在全系统的写作工具中调用ChatGPT,实现聊天机器人、图像生成等功能,且这些需求会上传到OpenAI的数据中心,在云端完成。也就意味着,AI推理将长期以“云端为主”,至少是三到五年中的常态。
事实上,国内市场也早有准备。
比如华为云在2023年9月上线的昇腾云服务,除了满足基础的AI算力需求,还提供了高效长稳的大模型训练环境和完备的工具链,千亿参数行业模型的端到端开发,从过去的5个月缩短到了1个月。
同样做出选择的还有大模型厂商。有别于2023年初疯狂囤芯片的景象,越来越多的大模型厂商开始在云上训练和推理。比如估值超过25亿美元的MiniMax,没有购买任何GPU,而是以相对便宜的价格租赁云算力。
不只是云厂商和大模型厂商,走在AI第一线的大中型企业,也已经将AI和云作为战略方向。
借用奇瑞汽车股份有限公司副总经理戴闯的说法:“预计未来5年智能网联汽车将超过90%的渗透率,将累计上万PB的数据量。汽车行业的数据价值挖掘不充分,所以奇瑞认为以AI推动的创新是必然之路,基于云服务的自动驾驶数据闭环平台,围绕算力、算法、数据构建了端到端的AI底座。”
如果将资源上云、应用上云看作是云计算的“第一增长曲线”,急剧增长的生成式AI需求,将为云计算带来“第二增长曲线”,在基础资源需求逐渐饱和时,为云计算行业开辟了新的增量市场。
02 云上AI成为“最大公约数”
必须回答的一个问题是:满足算力需求的方式有很多,譬如自建算力中心的方式,为什么大大小小的企业要选择云上AI算力呢?
似乎有必要回顾下互联网的商业简史。
在PC互联网初期,一台服务器就足以撑起一个网站。到了移动互联网时代,智能手机的普及进一步扩充了网民群体,形成了一个又一个月活上亿的超级应用。正是在这一时期,云计算开始走进人们的视线,提供了一种比传统机房更灵活、更弹性的资源获取方式。
移动互联网的商业模式是“以终端为中心”的,智能手机的保有量某种程度上就是移动互联网的上限。而生成式AI的特征是“以智能为中心”,借助自然语言的交互范式,手机、电视、汽车、空调等任何终端都可以是交互入口,算力需求注定会爆炸性增长。
“计算”量的指数级增长,也带来了建设周期、运维、散热等一系列挑战。
以大模型训练为例,通常需要数千张GPU,基于TB级别的数据,耗时几个月进行训练。一旦出现硬件故障、电源中断、数据传输问题,训练过程可能会被打断,导致长时间的等待和之前计算资源的浪费。
无法绕开的还有算力中心的散热问题。AI服务器的功率密度远超通用服务器,单机柜的功耗是过去的6-8倍。在“绿色数据中心”的政策限制下,需要专用的液冷系统进行散热,以降低PUE(能效比)。
两相比较的话,云计算有着近乎“降维打击”的优势。
比如在算力交付方面,华为云芜湖数据中心在全球首创了机房产品化交付模式,将电力、AHU制冷等模块化,把电缆管道预制化,可实现极速交付,并将交付过程中的质量问题降低了90%;在运维层面引入IOT技术,实现了告警秒级上报、故障分钟级定位;在散热方面,华为云首创了云服务感知能效调优技术,AI智能调优精度高达99.5%,可使PUE降低8%到15%……
身为“局内人”的科大讯飞董事长刘庆峰,对此有着深刻认识:“下一步我们还有更多任务要开发,更多算力要用,在我们自己建算力集群之后,我们发现在华为云上做训练推理建设比自己做更轻松、效率更高,更能满足短时瞬间的规模化算力应用之后,释放波峰波谷(减少能耗闲置,算力削峰填谷),对整个行业都是效率最高的。”
大模型及相关应用是迄今为止最复杂的软硬件系统工程,需要系统性创新才能应对。云上AI算力作为一种高效、灵活、可扩展的解决方案,无疑是打破算力瓶颈的最优解,并因此成为产业上下游的共识。
03 下半场将比拼“算力服务”
云计算价值和演进方向的悄然变化,意味着游戏规则也将同步更新:不再是拼价格的“低水平内卷”,而是进入比拼“算力服务”的新赛段。
其中的一个关键赛点在于,能否提供“无处不在”的算力服务以及全栈AI能力。
为何不少企业倾向于自建算力中心,原因之一就是对时延的苛刻要求。大模型训练时常常需要几个TB的数据传输,没有哪家企业甘愿被带宽和时延卡了脖子。况且大模型将有90%以上的算力需求用于推理,如果时延过长,将导致推理过程的延迟,直接影响响应效率和用户体验。
这也就成了云厂商们“卷”的新方向。
譬如6月14日正式开服的华为云华东(芜湖)数据中心,不仅标志着华为云全国存算网布局的全面完成,还画出了一个覆盖华东、华中等算力高地的10ms时延圈,时延圈内的对时延要求非常高的AI推理、电商、游戏等行业,都可以一键接入。
除了在物理上降低时延,通过多级恢复机制、完备的工具链等保障服务的连续性、稳定性,也是保障算力服务“无处不在”的思路。
以昇腾云服务为例,为大模型和AI应用的开发运行提供了资源获取快、模型迁移快、故障修复快等六大AI支撑能力,实现了模型训练一键接入多个算力中心、出现故障可以在10分钟内恢复、推理服务就近接入相应的AI算力中心等服务,保障AI企业在任何地方都能享受即开即用的澎湃算力。
另一个不应忽略的赛点是“解决行业难题”的能力。
拥有全栈AI能力的华为云,可以说是最早给出答案的云厂商之一。
而对于庞大中小企业的需求,华为云的全栈AI能力可提供从云化算力、模型开发、模型托管到生态的全栈服务,提供ModelArts Standard(一站式AI开发服务)、ModelArts Lite(高性价比算力服务)等多种模式,帮助企业实现训推一体。
也就是说,华为云打造的“AI基建“能力覆盖了模型开发的全流程,企业无需投资通用AI技术,省去了在山路上摸爬滚打的时间可以直接上AI高速公路。
简单做个总结的话:相比上一次的红利期,生成式AI浪潮催生出的“蛋糕”更大,对云厂商的筛选也将更为严格。既需要先进的存算网络,有能力保障不断增长的算力需求,也需要在技术和模式上同步创新,真正帮助企业“解难题,做难事”,让AI重塑千行万业。无数个带着问题和需求上云的客户,将加速向技术派云厂商转移。
04 写在最后
回到文初的话题,为什么说云计算的“黄金时代”才刚开始呢?
就现阶段而言,云计算的增长引擎已经从价格渠道逐步向需求驱动、价值驱动转变,势必会倒逼云厂商改变市场策略,将资源投入到核心领域,继而从“低水平内卷”重回理性增长的轨道。
把视角再放长远一些,AI对云计算的“颠覆”才露出冰山一角,过去的云服务是以功能为中心的,譬如CRM、客服系统、OA等等。未来将是以场景为中心,基于大模型的能力,打破功能上的边界,深入场景解决问题。彼时,云计算将渐渐剥离资源属性,成为智能世界的“底层系统”。
原创文章,作者:,如若转载,请注明出处:https://knewsmart.com/archives/303151