首页 > 事件详情

阿里巴巴-W(9988.HK):2024阿里云栖大会:拥抱AI新浪潮 推动产业全新升级

09-22 00:00 218

机构:中信建投证券
研究员:崔世峰/于伯韬

  核心观点
  2024 云栖大会以AI 为焦点,围绕AI 相关技术、大模型发展、AI 对多行业的推动与重塑等主题进行探讨与分享。阿里云以AI 为中心进行产品线升级,力求抓住本次新技术革命机会。模型方面,阿里云打造全尺寸、全模态、多场景的通义模型大家族。
  相关设施方面,AI Infra 系列产品以AI 为中心进行创新与升级,打造适配AI 的最强基建以满足快速增长的AI 基础设施需求。数据库方面,发展Data+AI 驱动的云原生数据库,满足客户多模态数据一站式管理。云安全方面,进行全线产品升级并首次推出云原生网络检测与响应产品NDR。
  事件
  2024 阿里云栖大会于9 月19-21 日以“云启智跃,产业蝶变”为主题在杭州召开。本次云栖大会设置三场主论坛与近40 0 场并行话题与论坛, 展馆分别围绕“人工智能+”、“计算”与“前沿应用”三大主题,带来了1000 余项科技展品,呈现了一场涵盖芯片、大模型、云储存、云计算、机器人与智能驾驶等多个前沿领域的盛宴。
  简评
  本次大会以AI 为焦点,指出AI 的快速迭代将深刻影响物理世界的产品与生产力,伴随的计算架构体系的根本性变革将带来大量AI 相关基础设施需求。阿里巴巴集团CEO 兼阿里云智能集团董事长与CEO 吴泳铭指出:“过去22 个月,AI 发展的速度超过任何历史时期,但现在依然还处于A GI 变革的早期阶段。”目前大模型技术快速迭代,模型推理成本指数级下降、远超摩尔定律,但为实现下一代AGI 模型,全球先进模型的投入门槛将达数十亿以上。除却数字世界,物理世界中也将形成具备A I 能力的全新产品,并与云端AI 产生协同效应,这将对产业与生产力带来革命式的变革。汽车与机器人是可以预见将迎来巨变的行业。
  不同于过去以CPU 主导的计算体系,未来几乎所有软硬件的计算内核将采用GPU AI 算力为主、CPU 传统计算为辅的计算模式。
  50%以上的新增需求由GPU AI 算力驱动,大量存量应用也在用GPU 重新改写。为了应对井喷的对性能更强、规模更大、更适应AI 的基础设施的需求,阿里云已拓展单网络集群至十万卡级别,并从芯片、服务器、网络、存储到散热、供电、数据中心等多个方面,重点投入与打造适应未来A I 的先进基础设施。
  阿里云AI Infra 系列产品以AI 为中心进行创新与升级,打造适配AI 的最强基建。通过全栈优化,阿里云打造出一套稳定和高效的AI 基础设施,实现连续训练有效时长大于99%,模型算力利用率提升20%以上。磐久AI 服务器,支持单机16 卡、显存1.5T 与3.2T 带宽,并能提供AI 算法预测GPU 故障,准确率达92%;为A I设计的高性能网络架构HPN7.0,可稳定连接超过10 万个GPU,其中,集合通信性能提升1 倍以上, 模型端到端训练性能提升10%以上;阿里云CPFS 文件存储,数据吞吐20TB/s,为AI 智算提供指数级扩展存储能力。通过底层计算、存储、网络等基础设施的升级,阿里云灵骏集群可提供最大10 万卡超大规模、超强性能的智能算力,万卡规模性能线性度超过96%,并行存储吞吐20TB/s,万卡规模下网络带宽利用率超过99%,可支持单集群十万卡级别AI 算力规模。面向A I 业务,阿里云计算产品也大幅演进更新。容器服务ACK 面向AI 实现重磅升级,大模型应用冷启动延迟降低85%,并可提供15000 个超大规模节点支持。同时,容器计算服务A C S 将首次推出GPU 容器算力,通过拓扑感知调度,能实现计算亲和度和性能的提升;人工智能平台PAI,已实现万卡级别的训练推理一化弹性调度,AI 算力有效利用率超90%,能全面提升模型训练和推理的效率。阿里云发布全新的弹性计算产品家族,基于全面升级的云基础设施处理器CIPU2.0,通用计算、加速计算、容器计算等三大弹性计算产品系列均实现性能大幅提升.为了应对以GPU 为代表的加速计算快速增长的需求,阿里云发布CIPU 2.0芯片,带来整机稳定性提升20%,IOPS 提升至360 万,带宽从200 万上升至400 万,推理效率提升的同时安全能力也全方位增强。通用计算方面,与AMD 与Inte l 合作,最新发布两款第九代ECS 企业级实例,We b 应用提升20%,数据库能力提升17%,搜索推荐提升30%%。大数据提升20%。同时,倚天ECS 实现全栈优化,大数据场景与视频转码场景分别提升14%与30%。容器服务方面,企业级容器实现全场景覆盖,冷启动时间降低8 5% ,扩容效率提升25%。存储方面,OSS 进行了面向AI/M L 负载的优化,实现了面向Python & go 语言性能提高30倍。
  大力发展基础模型、模型服务、模型应用与模型社区复合体,打造全尺寸、全模态、多场景的通义模型大家族。通义千问生态已逐步形成,Qwen2 模型累计下载量超4 千万;全新升级开源模型Qwen2,5,可生成万字报告,数学和代码能力大幅提升。结合大语言模型,在多个垂直领域推出多模态模型:包括能实现文图关联、具备强理解能力的视觉语言模型Qwen-VL;能充分理解对话、音乐与噪声的的大规模音频语言模型Qwen-Au d io;数学能力超过GPT 4O 和其他开源模型能力的数学专项大模型Qwen-Math;代码能力达到同尺寸最优能力的Qwen-Coder。Qwen 通义万相Wanx 视觉生成大模型的能力也全面升级,全新推出文生视频能力,可生成2 0 秒1080p 的视频,涵盖多种场景与艺术风格。在模型应用方面,通义灵码升级扩展AI 程序员能力,可自主完成从需求理解、编码实现到自主测试的研发流程;通义听悟与通义将分别升级实时记录与实时阅读助手能力; 通义AI 翻译助手推出同声与交互式实时传译功能;通义视频通话结合语言模型推出聊天伴侣。而模型服务方面,阿里云百炼大模型服务平台实现模型调用和企业级调用的结合,提供以模型为中心的开发范式,包括增强工作流与智能体编排能力,并精细化运营工具、辅助观测与优化应用效果。同时,通义千问推荐模型Qwen-Plus 和Q wn -Turbo 将全面降价,最高降幅达85%。模型社区方面,魔搭社区已经成为中国最大的模型社区,已具备10 0 0 0 余模型与690 万余开发者用户。
  从数据到智能,阿里云打造Data+AI 驱动的云原生数据库。阿里云打造了一站式多模数据管理平台DM S,通过DMS+X,可以实现开放统一开源的多模数据治理,同时数据在引擎之间的流转可以实现数据加工、特征提取,直到编排服务的一站式的管理,进而帮助企业构建跨云的、跨环境的、跨引擎、跨数据类型的数据库。在DMS 的框架下,阿里云以内存、存储与计算全面解耦、全栈池化为核心理念,针对不同需求打造差异化引擎。
  云原生 Serverless 以弹得更快、弹得更稳、弹得更广、弹得更细为核心进行全面升级,内存池已经可以支持 100TB 的远端共享且读写访问一致,获得中国大陆首次ICDE 2024 的最佳工业界论文奖。PolarDB AlwaysOn 全球首次实现了大规模商业化的多主多写,充分体现了三层解耦架构的优势。Lindorm 在2024 年取得显著进展,已经覆盖国内65%的车企与60%以上的生成式AI 独角兽,包括理想、蔚来和百川智能等多家企业;从客户视角Lindorm 真正可以实现多模态数据的统一入口、统一存储、统一管理,进而支持更复杂、更多样的智能应用的开发。Tair serverless KV 服务重磅发布,迎合在AI 应用的爆发、推理服务的增长的市场环境,面向大模型推理服务提供缓存加速。
  云原生安全能力全线升级,首次发布云原生网络检测与响应产品NDR。云时代复杂的IT 体系、碎片化的  安全工具和传统的防护思路,以及新技术和新威胁带来的多重变化是云安全领域的痛点,针对这些问题, 阿里云提出云安全“三体化”战略:基础设施安全一体化、安全技术域一体化、与办公安全和生产安全一体化。原生NDR 全面提升了云环境全流量防御能力,相对于传统第三方产品,其无需部署即可即时开通,且可以针对攻击事件及攻击发生前后流量进行取证保存,兼顾留存需要与成本投入,进而进行溯源和关联分析,帮助客户更快发现高级网络威胁。阿里云还加强了WAAP、云安全中心、DDo S 防护等能力,并且对数据库、网络C DN、计算、存储等云原生产品的安全能力也进行全新升级。目前,阿里云已经成为Fo rrester、Ga rtner、IDC 三大国际权威机构认可的全球安全能力最完整的厂商之一。
  盈利预测与估值:预计FY2025-2026 阿里巴巴的收入增速分别为8.6%和8.62%,Non-GAAP 净利润增速分别为-2.5%和18.22%。采用分部估值法,对应淘天集团、云智能集团每ADS 估值分别为103.17 美元和13 . 3 4 美元,目标价为116.51 美元/ADS,对应港股113.48 港币/股。
  风险提示:股东回报不及预期,回购低预期,分红低预期,SBC 超预期;宏观经济及社零增长疲弱;美联储降息进程低预期;国内电商市场份额持续超预期下行;CM R 增长低预期,淘天集团利润率低预期;海外电商市场竞争激烈,AIDC 亏损超预期;海外关税政策调整影响AIDC 增速;菜鸟集团亏损超预期;阿里云收入增速持续低预期,利润率提升不及预期;AI 对于云计算业务拉动作用有限;行业监管风险;蚂蚁集团征信牌照和金控牌照落地进度低于预期;中美关系发展的不确定性;中概股退市风险。