2025AI行业前瞻报告:Al行业关键时刻,瓶颈与机遇并存

编辑:三茅网 2024-11-29 10:17 665 阅读

一、AI 模型趋势:大小模型互补,预训练市场快速收敛,Scaling Law 新方向 增强推理需求

2024 年大模型厂商推出模型的速度仍在加快,大模型与小模型共存仍是解决模型能力上 限和端侧推理的方案,各大模型厂商也会推出几 B 到 TB 级别的模型。随着大型模型训练 成本的不断提升,且有更多像 Meta、Mixtral、阿里通义等公司的开源,模型预训练市场 的玩家会快速缩小,针对特定任务的微调或者是 Agent 业务将会是更多中小模型厂商发展 的重点。在当前算力和数据 Scaling Law 放缓的情况下,找到新的 Scaling Law 方向是明 年模型发展的重点。

1.1 预训练和现实数据触顶,后训练时代将开启新的 Scaling Law 方向

从 24 年年初开始有论文提出模型能力提升速度随着参数规模的扩大而放缓,到 11 月份 OpenAI 前首席科学家 Ilya 在公开场合表示简单地增加数据和计算能力来扩大当前模型规 模的时代已经结束。但是,预训练的 scaling law 放缓不代表大模型发展速度和算力需求 的放缓,就像是芯片 gate 的实际尺寸停滞在 20nm 并不影响等效 gate 密度达到目前的 3nm,广义的摩尔定律甚至比 20 年前更快,大模型也需要找到具有更高的投入回报比的新 方向。

1.2 方向一:用推理代替思考

OpenAI 于 2024 年 9 月 12 日发布了新的 AI 模型系列 o1,这是 OpenAI 首个具有"逻辑推 理"能力的模型系列,特别擅长处理复杂的推理任务,尤其是在科学、技术、工程和数学 (STEM)领域的问题,在这些领域其评测分数都远远超过 GPT-4o。o1 模型将计算资源从大 规模预训练数据集重新分配到训练和推理阶段,增强了复杂推理能力,在费用和成本上也 进行了重分配,使用 o1-preview 的 API 相比于 GPT-4o 输入 tokens 价格是 GPT-4o 的 5 倍 (每百万 tokens $15.00:$3.00),输出 tokens 差距 o1-preview 的价格是 GPT-4o 的 6 倍(每百万 tokens $60.00:$10.00)。

在 OpenAI 发布 o1 之后,其他大模型公司包括国内的 Deepseek 和阿里通义也发布了类似 通过增强推理阶段的计算资源来提高能力的模型,并且开始有论文揭露底层技术。阿里发 布的 Marco-o1 由思维链(CoT)微调、蒙特卡洛树搜索(MCTS)、自反机制和创新性推理 策略驱动,专门针对复杂的现实世界问题解决任务进行了优化。同时,阿里在 Open-o1 数 据集的基础上进行了筛选,并且使用合成数据方法合成了一个新的 Macro-o1 数据库,用 来监督微调。最终,在应用了蒙特卡洛树微调后,模型在评测上实现了大幅超过了基底模 型 Qwen2-7B 的成绩。

Deepseek 也推出了一款名为 DeepSeek-R1,对标 OpenAI 的 o1 模型,同样是采用"思维链 "技术,可以将复杂任务分解为多个步骤逐一解决,在 AIME 和 MATH 两项基准测试中,R1 的 表现与 o1 相当或更优,但是仍未公布论文和技术详细信息。

1.3 方向二:测试时训练

测试时训练(Test-Time Training)是 24 年 11 月份由 MIT 提出的另一条实现大模型 Scaling Law的路线,这是一种在推理过程中根据测试输入动态更新模型参数的技术。它 不同于标准的微调,因为它在极低数据的情况下运行,通常对单个输入或一两个上下文中 的标记示例使用无监督或监督目标。相当于对推理过程中的数据进行调整后合成测试时训 练数据用来更新模型的参数,这种方法对抽象推理的问题效果较好,MIT 团队在 Llama3 8B 模型上使用这种方法后,相比于 1B 的基础微调模型,准确率提高了 6 倍;在 8B 参 数的语言模型上应用 TTT,在 ARC 公共验证集上实现了 45% 的准确率,比 8B 基础模型 提高了近 157%。但是该方法仍在初期试验阶段,对计算资源要求也很高,所以论文的评 估主要在 ARC 公共验证集的一个子集上进行,并没有提交到官方排行榜。

1.4 方向三:合成数据

合成数据在 LLM 开发中的应用正在迅速扩大,从预训练到微调阶段都发挥着重要作用。它 不仅解决了数据获取和隐私问题,还能有针对性地增强模型在特定任务上的表现。OpenAI 的模型训练和 Alignment 项目大量使用合成数据;Anthropic 公司在 Claude 系列模型中 采用了 Constitutional AI (CAI)方法,通过合成数据显著提升了模型的稳健性,使得 Claude 模型能够更准确地识别和拒绝回答不确定的问题;阿里通义的 Qwen 系列则采取了 一种独特的方法,利用早期版本的 Qwen 模型来生成合成数据,用于增强预训练数据集的 质量,同时在训练过程中创新性地使用合成数据生成多个候选响应,再通过奖励模型筛选 出最优答案;Apple 的 AFM 模型也在这一领域做出了重要尝试,特别是在预训练阶段使用 合成数据来延长上下文长度,并且特别关注数学和代码任务相关的高质量合成数据生成。

据 Gartner 预测,到 2030 年,合成数据将在 AI 模型中完全超过真实数据的使用,而合成 数据的生成过程需要消耗大量计算资源。以使用 OpenAI 的模型为例,使用 GPT-4 生成十 万个 JSON 合成数据元素预计成本高达 506 美元,随着现实世界数据被逐渐发掘用尽,合 成数据消耗的推理资源会快速上升。

1.5 方向四:模型量化逐渐失效

量化是把模型里的数字用更少的位数表示,比如用整数代替小数,这样计算更快,占用的 空间也更小。在模型推理时使用量化后的模型是主流的节约推理成本的方法,但是在 24 年 11 月,哈佛和斯坦福大学等顶尖学府学者发布的《Scaling Laws for Precision》引 起了大模型行业科学家的广泛讨论,研究发现在预训练阶段使用更低精度的参数会会降低 模型的有效参数数量,而推理量化后的模型的性能下降会随着模型训练数据量的增加而增 加,意味着数据太多反而对推理低精度模型有负面影响。论文还提出了感知量化训练技术, 是一种有效的模型量化技术,模型仍然使用高精度(例如 FP32 或 BF16)进行训练,但 在每次前向和反向传播过程中,都会模拟低精度量化的操作,感知到降低哪些部分的参数 精度对模型效果的影响较小,可以在保持较高推理性能的同时降低模型的计算和存储成本。

1.6 方向五:多模态融合模型发展空间大

尽管各大厂商如 Meta 和阿里巴巴积极布局多模态大模型领域,分别推出了 Llama 3.2 系 列(包括其首个大型多模态模型)以及通义 Qwen-VL 升级版(Qwen-VL-Plus 和 Qwen-VLMax),在图像推理等能力上取得了显著进展,但在整体架构设计、性能效果以及支持的模 态数量等方面,相较于 OpenAI 推出的 GPT-4o 仍存在明显差距,比如 Llama 3.2 仍然是将 音频模型叠加到大语言模型上获得的多模态能力,而 GPT-4o 具备的以下能力仍然是多模 态模型的标杆: 1. 多模态理解与生成:支持文本、图像、音频、视频理解,文本、图像、音频生成 2. 统一模型:使用单一神经网络处理所有模态,而非多个独立模型的管道 3. 端到端训练:跨文本、视觉和音频进行端到端的联合训练 4. 实时交互:音频输入响应时间平均为 320 毫秒,接近人类对话反应速度,支持近实时 的语音对话和翻译。

多模态模型的发展可以给予 AI 应用和 AI 硬件的落地更大的想象空间,比如可以根据上 下文来理解和生成不同语气语调的音频;使用语音直接进行图片编辑;在 AI 硬件上直接 进行实时对话,将看到或者听到的内容实时翻译成另一种语言;实时逐步的对眼前的题目 进行解答等。

二、AI 应用渗透率持续增长,落地场景多点开花

2.1 AI 应用活跃度持续增长,应用场景得到认可,进入快速获客期

从 AI 应用的日活跃度数据看,ChatGPT 活跃度持续增长,其他 AI 聊天助手应用也保持增 长态势,AI 应用渗透率不断提升。从国内市场看,头部应用如 Kimi、文心一言、通义千 问、豆包等的活跃度也在不断提高,AI 聊天助手应用场景得到用户认可,进入快速获客 期。

视频模型在快速发展阶段,闭源模型如 Runway 和可灵的活跃度较为稳定,新发模型对应 用活跃度仍然有较大的提升。快手的可灵国际版实现了 AI 模型出海,属于现在可用模型 中在海外的评价较高的视频生成模型。开源的视频模型也在出现,包括 Meta 的 Movie Gen 和 Mochi 1。视频模型对算力需求的提升符合我们的预期,比如未量化版本的 Mochi 需要 4 个 H100 才能进行推理。

音乐和音频模型应用的市场空间仍有局限,部分新应用昙花一现,在爆发增长后用户没有 留存,活跃度持续下滑如语音合成应用 Murf 和音乐生成应用 Udio。但是部分应用如音乐 生成应用 Suno 和语音视频融合应用 Heygen 的活跃度较为稳定,用户留存率较高。随着多 模态模型的发展,音乐和音频应用的市场空间会被进一步压缩,创意和易用性是这类应用 发展和生存的关键。

2.2 AI 程序员是确定性的强需求

AI 代码生成已经从概念验证阶段进入企业实际应用阶段,并在提升研发效率方面展现出 明显价值。根据麦肯锡的调查,使用生成式 AI 进行代码文档编写时,可以节省约 45%到 50%的时间;在代码生成任务中,节省时间在 35%到 45%之间;而代码重构的时间节省幅度 较小,为 20%到 30%。对于高复杂性任务,生成式 AI 的效果最弱,时间节省不足 10%。整 体来看,生成式 AI 在较简单的任务上表现出显著的效率提升,而在处理复杂任务时,优 势相对较小。 从海内外科技公司来看,AI 程序员的渗透率也在不断提升,Google 在财报会上公布,目 前超过 25%的新代码是由 AI 辅助生成的,使用 AI 工具的开发者在软件开发任务上的效率 提升了 21%。Meta 内部广泛部署的 CodeCompose 工具为数万名开发者提供代码建议和片 段,其建议的接受率达到 22%,约 8%的代码来自于这些建议的采纳。在中国市场,阿里巴 巴的通义灵码(Tongyi Lingma)工具获得了 20%的采用率,显著提升了开发效率,特别在 测试代码实施方面减少了超过 70%的工作量。百度的智能代码助手 Comate(基于文心一言 大模型)更是贡献了该公司 27%的日常新增代码。

2.3 AI 搜索是 25 年最有希望诞生超级 APP 的赛道

在大模型上加入搜索功能,可以丰富模型的知识库,缓解模型无法获取新知识和幻觉问题 的出现,是最有希望诞生超级 APP 的赛道。Perplexity 作为主打 AI 搜索的应用,活跃度 数据再不断提升,同时 ChatGPT 推出的 Search 功能助力其活跃度再创新高,说明 AI 搜索 市场仍在快速发展期。Google 作为传统搜索引擎厂商,也在搜索中加入了 AI Overview, 对搜索结果进行总结,同时在 AI Studio 中也提供了 AI 搜索功能,其日活跃度目前还未 受到负面影响,但 AI 搜索工具都在积极替代浏览器默认搜索引擎,我们认为随着 AI 搜索 渗透率提高,传统搜索引擎厂商会受到更严峻的挑战。

2.4 AI 为通用型和数据类 SaaS 平台打开增长空间

在大模型时代,数据的重要性在快速提高,数据不仅是 AI 训练的基础,更是创新、性能 提升和商业成功的关键。数据的管理与安全 SaaS 平台业务迎来高速增长期。例如, Snowflake 产品收入达到 9.003 亿美元,同比增长 29%,产品收入超过 100 万美元的客户 相比上一季度的 510 个增加到 542 个,同样保持着高增长的还有 Datadog 和还未上市的 Databricks。除了数据类 SaaS 平台,通用类 Horizontal SaaS 平台如 ServiceNow、 Salesforce 也积极在业务中加入 AI 功能,比如 ServiceNow 引入了生成式 AI 功能,如 Now Assist 和 Generative AI Controller,这些工具帮助企业提高工作效率,简化项目 部署,并提供智能化的用户体验,Salesforce 也发布了 Einstein AI 平台,集成了多种 人工智能技术。

我们认为,AI 为 SaaS 公司带来了新的功能和机会,使其能够开发出以前无法实现的解决 方案,这种创新能力帮助企业在竞争激烈的市场中保持领先地位,并通过提供更具吸引力 的产品来扩大市场份额。对于细分领域定制化的 Vertical SaaS,我们认为机会会远小于 通用型 SaaS,垂类 SaaS 应用本身市场空间有限,并且随着 AI Agent 的成熟,其业务会 受到更大的冲击。

2.5 AI 眼镜是 AI 应用落地的最佳硬件,25 年将迎来发布潮和出货量大增

AI 落地需要硬件载体,目前主要包括 1)传统的消费电子产品,如手机、PC、智能音箱等; 2)创新型消费电子产品,如 AI Pin、Rabbit R1 等;3)眼镜形态的 AI 硬件。Al 赋能传 统消费电子,基于现有的成熟硬件,推动传统硬件 AI 化,继承传统硬件原有的生态,有 助于 AI 应用落地。对于创新型产品,可以探索新的硬件形态,想象力丰富,但需要市场 和消费者的验证, 无论是基于传统的消费品嵌入电子硬件,还是针对 AI 应用构建 AI 专 用硬件,对于用户的使用习惯、接受程度都是一个很大的挑战。

从输入输出方式上看,眼镜是最靠近人体三大重要感官的穿戴设备:嘴巴、耳朵和眼睛。 嘴巴是语言输出器官、耳朵是语言接受的器官、眼睛则是人类最重要的信息摄入器官,人 类 80%的信息来源于视觉。眼镜是人类穿戴设备和电子设备中最靠近这三大感官的群体, 是 AI 最好的硬件载体,可以非常直接和自然的实现声音、语言、视觉的输入和输出。目 前具备显示功能的眼镜重量仍然会远远超过日常佩戴的眼镜,但是只具备视觉和音频的眼 镜已经可以做到接近日常佩戴眼镜的重量。并且目前大模型发展的方向也是多模态和实时 性,作为聊天助手返回的内容主要还是文本,但是可以理解图片、视频、音频,只具备视 觉和音频的眼镜提供的交互方式契合大模型的使用方式,为目前 Al 应用最好的载体。

从具体产品看,Meta 与 Rayban 联名推出的眼镜在 2024 年 4 月开放 Meta AI 功能有已经 有放量的趋势,到 2024 年 Q2 有约 80 万的出货量。国内厂商也在积极布局类似形态的 AI 眼镜,2025 年将进入 AI 眼镜大量出货元年,并且随着光波导技术的成熟和模型多模态和 实时性能力的进步,AI 眼镜会有更好的体验。我们预计明年率先大量出货的仍是不具备 显示功能的类 Meta Rayban 形态眼镜,随着光波导中光机和波导片成本的下降和体积的缩 小,后年具备显示功能的 AI 眼镜有大量出货的机会。

三、算力系统面临“木桶效应”挑战,供给端瓶颈或成主要矛盾

3.1 人工智能算力系统面临诸多挑战

随着人工智能的发展,模型的规模和复杂性呈现出指数级增长,自 2012 年 AlexNet 问世 以来,算力需求迅速攀升。AlexNet 作为深度学习在计算机视觉领域的开创性成果,训练 时依赖于两块 NVIDIA GTX 580 GPU,耗费约 470 petaFLOP,标志着深度学习时代的来临。 而此后模型的扩展速度令人瞩目:2020 年推出的 GPT-3 模型拥有 1750 亿参数,训练消耗 约 3.14x108 petaFLOP,GPT-4 进一步升级至 1.8 万亿参数,依赖 25000 个 A100 GPU,计 算需求达 2.1x1010 petaFLOP,耗时 90 至 100 天,硬件与能源的需求达到新高度。 在最新的超大规模模型——Gemini Ultra 上,算力要求再度跃升至 5x1010 petaFLOP。谷 歌为此部署了大量 TPUv4 和 TPUv5e 加速器,以应对计算需求和硬件挑战。Gemini Ultra 的训练使用了多个数据中心中跨集群的 TPUv4 加速器,配置在 4096 个芯片组成的 SuperPod 中。每个 SuperPod 通过高速互联进行数据通信,并利用专用光开关在大约 10 秒 内动态重配置为 3D 环面拓扑。

随着超大规模模型对硬件资源的需求不断增加,系统故障率也相应上升,平均故障间隔时 间成比例下降。谷歌通过减少抢占和重新规划的比率尽量减少硬件故障的影响,但在如此 规模的硬件部署中,故障不可避免。Gemini Ultra 的计算复杂性推动了多模态 AI 架构和 大规模硬件集群的极限,尽管当前的硬件性能接近瓶颈,但要满足这种庞大模型的训练需 求仍需数月的时间和大量的能源投入。 然而,单卡算力、互联性能和能源供应的发展速度已逐渐趋缓。即便硬件性能逐年提升, 模型规模的增长速度却更为迅猛,带来了计算瓶颈和能耗压力。因此,AI 模型的未来发展 将面临这些硬件和能源限制的制约,解决这些关键短板将成为 AI 系统持续迭代和优化的 核心挑战。

3.2 单卡算力升级速率落后于模型迭代速率,Blackwell 延后预示系统摩尔进一步降速

在我们之前的报告中,我们已经指出,当前基于传统摩尔定律的发展速度(即单芯片晶体 管数量的扩展速度)已经远远落后于人工智能模型对于算力的需求。最新的 Epoch AI 数 据表明,当前一些知名模型的训练所需算力仅需大约六个月就能实现翻倍。我们对这些数 据进行了更深入的分析后发现,如今更为主流的多模态大模型(例如 Gemini Ultra 和 GPT4)在算力需求方面的增长趋势更为陡峭。这些模型的算力需求翻倍时间已经缩短到不到 六个月。 与此形成鲜明对比的是,传统摩尔定律所定义的晶体管数量翻倍周期是 18 个月,这意味 着上述多模态大模型的算力需求增长速度已经显著超越了传统芯片晶体管数量增长速度。 换句话说,大模型算力需求的增长速度已经明显领先于传统摩尔定律所能支撑的硬件性能 提升速度。

系统摩尔是业界为应对摩尔定律放缓的解决方案。英伟达最新的 Blackwell 架构的核心特 性之一是其多芯片模块(MCM)设计,B200 芯片将两个接近光罩极限面积的芯片通过 NVHBI 技术连接在一起,该技术基于 NVLink5.0 协议,提供高达 10TB/s 的带宽。

从单卡性能来看,以芯片面积增益进行归一化计算后,空气冷却的 B200 在 FP16 FLOPS 性能上每单位芯片面积仅提升了 14%,这与人们对全新架构的期望相去甚远。这是因为大 部分性能提升主要依赖于更大的芯片面积和量化优化。 由于计算芯片(die)的面积不断扩大,封装所需的中介层面积也相应增加,导致整体成 本上升。与采用完整硅中介层的 CoWoS-S 技术相比,CoWoS-L 技术通过在有机基板中局部 嵌入硅桥的方式,减少了硅的使用量,从而有效降低了成本。这也是 Blackwell 选择采用 CoWoS-L 封装技术的主要原因。但与此同时带来的,是工艺上的新难题,Cerebras 联合创 始人指出,此次 Blackwell 延后的核心原因是,GPU 之间以及 HBM 和 GPU 之间的局部硅桥 的位置校准出现了偏差,尤其是在 Blackwell 所采用的接近两倍光罩极限面积的中介层 上,其工艺难度进一步增加,另外,计算 die、CoWoS-L 中局部硅桥、以及 CoWoS-L 中介 层中的 RDL 部分三者的热膨胀系数之间的差异也会导致封装结构出现弯曲,影响系统性 能。 发布会上英伟达表示 GB200 相较于 H200 在 1.8T 参数的 GPT-MoE 模型上的推理性能将提 升 30 倍,然而,这一数据是基于一个非常特定的最佳场景得出的。需要明确的是,这一 场景在理论上确实可以实现,但并不能完全代表市场中的普遍应用场景。解释 30 倍性能 提升的一个关键因素是将 GB200 NVL 在 FP4 下的性能与 H200 和 B200 在 FP8 量化下 的性能进行对比,而且比较基准选取的是最不适合 H200 的 64GPU 张量并行,根据Semianalysis 模拟分析,这一情形下实际性能提升仅有 18 倍,如果在更贴近现实的情况 下,性能提升幅度将更低。

我们认为 Blackwell 因设计问题延迟出货已经反映出了数据中心高性能计算芯片在制造 段继续迭代的瓶颈,尽管英伟达可以通过节点内和节点外互联提升总体系统性能,但我们 认为单卡算力(计算性能/功耗)的提升仍旧是必要的,节点内 GPU 间通信(NVLink)慢于片 上通信,节点间通信(Infiniband/Ethernet)又显著慢于节点内通信,导致并行化带来的 算力提升是边际递减的,单卡 PPA 的提升仍是后续系统性能继续提升的关键。

当前市场对英伟达的预期相当充分,根据彭博一致预期,市场预期英伟达 FY2025Q4 至 FY2026Q3 毛利率分别为 73.5%、72.2%、72.9%、74.2%,说明市场对未来三个季度 Blackwell 研发部署对毛利率的压制是有所认知的,但认为 FY2026Q3 对毛利率的压力将有所缓解。

从时间线上来看,FY2026Q3 英伟达或将开始出货 Blackwell Ultra,Blackwell Ultra 即 为 Blackwell 的 HBM 升级版本,技术上难度相对 Blackwell 并没有显著提高,市场预期 FY2026Q3 毛利率有所回升是合理的。我们不同于市场的观点是,应当警惕下一代产品即 Rubin 不能如期发布的风险,对英伟达的下一代产品来说,从芯片制造的角度,我们认为 无论是从单位面积晶体管缩放还是先进封装角度,实现大幅度性能提升的难度都不容小觑。

3.3 数据中心电力消耗呈指数级增长,核电或成最优解决方案

根据 IDC 数据,24 年云服务厂商数据中心容量达到 28240 兆瓦(MW),2028 年将达到 56756 兆瓦(MW),CAGR 为 19%。24 年云服务厂商数据中心预计消耗电力约达到 563 亿千瓦时, 按全球 23 年发电量 29.92 万亿千瓦时来算,云厂数据中心耗电量占比将达到 0.2%,而如 果按全部数据中心耗电量 4170 亿千瓦时来计算,则这一比例达到 1.4%。按 2028 年 8568 亿千瓦时用电量来计算的话则占比达到 2.9%。数据中心耗电量的快速上升将会影响到正 常生活中的用电。且全球主要数据中心集中在中国、美国、欧洲等地区,这些国家发电量 仅为全球的一半左右,但数据中心用电量基本没有减少,数据中心耗电量的比例在这些国 家中的还会继续上升。如果再进一步集中到这些国家中数据中心密集的地区,则地区的用 电压力还会进一步提升。

为了应对越来越高的能源需求,主要的云服务厂商都打算将能源供应的责任放在核电站上。独立于居民、工业用电的核电具备许多优势。1)尽管核电站的建设成本历来较高,但其 运营成本相对较低,单个反应堆的发电容量通常超过 800 MW。此外,核电站发电过程中 不直接排放二氧化碳,对于那些投资高能耗数据中心且试图实现减排目标的科技公司来说, 核能具有重要吸引力。2)与住宅或许多其他行业的用电需求不同,数据中心的用电需求 在一天中的各个时间段相对稳定。这种持续的用电需求非常契合核电站的运营特点,后者 通常无法快速调整发电功率以应对需求波动。核电站持续稳定的发电能力能够确保数据中 心在全天候都能获得足够的电力,同时还为其提供了零碳排放的大规模能源来源。3)当 数据中心与发电源直接连接时,数据中心可以直接从发电厂获取电力,而无需经过更大的 输电网络。尽管购电协议的存在并不要求发电厂和数据中心必须在同一地点,甚至不需要 在同一时间发电和用电,但这种安排可以通过直接将需求增长与发电来源匹配,降低整体 电网成本。 24 年 3 月,亚马逊斥资 6.5 亿美元,从电力运营商 Talen 能源手里买下一座占地 1200 英 亩的“核电数据中心园区”——数据中心就坐落在两个核反应堆边上。除此之外,亚马逊 也在积极和 Constellation Energy 寻求更多核电站合作。24 年 9 月,Constellation Energy 宣布了一项为期 20 年的购电协议(PPA),将为微软位于美国中大西洋地区的数据 中心提供电力。这些电力将来自宾夕法尼亚州三哩岛核电站的 1 号反应堆。谷歌 24 年 10 月宣布,与 Kairos Power 公司签署协议,将利用小型核反应堆来生成支持其人工智能(AI) 数据中心所需的巨大能源。根据协议内容,谷歌计划在本十年内开始使用首个核反应堆, 并在 2035 年前引入更多的核能设施。

但核能并非毫无风险。除了核反应堆安全问题之外,数据中心&核电站供电方式也存在新 的问题。虽然新建核电站可以单独供给数据中心,但已建成的核电站通常与电网相连,数 据中心过度供电依旧会威胁电网的可靠性,产生的额外费用目前也没有规定该由谁支付。 这也是 24 年 11 月,美国联邦能源管理委员会否决亚马逊增加数据中心供电提案的主要 原因。 考虑政治&安全因素,一些大国如中国、美国国内核电站新建政策可能会收紧,但东南亚 一些国家正在积极扩张核电。除了越南、缅甸、马来西亚等已经建设或考虑建设核电站的 国家外,泰国于 11 月 15 日签署核电站项目合作备忘录,首次启动核能发展,以推动清 洁、低成本能源建设。该项目以 SMR 小型模块化反应堆技术为核心,旨在降低电价并减少 碳排放。该技术具有高安全性、空间需求小等优势,并计划将核电纳入 2037 年国家清洁 能源发展目标。

四、大模型推理服务大规模部署,如何影响硬件市场?

4.1 大模型性能提升,推动推理算力需求加速增长

大模型服务已从聊天机器人进化为严肃生产力,十一月中,MacOS ChatGPT 客户端已经开 始支持读取用户屏幕上的代码并给出编程建议,这是 OpenAI “Work with Apps”功能在 编程工具上的体现,从名字上可以看出,该功能可能不仅面向编程工具,未来可能支持更 多工具。Anthropic 也已在十月中发布了其 Claude 3.5 Sonnet 更新版本,通过其 “Computer USE”API,Claude 被训练具备屏幕视觉理解能力,能够“观察”屏幕上发生 的事情,并通过分析屏幕截图理解用户界面(UI)的布局和内容。当开发者将特定任务交 付给 Claude 并授予其必要的权限时,它可以通过解析截图计算光标需要移动的具体像 素距离(包括垂直和水平方向),以便精准定位到目标区域进行操作。 尽管作为第三方模型,Work with Apps 和 Computer USE 并没有接入系统底层,大模型在 系统层面的集成已经初见雏形,从推理算力的结构上来看,系统集成大模型提供类似于 AI Agent 功能,输入和输出 Token 的数量将大大增加,单位 Prompt 所需的推理算力将显著 增长。

根据我们追踪的 ChatGPT 访问量数据,我们认为大模型正在被加速应用,其生产力属性已 经在消费级市场获得了验证,GPT-4o 和 Claude 3.5 的发布代表着大模型能力进入了一个 新的阶段,将驱动推理算力需求的大幅提升。

4.2 服务器推理:内存墙难破,HBM 容量仍为竞争要点

GPT 类模型通过给定前文来预测下一个 token(即单词或符号)进行训练。在生成文本时, 需要首先输入提示词(prompt),然后模型预测下一个 token,并将其添加到提示词中, 随后再预测下一个 token,重复这一过程直到完成生成。这一生成机制每次生成下一个 token 时,所有模型参数必须从内存传输到处理器,而这些庞大的参数需要尽可能靠近计 算单元存储,以降低数据传输的延迟,必须确保这些参数能够在需要时精准加载到芯片上。 这种推理模式对硬件的内存带宽、容量以及数据传输效率提出了严苛要求,也成为当前生 成式 AI 技术突破的重要瓶颈之一。 Instinct GPU 相对于英伟达 GPU 一直提供更高的存储容量和存储带宽,MI325X 和 Hopper 架构中存储容量最大的 H200 相比,Instinct 在显存容量上具有 1.8 倍的优势,这意味着 加载特定模型参数时所需的 GPU 数量减少了 1.8 倍,同时,AMD 在带宽上也具备 1.25 倍的优势,这表明在将模型参数传输至 GPU 的过程中所需时间更短。 在 AMD 的路线图中,未来的 Instinct GPU 的存储容量和带宽将持续增长,MI355X 将采用 HBM3E,存储容量将达到 288GB,带宽将达到和 B200 相同的 8TB/s,而存储容量将显著高 于 B200 的 192GB。

Instinct GPU 除了在存储容量方面具有显著优势,其相对英伟达 GPU 较低的定价更为低 廉,三星于去年采购过一批 MI300X GPU,单价约为一万美金,相较于当时 H100 三万至四 万美金,有显著的成本优势。根据我们的产业链调研,出于降低成本和寻找第二供应商的 考虑,海外云场正在积极尝试使用 AMD GPU 集群。尽管 AMD 受制于软件生态和互联性能在 训练领域尚难以于英伟达竞争,我们认为随着推理算力需求大幅提升,AMD 在该领域将持 续收益。

4.3 端侧推理:单用户推理导致内存端高成本,端云结合将是未来趋势

AI 手机和 AIPC 提供的端侧 AI 允许用户将数据留在本地,但端侧 AI 的单用户场景意味着 Batch Size 为 1,这意味着每次从内存加载模型参数到芯片上时,其成本只能分摊到单个 token 上,无法通过其他用户的并发计算来缓解这一瓶颈,服务器端的推理我们先前已经 讨论过,内存墙仍然存在,但多个用户的推理请求使内存加载参数的成本分摊到多个 token 上,大幅降低单个 token 生成的开销,对生成式模型的推理效率提升有显著作用。 从模型参数占据的存储空间来看,当前 AI 手机的内存容量仍旧是严重不足的。以 Llama 7B 模型为例,在 FP16 格式下,每个参数占据两个字节,对应 14GB 的内存容量,除此之 外,手机 RAM 中还需要存储应用程序和操作系统相关数据,在 AI 手机本地存储并运行这 一规模的端侧模型还是颇有难度的。根据 IDC 数据,端侧 AI 需求尚未推动智能手机单机 内存容量显著增长,我们认为这并非手机厂商没有意识到端侧 AI 的重要性,而是在端侧 实现高性能模型所需的存储容量远高于目前技术所能提供的,即便手机厂商将存储容量从 16GB 提升至 32GB 能够显著增大可容纳模型参数规模,但和超大云端模型当前所能提供的 性能相比,我们认为仍旧是不具有可比性的。

从消费者的角度来看,端侧并非严肃生产力场景,用户并不需要频繁处理复杂任务。即使 是在类似 AIPC 这样的端侧场景中,复杂任务往往可以通过网页或客户端接入云服务来完 成,而非依赖本地化运行复杂内容。因此,单纯为了本地化复杂任务而额外增加内存开销 并不具备充分的合理性。 我们认为,端侧 AI 用户的核心需求并不在于直接在本地处理复杂任务,而是通过 AI 实 现系统层面的非标准化操作。例如,自动将个人住址信息填写到电商应用中。相比单纯依 靠提升 AI 能力来满足这些需求,我们认为更优的解决方案是将系统底层的数据接口和 指令接口与 AI 模型深度集成。具体而言,AI 模型可将用户指令拆解为具体操作指令, 并通过脚本直接与操作系统交互,从而以更高效、更经济的方式实现个性化功能。 在本地模型性能显著提升需要大量额外内存容量,而端侧 AI 用户的核心需求能够通过数 据接口和脚本操作来满足的背景下,我们认为端侧 AI 硬件厂商大幅增加内存容量并非明 智之举。当前市场数据也验证了这一观点,在内存技术尚未实现单位体积容量大幅提升或 单位容量成本显著下降的前提下,端侧 AI 硬件厂商对内存容量配置的谨慎态度可能将 持续。

五、AI 设备销量正在提升

24 年三季度,AI 手机销量达到 1.47 亿台,同比增长约 8%,AI 笔电销量达约 1450 万台, 同比增长 110%。

5.1 AI 手机焦点在于旗舰机

相较于传统智能手机,AI 手机在硬件上重点突出了 NPU 和内存的提升。AI 手机主要由 NPU 来负责端侧的推理,部分解放了 GPU 资源,使得手机可以更好的运转。同时内存容量的提 升也是在进行端侧推理却不降低手机流畅性的必要条件。作为新加入者的 AI 功能,用户 对其的要求是不能影响以前的视屏、游戏、办公等功能。因此,高配置、高价格的旗舰机 在硬件需要提升带来成本增长的情况下更能满足消费者的需求,涨价也更容易被消费者接 受。从价格上看,全球智能手机价格在 21 年后缓慢回升,且 700 美元以上的智能手机销 量在不断提升,24 年三季度销量达到约 7400 万台,同比增长 2%。 10 月安卓系厂商公布的数据表明了消费者对于新一代旗舰机的热情。根据 vivo 官方公告, X200 系列手机全渠道销售金额已经突破了 20 亿元,这一数据打破了 vivo 历史上所有新 机销售记录,显示了消费者对这一系列新品的热烈欢迎。截至 2024 年 10 月 19 日,X200 系列的销量估计在 29.4 万到 46.5 万台之间(按最低价与最高价估计)。11 月 9 日,在小 米直播中,小米集团总裁卢伟冰透露,小米 15 系列的销量已破 100 万台,破百万的速度 要快于前代小米 14 系列。

24 年三季度,在具备基础 AI 功能的手机中,苹果占约 42%的份额,安卓系厂商占到约 58% 的份额。而在可以完成本地推理的 AI 手机中,苹果 24 年三季度占据约 60%的份额,安卓 系厂商约占到 40%。我们认为在 2022 年 ChatGPT 爆火后的两年中,安卓系厂商和苹果在 推进将 AI 功能融入进自己的生态中。即使现在爆款的 AI 应用还没有出现,但各家大厂已 经在硬件、软件、生态上布局,目标是当爆款 AI 应用真正出现时,自家的旗舰手机能够 支持这些应用。

硬件的提升是手机更新换代中至关重要的一环,但与以往不同的是,这次 AI 革命中,硬 件、软件、生态缺一不可。 SoC 端,23 年以来,联发科天玑系列芯片的崛起,为安卓系厂商旗舰机新增了一个选择。 以往,高端手机除了苹果外,高通旗舰芯片几乎是唯一选择。但在 2023 年联发科使用天 玑9300的ARM公版4超大核+4大核的策略以来,联发科凭借其优异的性能使得今年vivo、 OPPO 等厂商选择天玑 9400 作为旗舰机的 SoC 选择。在目前的竞争中,苹果 A18 Pro 搭载 了和 A17 Bionic 相同的 16 核 NPU,支持每秒高达 35TOPS 的计算能力。高通骁龙 8 Elite 采用增强的 Hexagon NPU 技术,具备 80TOPS 算力,性能提升了 45%,能效提升了 45%, 支持更长的 token 输入、多模态 AI 助手的本地部署,综合 AI 性能增强达到 45%。天玑 9400 凭借全新第八代 NPU 890,不仅 AI 跑分再夺得苏黎世理工学院的 AI Benchmark 测 试第一,同时还首发带来了天玑 AI 智能体化引擎,端侧视频生成及端侧 LoRA 训练,全面 提升了端侧 AI 的体验。我们认为,安卓系手机厂商在有了更多的旗舰 SoC 选择后对于高 通的依赖性将会有所降低,更有效的策略会促使厂商研发更能满足消费者的产品。

正如前文提到的那样,我们认为在未来,端云结合是更适合 AI 手机的方案。操作系统的 提升是端侧 AI 推理对使用体验提升最直观的场景,也是目前手机厂商关注的重点。在硬 件支持端侧推理后,苹果着重强化了 Siri 的能力,规划中 Siri 将扮演智能语音助手的职 责,帮助用户用语音或简短的文字操作手机。新 AI 技术加持后,Siri 的交互更加自然灵 活。用户可随时与 Siri 交流,还可在文本与语音之间随心切换,即便用户表述不够连贯, Siri 也能顺畅理解,并能为连续的请求沿用语境场景。实际操作过程中,系统的反馈速 度、对用户要求的准确性都是影响体验的关键因素,因此端侧硬件的性能以及模型的能力 都至关重要。小米也在不断更新小爱同学,让其完成 AI 手机助手的职责。在娱乐场景可 以通过端侧的推理简单、高效的强化用户体验,一些小型的的生产力场景如会议纪要/文 件摘要在端侧完成也可以大幅提高效率。而在一些大型生产力场景如生成视频或者多路并 行任务,云端推理可以解放本地资源,使得手机运转更为流畅。

通常来说,端云结合的模式下,需要硬件(性能)、软件(适配操作系统)、生态环境(AI 应用的数量及质量)、云(模型质量及云服务质量)等环节参与。我们认为全部环节都可 控并参与的手机厂商更容易成功。苹果、谷歌在某项上有些缺陷,但整体来看链路更为完 整。苹果在硬件、软件、生态环境、云服务上能力都很强,但是在模型领域需要暂时和 OpenAI 合作。谷歌有原生安卓支持、Gemini 强大的模型能力,但在硬件上自己的 Pixel 手机渗透率低,需要仰仗三星端侧硬件拓展用户。两者相比的话,苹果的 AI 服务现金化 率我们认为将会更高。1)苹果本身用户群体更容易接受付费。iPhone 的价格在所有大厂 的智能手机中属于偏高的档次,苹果的用户付费能力也会更强一些。从苹果 FY23-24 财报 来看,服务收入为 961.69 亿美元,同比增长约 13%,收入占总收入的 24.59%,是除 iPhone 外收入最高的产品。此次 Apple Intelligence 的订阅费为 20 美元/月,与 ChatGPT 订阅 费一致,用户平替的阻碍较小。谷歌的 Gemini 近期从免费变为收取 20 美元/月的订阅费, 相对来说,用户付费阻力更大一点。根据数据,24 年一季度虽然谷歌 Play 商店应用总下 载量 (255 亿次)远超过苹果 App Store 的 84 亿次,但苹果在 2024 年一季度的收入为 246 亿美元,反而是谷歌同期 112 亿美元收入的“近两倍”。 2)苹果硬件软件生态更为完整,同时与 OpenAI 的合作摩擦更少。作为谷歌 AI 的载体, 三星即将收取 AI 服务费,这降低了用户对 Gemini 的付费意愿。三星作为全球安卓手机市 场的龙头,对谷歌的态度处于合作&竞争并存的状态,这种合作形式不利于谷歌全额赚取 AI 服务的费用。

5.2 AI PC 的竞争将会越发激烈

24 年三季度,全球 AI 笔电销量达到约 1400 万台,同比增长 105%,AI 笔电渗透率达到了 约 30%,相比二季度提升了约 5 个百分点。其中英特尔核 AI 笔电销量约为 720 万台,占 比约 50%,苹果、AMD、高通核的 AI 笔电销量分别为 540 万、134 万、55 万台,占比分别 为 37%、9%、4%。

作为传统 CPU 厂商,英特尔在互联网时代凭借的设计牢牢把控着服务器、PC 设备 CPU 的 市场,同时和微软的“Wintel”联盟以及芯片先进制成使得英特尔的护城河足够宽。但在 近些年移动互联网(手机等移动设备)的发展过程中,英特尔错失了手机 CPU 市场。再加 上三星、台积电工艺迅速提升而英特尔晶圆技术发展陷入停滞,除了传统服务器&PC CPU 业务外,英特尔近年来业务范围和规模不断缩小,导致收入与利润水平不断下滑。因此, 在“最后的大本营”CPU 处理器上,英特尔实际已经不能再失败。但与二十年前一家独大 不同的是,在 X86 架构处理器上 AMD 已经摆脱需要英特尔这个对手帮助存活的阶段,开始 抢占英特尔的份额。而在 ARM 架构处理器上,苹果依靠着 M 系列芯片出色的设计、台积电 先进工艺的加持以及强大的生态环境等优势,稳定的占据 ARM 架构 PC 的份额。虽然,在 全球所有 PC 设备处理器市场中,英特尔依旧保持着领先地位,72%左右的市占率虽然相比 之前有所下滑,但依旧遥遥领先份额缓慢上升的 AMD(约 16%份额)。但在 AI 笔电领域, 份额下滑到约 50%的英特尔将会遇到更多竞争。

在 X86 与 ARM 的竞争中,虽然 ARM 功耗低带来续航的优势,但 X86 架构下好用的各种 APP 为 X86 构建起了软件护城河。即使苹果在努力扩大自己的软件生态,同时提升 ARM 转译 X86 能力,短时间内仍不足以在 MacOS 跑通全部应用,X86 架构将继续享有软件生态上的 优势。在 X86 生态内,AMD 是英特尔最大的对手。凭借着 AI 笔电中 SoC 优异的性能,以 及反超的发布规划,AMD 正走在抢占英特尔 AI 笔电份额的路上。 近几个月,英特尔、AMD 分别推出 Ultra Lake 和 Ryzen AI 系列芯片,两家 SoC 厂商在苹 果以外的 X86 架构 AI 笔电市场展开了竞争。AMD 在芯片推出时间上占据了优势,但随着 英特尔采用台积电 3nm 先进工艺,英特尔 Ultra 200s 系列芯片在功耗&性能上有所改善, 抢占了大批 OEM 市场。高通 X Elite 系列芯片近期表现不佳,X Elite 核笔电的价格偏高 的同时,性能却不如同为 ARM 架构的苹果。在适配性上,高通 X Elite 芯片在转译 32 位 X86 软件时性能下滑严重,同样也让想要良好软件生态的用户有所顾虑。 英特尔 Lunar Lake 系列芯片在 24Q2&24Q3 都有不错的销量,四季度英特尔发布了新一代 Ultra 架构芯片,在功耗上有明显提升,我们认为英特尔核 AI 笔电四季度的销量将会继 续增长。苹果凭借 M3 芯片的强大性能维持销量的稳定,我们认为四季度 M4 核 AI PC 推出 后,苹果销量将继续增长。AMD Ryzen 300 AI 系列在 8 月正式发布,在芯片性能表现优 异的情况下我们认为 4 季度 Ryzen 300 AI 芯片的销量占比将会提高。高通由于 X Elite 在性能&价格等方面的劣势暂时销量较低。

我们认为未来 X86 笔电市场竞争将会更为激烈,英特尔和 AMD 产品在性能、续航、适配 性、生态方面各分秋色。而在 X86 台式机领域,由于功耗的重要性大幅降低,AMD 的 CPU 性能更为出色使得用户更偏向于采用 AMD CPU 的个人台式机或者工作站电脑。在 ARM 领 域,苹果的优势更为明显。高通 X Elite 目前性能仅与苹果 M1、M2 芯片类似,同时在生 态上远远落后于苹果及 X86 架构对手。短时间内高通很难与苹果竞争 ARM 架构 AI 笔电的 市场。ARM 市场除了苹果与高通外,联发科&英伟达合作开发的 AI PC 也将于 2025 年进入 市场。据报道,这款 3nm AI CPU 将结合联发科的 CPU 技术与 NVIDIA 的 GPU 技术,旨在实 现高效的图形处理与 AI 计算能力。该芯片的流片阶段预计已在 24 年年 10 月正式展开, 英伟达的 AI PC 芯片预计将在 2025 年下半年首次亮相市场,并在 2026 年进入商业生产 阶段。短期内,英伟达与联发科合作的 AI PC 处理器受制于生态以及产品经验不足,很难 与苹果竞争,但长期来看,英伟达、联发科合作的新片性能值得期待。

5.3 AI 设备产业链随着 AI 加入将迎来更新换代

除了处理器之外,在 AI 设备产业链中,我们认为散热、光学、OLED 和内存都是确定性较 强的产业机会。即使现在最先进处理器的制程达到了 3nm,但在本地推理的计算压力和高 频内存的读取压力下,芯片散热依旧是需要解决的大问题。苹果在 iPhone 16 上首次增加 了均热板来解决问题。虽然第一次添加的均热板面积不够大,也没有像安卓系旗舰那样通 过多种导热材料散热,但从零到一表现出了苹果对散热问题的重视,同时也为供应链新增 了增量。 在光学领域,我们认为随着大模型多模态性能不断提升,作为输入口的摄像头及 CMOS 模 组有更新升级的机会。24 年三季度 4800 万像素以上的手机占比已经超过了 80%,我们认 为手机摄像头还会继续迭代向 6400 万以上像素。除此之外,LiDar、ToF 等激光传感器或 光学镜头也会随着 AI 眼镜、AR/VR 设备渗透率提升而放量。

OLED 屏幕凭借其更好的显示效果、响应速度快、功耗低等优势击败 LCD 成为主流旗舰机 的标配。而随着人们对旗舰机的接受程度更高,OLED 渗透率也在不断提升。目前,在一些 更追求显示效果的场景中,比如苹果 Vision Pro,即使 Micro OLED 目前成本极高,但其 凭借其出色的显示效果成为了显示屏的选择。等到 Micro OLED 技术更为成熟,我们认为 OLED 屏幕将迎来新一轮产品结构优化。

DRAM 市场经过短期整固并且低端产品逐渐淘汰后,会继续强势。目前,由于手机端侧模型 的部署的推迟,手机内存大小虽然在旗舰机中普遍有所上调,但涨幅并不算大。我们认为 在 AI 手机端云结合的理想模式下,内存的带宽的要求带来 DDR4 向 DDR5 以及 DDR6 提升, 同时内存的频率及大小也会提升。由于体积&功耗的限制,手机很难将内存提升到类似 Macbook 128G 内存的水平,但为满足大模型性能的提升,16G 至 32G 的内存在未来是必须 的。

六、智能驾驶&机器人行业正在摸索技术路径

6.1 智能驾驶:模块化方案与端到端方案之争

在智能驾驶领域,技术路径的选择不仅关乎技术发展的方向,还深刻影响商业化落地的进 程。目前,行业内主要存在两种技术路线:模块化方案和端到端方案。模块化方案以 Mobileye 和 Waymo 等企业为代表,而端到端方案则更多由特斯拉和一些前沿研究团队推 动。 模块化方案将自动驾驶任务分解为多个独立模块,包括:1)感知:通过摄像头、激光雷 达等传感器识别环境中的物体。2)定位:使用高精度地图和 GNSS 定位技术确定车辆的准 确位置。3)决策规划:根据感知和定位的信息,制定行车路径。4)控制:将规划转化为 车辆的具体动作。模块化方案通过这四步循序渐进完成自动驾驶。这种方案的优点是可解 释、可验证、易调试,但缺点也很明显:传递过程中信息损耗、任务多且散导致低效、存 在复合误差。这种方案中,Mobileye(摄像头+高精地图)和 Waymo(摄像头+激光雷达+毫 米波雷达等多种传感器)走的最远,也和 Uber 和 Lyft 等大型出租车平台展开了 RoboTaxi 相关合作。24 年 11 月,Lyft 一次性宣布了三项 Robotaxi 相关合作,分别是与自动驾驶 方案商 Mobileye、自动驾驶接驳车公司 May Mobility,以及基于 AI 的行车记录仪制造商 Nexar。根据计划,Lyft 将从 2025 年开始逐步引入上述公司的技术,以提供自动驾驶运 送乘客的服务。 端到端方案基于统一的神经网络从原始传感器数据输入直接到控制指令输出的连续学习 与决策过程,过程中不涉及任何显式的中间表示或人为设计的模块。特斯拉发布的 FSD V12 则是端到端方案。 我们认为目前两种方案在复杂场景和简单场景中各具优势,未来的方向可能是在简单环境 下使用端到端方案,而在较为复杂的城市中心场景使用模块化方案。 从技术角度看,无论使用什么方案,车厂仍需一段时间才能达到 L4+级别的自动驾驶,而 国内新能源汽车渗透率较高将一定程度上降低未来消费者对新能源汽车的需求。

6.2 具身智能想要放量需要更实用的场景及更低的价格

具身智能可以通过机器人或其他具身设备与真实世界进行交互,实现感知、决策和行动的 闭环。这一领域结合了人工智能、机械设计和感知技术,赋予机器自主学习和适应复杂环 境的能力,使其在无人配送、灾害救援、仓储物流等场景中大放异彩。目前包括波士顿动 力、特斯拉、小米、宇树等厂商都积极投入。 我们认为国内龙头公司如宇树更容易放量。宇树在四足机器人领域实现了高集成度的小型 化和模块化设计,使其机器人具有强大的灵活性和高性价比。相比于其他品牌,如波士顿 动力的 Spot,宇树的产品不仅在成本上更具优势,而且在可拓展性上也非常突出。同时, 宇树通过技术优化,将四足机器人价格拉低至几万元的级别,大幅降低了企业和个人的购 买门槛,使得这一技术能够从实验室走向实际场景。低成本的实现并未牺牲性能,其产品 依然能够应对复杂的地形环境和高强度任务,这为其在物流、安防和教育等市场开辟了广 阔的应用空间。

(本文来源国金证券,如有侵权请联系删除)

HR述职不再愁,看我的ppt如何征服全场!
01资料列表《HR行政工作总结》资料包内含90份人资行政工作总结计划PPT模板、115份人事行政各岗位(人事专员、行政专员、人事经理、行政经理、薪酬专员、行政助理、人事主管、行政后勤、绩效专员、企业文化专员、员...
2024-11-15 15:47
速看!社保和公积金的基数,必须一致吗?
每月为啥只发21.75天工资?官方解释来了!
社保临退休未交够,养老金可以取出来吗?可以退保吗?
延迟退休10问,与你息息相关
无固定期限劳动合同不能解除?这14种情形除外!
唐山市住房公积金管理中心关于2024年度住房公积金缴存基数调整工作的通知
唐山市印发 《唐山市灵活就业人员缴存使用住房公积金管理办法(试行)》
唐山市《关于2024年度住房公积金缴存基数调整工作的通知》政策解读
《上海市关于进一步加强本市重点产业领域技能人才培养试点工作的通知》政策问答
上海市关于进一步加强本市重点产业领域技能人才培养试点工作的通知
青海:城乡居民基本养老保险推出惠民新政
北京:“安薪北京”冬季行动持续推进
下载APP
扫码下载APP
三茅公众号
扫码添加公众号
在线咨询
扫码在线咨询
消息
关注
粉丝
正在加载中
猜你感兴趣
换一批
评论和点赞
59452
企业的人才理念应该和整体的用人理念有所区别,因为人才和普通劳动力,本身就身就存在质量身就存在质量存在质量
评论和点赞
59452
企业的人才理念应该和整体的用人理念有所区别,因为人才和普通劳动力,本身就身就存在质量身就存在质量存在质量
评论和点赞
59452
企业的人才理念应该和整体的用人理念有所区别,因为人才和普通劳动力,本身就身就存在质量身就存在质量存在质量
评论和点赞
59452
企业的人才理念应该和整体的用人理念有所区别,因为人才和普通劳动力,本身就身就存在质量身就存在质量存在质量
评论和点赞
59452
企业的人才理念应该和整体的用人理念有所区别,因为人才和普通劳动力,本身就身就存在质量身就存在质量存在质量
更多
消息免打扰
拉黑
不再接受Ta的消息
举报
返回消息中心
暂无权限
成为三茅认证用户,即可使用群发功能~
返回消息中心
群发消息本周还可群发  次
文字消息
图片消息
群发须知:
(1)  一周内可向关注您的人群发2次消息;
(2)  创建群发后,工作人员审核通过后的72小时内,您的粉丝若有登录三茅网页或APP,即可接收消息;
(3)  审核过程将冻结1条群发数,通过后正式消耗,未通过审核会自动退回;
(4)  为维护绿色、健康的网络环境,请勿发送骚扰、广告等不良信息,创建申请即代表您同意《发布协议》
本周群发次数不足~
群发记录
暂无记录
多多分享,帮助他人成长,提高自身价值
群发记录
群发文字消息
0/300
群发
取消
提交成功,消息将在审核通过后发送
我知道了
您可以向我询问有关该内容的任何信息,或者点击以下选项之一:
{{item}}
三茅网出品,免费使用
复制
全选
总结
解释一下
延展问题
自由提问

2025AI行业前瞻报告:Al行业关键时刻,瓶颈与机遇并存

编辑:三茅网2024-11-29 10:17
665 阅读

一、AI 模型趋势:大小模型互补,预训练市场快速收敛,Scaling Law 新方向 增强推理需求

2024 年大模型厂商推出模型的速度仍在加快,大模型与小模型共存仍是解决模型能力上 限和端侧推理的方案,各大模型厂商也会推出几 B 到 TB 级别的模型。随着大型模型训练 成本的不断提升,且有更多像 Meta、Mixtral、阿里通义等公司的开源,模型预训练市场 的玩家会快速缩小,针对特定任务的微调或者是 Agent 业务将会是更多中小模型厂商发展 的重点。在当前算力和数据 Scaling Law 放缓的情况下,找到新的 Scaling Law 方向是明 年模型发展的重点。

1.1 预训练和现实数据触顶,后训练时代将开启新的 Scaling Law 方向

从 24 年年初开始有论文提出模型能力提升速度随着参数规模的扩大而放缓,到 11 月份 OpenAI 前首席科学家 Ilya 在公开场合表示简单地增加数据和计算能力来扩大当前模型规 模的时代已经结束。但是,预训练的 scaling law 放缓不代表大模型发展速度和算力需求 的放缓,就像是芯片 gate 的实际尺寸停滞在 20nm 并不影响等效 gate 密度达到目前的 3nm,广义的摩尔定律甚至比 20 年前更快,大模型也需要找到具有更高的投入回报比的新 方向。

1.2 方向一:用推理代替思考

OpenAI 于 2024 年 9 月 12 日发布了新的 AI 模型系列 o1,这是 OpenAI 首个具有"逻辑推 理"能力的模型系列,特别擅长处理复杂的推理任务,尤其是在科学、技术、工程和数学 (STEM)领域的问题,在这些领域其评测分数都远远超过 GPT-4o。o1 模型将计算资源从大 规模预训练数据集重新分配到训练和推理阶段,增强了复杂推理能力,在费用和成本上也 进行了重分配,使用 o1-preview 的 API 相比于 GPT-4o 输入 tokens 价格是 GPT-4o 的 5 倍 (每百万 tokens $15.00:$3.00),输出 tokens 差距 o1-preview 的价格是 GPT-4o 的 6 倍(每百万 tokens $60.00:$10.00)。

在 OpenAI 发布 o1 之后,其他大模型公司包括国内的 Deepseek 和阿里通义也发布了类似 通过增强推理阶段的计算资源来提高能力的模型,并且开始有论文揭露底层技术。阿里发 布的 Marco-o1 由思维链(CoT)微调、蒙特卡洛树搜索(MCTS)、自反机制和创新性推理 策略驱动,专门针对复杂的现实世界问题解决任务进行了优化。同时,阿里在 Open-o1 数 据集的基础上进行了筛选,并且使用合成数据方法合成了一个新的 Macro-o1 数据库,用 来监督微调。最终,在应用了蒙特卡洛树微调后,模型在评测上实现了大幅超过了基底模 型 Qwen2-7B 的成绩。

Deepseek 也推出了一款名为 DeepSeek-R1,对标 OpenAI 的 o1 模型,同样是采用"思维链 "技术,可以将复杂任务分解为多个步骤逐一解决,在 AIME 和 MATH 两项基准测试中,R1 的 表现与 o1 相当或更优,但是仍未公布论文和技术详细信息。

1.3 方向二:测试时训练

测试时训练(Test-Time Training)是 24 年 11 月份由 MIT 提出的另一条实现大模型 Scaling Law的路线,这是一种在推理过程中根据测试输入动态更新模型参数的技术。它 不同于标准的微调,因为它在极低数据的情况下运行,通常对单个输入或一两个上下文中 的标记示例使用无监督或监督目标。相当于对推理过程中的数据进行调整后合成测试时训 练数据用来更新模型的参数,这种方法对抽象推理的问题效果较好,MIT 团队在 Llama3 8B 模型上使用这种方法后,相比于 1B 的基础微调模型,准确率提高了 6 倍;在 8B 参 数的语言模型上应用 TTT,在 ARC 公共验证集上实现了 45% 的准确率,比 8B 基础模型 提高了近 157%。但是该方法仍在初期试验阶段,对计算资源要求也很高,所以论文的评 估主要在 ARC 公共验证集的一个子集上进行,并没有提交到官方排行榜。

1.4 方向三:合成数据

合成数据在 LLM 开发中的应用正在迅速扩大,从预训练到微调阶段都发挥着重要作用。它 不仅解决了数据获取和隐私问题,还能有针对性地增强模型在特定任务上的表现。OpenAI 的模型训练和 Alignment 项目大量使用合成数据;Anthropic 公司在 Claude 系列模型中 采用了 Constitutional AI (CAI)方法,通过合成数据显著提升了模型的稳健性,使得 Claude 模型能够更准确地识别和拒绝回答不确定的问题;阿里通义的 Qwen 系列则采取了 一种独特的方法,利用早期版本的 Qwen 模型来生成合成数据,用于增强预训练数据集的 质量,同时在训练过程中创新性地使用合成数据生成多个候选响应,再通过奖励模型筛选 出最优答案;Apple 的 AFM 模型也在这一领域做出了重要尝试,特别是在预训练阶段使用 合成数据来延长上下文长度,并且特别关注数学和代码任务相关的高质量合成数据生成。

据 Gartner 预测,到 2030 年,合成数据将在 AI 模型中完全超过真实数据的使用,而合成 数据的生成过程需要消耗大量计算资源。以使用 OpenAI 的模型为例,使用 GPT-4 生成十 万个 JSON 合成数据元素预计成本高达 506 美元,随着现实世界数据被逐渐发掘用尽,合 成数据消耗的推理资源会快速上升。

1.5 方向四:模型量化逐渐失效

量化是把模型里的数字用更少的位数表示,比如用整数代替小数,这样计算更快,占用的 空间也更小。在模型推理时使用量化后的模型是主流的节约推理成本的方法,但是在 24 年 11 月,哈佛和斯坦福大学等顶尖学府学者发布的《Scaling Laws for Precision》引 起了大模型行业科学家的广泛讨论,研究发现在预训练阶段使用更低精度的参数会会降低 模型的有效参数数量,而推理量化后的模型的性能下降会随着模型训练数据量的增加而增 加,意味着数据太多反而对推理低精度模型有负面影响。论文还提出了感知量化训练技术, 是一种有效的模型量化技术,模型仍然使用高精度(例如 FP32 或 BF16)进行训练,但 在每次前向和反向传播过程中,都会模拟低精度量化的操作,感知到降低哪些部分的参数 精度对模型效果的影响较小,可以在保持较高推理性能的同时降低模型的计算和存储成本。

1.6 方向五:多模态融合模型发展空间大

尽管各大厂商如 Meta 和阿里巴巴积极布局多模态大模型领域,分别推出了 Llama 3.2 系 列(包括其首个大型多模态模型)以及通义 Qwen-VL 升级版(Qwen-VL-Plus 和 Qwen-VLMax),在图像推理等能力上取得了显著进展,但在整体架构设计、性能效果以及支持的模 态数量等方面,相较于 OpenAI 推出的 GPT-4o 仍存在明显差距,比如 Llama 3.2 仍然是将 音频模型叠加到大语言模型上获得的多模态能力,而 GPT-4o 具备的以下能力仍然是多模 态模型的标杆: 1. 多模态理解与生成:支持文本、图像、音频、视频理解,文本、图像、音频生成 2. 统一模型:使用单一神经网络处理所有模态,而非多个独立模型的管道 3. 端到端训练:跨文本、视觉和音频进行端到端的联合训练 4. 实时交互:音频输入响应时间平均为 320 毫秒,接近人类对话反应速度,支持近实时 的语音对话和翻译。

多模态模型的发展可以给予 AI 应用和 AI 硬件的落地更大的想象空间,比如可以根据上 下文来理解和生成不同语气语调的音频;使用语音直接进行图片编辑;在 AI 硬件上直接 进行实时对话,将看到或者听到的内容实时翻译成另一种语言;实时逐步的对眼前的题目 进行解答等。

二、AI 应用渗透率持续增长,落地场景多点开花

2.1 AI 应用活跃度持续增长,应用场景得到认可,进入快速获客期

从 AI 应用的日活跃度数据看,ChatGPT 活跃度持续增长,其他 AI 聊天助手应用也保持增 长态势,AI 应用渗透率不断提升。从国内市场看,头部应用如 Kimi、文心一言、通义千 问、豆包等的活跃度也在不断提高,AI 聊天助手应用场景得到用户认可,进入快速获客 期。

视频模型在快速发展阶段,闭源模型如 Runway 和可灵的活跃度较为稳定,新发模型对应 用活跃度仍然有较大的提升。快手的可灵国际版实现了 AI 模型出海,属于现在可用模型 中在海外的评价较高的视频生成模型。开源的视频模型也在出现,包括 Meta 的 Movie Gen 和 Mochi 1。视频模型对算力需求的提升符合我们的预期,比如未量化版本的 Mochi 需要 4 个 H100 才能进行推理。

音乐和音频模型应用的市场空间仍有局限,部分新应用昙花一现,在爆发增长后用户没有 留存,活跃度持续下滑如语音合成应用 Murf 和音乐生成应用 Udio。但是部分应用如音乐 生成应用 Suno 和语音视频融合应用 Heygen 的活跃度较为稳定,用户留存率较高。随着多 模态模型的发展,音乐和音频应用的市场空间会被进一步压缩,创意和易用性是这类应用 发展和生存的关键。

2.2 AI 程序员是确定性的强需求

AI 代码生成已经从概念验证阶段进入企业实际应用阶段,并在提升研发效率方面展现出 明显价值。根据麦肯锡的调查,使用生成式 AI 进行代码文档编写时,可以节省约 45%到 50%的时间;在代码生成任务中,节省时间在 35%到 45%之间;而代码重构的时间节省幅度 较小,为 20%到 30%。对于高复杂性任务,生成式 AI 的效果最弱,时间节省不足 10%。整 体来看,生成式 AI 在较简单的任务上表现出显著的效率提升,而在处理复杂任务时,优 势相对较小。 从海内外科技公司来看,AI 程序员的渗透率也在不断提升,Google 在财报会上公布,目 前超过 25%的新代码是由 AI 辅助生成的,使用 AI 工具的开发者在软件开发任务上的效率 提升了 21%。Meta 内部广泛部署的 CodeCompose 工具为数万名开发者提供代码建议和片 段,其建议的接受率达到 22%,约 8%的代码来自于这些建议的采纳。在中国市场,阿里巴 巴的通义灵码(Tongyi Lingma)工具获得了 20%的采用率,显著提升了开发效率,特别在 测试代码实施方面减少了超过 70%的工作量。百度的智能代码助手 Comate(基于文心一言 大模型)更是贡献了该公司 27%的日常新增代码。

2.3 AI 搜索是 25 年最有希望诞生超级 APP 的赛道

在大模型上加入搜索功能,可以丰富模型的知识库,缓解模型无法获取新知识和幻觉问题 的出现,是最有希望诞生超级 APP 的赛道。Perplexity 作为主打 AI 搜索的应用,活跃度 数据再不断提升,同时 ChatGPT 推出的 Search 功能助力其活跃度再创新高,说明 AI 搜索 市场仍在快速发展期。Google 作为传统搜索引擎厂商,也在搜索中加入了 AI Overview, 对搜索结果进行总结,同时在 AI Studio 中也提供了 AI 搜索功能,其日活跃度目前还未 受到负面影响,但 AI 搜索工具都在积极替代浏览器默认搜索引擎,我们认为随着 AI 搜索 渗透率提高,传统搜索引擎厂商会受到更严峻的挑战。

2.4 AI 为通用型和数据类 SaaS 平台打开增长空间

在大模型时代,数据的重要性在快速提高,数据不仅是 AI 训练的基础,更是创新、性能 提升和商业成功的关键。数据的管理与安全 SaaS 平台业务迎来高速增长期。例如, Snowflake 产品收入达到 9.003 亿美元,同比增长 29%,产品收入超过 100 万美元的客户 相比上一季度的 510 个增加到 542 个,同样保持着高增长的还有 Datadog 和还未上市的 Databricks。除了数据类 SaaS 平台,通用类 Horizontal SaaS 平台如 ServiceNow、 Salesforce 也积极在业务中加入 AI 功能,比如 ServiceNow 引入了生成式 AI 功能,如 Now Assist 和 Generative AI Controller,这些工具帮助企业提高工作效率,简化项目 部署,并提供智能化的用户体验,Salesforce 也发布了 Einstein AI 平台,集成了多种 人工智能技术。

我们认为,AI 为 SaaS 公司带来了新的功能和机会,使其能够开发出以前无法实现的解决 方案,这种创新能力帮助企业在竞争激烈的市场中保持领先地位,并通过提供更具吸引力 的产品来扩大市场份额。对于细分领域定制化的 Vertical SaaS,我们认为机会会远小于 通用型 SaaS,垂类 SaaS 应用本身市场空间有限,并且随着 AI Agent 的成熟,其业务会 受到更大的冲击。

2.5 AI 眼镜是 AI 应用落地的最佳硬件,25 年将迎来发布潮和出货量大增

AI 落地需要硬件载体,目前主要包括 1)传统的消费电子产品,如手机、PC、智能音箱等; 2)创新型消费电子产品,如 AI Pin、Rabbit R1 等;3)眼镜形态的 AI 硬件。Al 赋能传 统消费电子,基于现有的成熟硬件,推动传统硬件 AI 化,继承传统硬件原有的生态,有 助于 AI 应用落地。对于创新型产品,可以探索新的硬件形态,想象力丰富,但需要市场 和消费者的验证, 无论是基于传统的消费品嵌入电子硬件,还是针对 AI 应用构建 AI 专 用硬件,对于用户的使用习惯、接受程度都是一个很大的挑战。

从输入输出方式上看,眼镜是最靠近人体三大重要感官的穿戴设备:嘴巴、耳朵和眼睛。 嘴巴是语言输出器官、耳朵是语言接受的器官、眼睛则是人类最重要的信息摄入器官,人 类 80%的信息来源于视觉。眼镜是人类穿戴设备和电子设备中最靠近这三大感官的群体, 是 AI 最好的硬件载体,可以非常直接和自然的实现声音、语言、视觉的输入和输出。目 前具备显示功能的眼镜重量仍然会远远超过日常佩戴的眼镜,但是只具备视觉和音频的眼 镜已经可以做到接近日常佩戴眼镜的重量。并且目前大模型发展的方向也是多模态和实时 性,作为聊天助手返回的内容主要还是文本,但是可以理解图片、视频、音频,只具备视 觉和音频的眼镜提供的交互方式契合大模型的使用方式,为目前 Al 应用最好的载体。

从具体产品看,Meta 与 Rayban 联名推出的眼镜在 2024 年 4 月开放 Meta AI 功能有已经 有放量的趋势,到 2024 年 Q2 有约 80 万的出货量。国内厂商也在积极布局类似形态的 AI 眼镜,2025 年将进入 AI 眼镜大量出货元年,并且随着光波导技术的成熟和模型多模态和 实时性能力的进步,AI 眼镜会有更好的体验。我们预计明年率先大量出货的仍是不具备 显示功能的类 Meta Rayban 形态眼镜,随着光波导中光机和波导片成本的下降和体积的缩 小,后年具备显示功能的 AI 眼镜有大量出货的机会。

三、算力系统面临“木桶效应”挑战,供给端瓶颈或成主要矛盾

3.1 人工智能算力系统面临诸多挑战

随着人工智能的发展,模型的规模和复杂性呈现出指数级增长,自 2012 年 AlexNet 问世 以来,算力需求迅速攀升。AlexNet 作为深度学习在计算机视觉领域的开创性成果,训练 时依赖于两块 NVIDIA GTX 580 GPU,耗费约 470 petaFLOP,标志着深度学习时代的来临。 而此后模型的扩展速度令人瞩目:2020 年推出的 GPT-3 模型拥有 1750 亿参数,训练消耗 约 3.14x108 petaFLOP,GPT-4 进一步升级至 1.8 万亿参数,依赖 25000 个 A100 GPU,计 算需求达 2.1x1010 petaFLOP,耗时 90 至 100 天,硬件与能源的需求达到新高度。 在最新的超大规模模型——Gemini Ultra 上,算力要求再度跃升至 5x1010 petaFLOP。谷 歌为此部署了大量 TPUv4 和 TPUv5e 加速器,以应对计算需求和硬件挑战。Gemini Ultra 的训练使用了多个数据中心中跨集群的 TPUv4 加速器,配置在 4096 个芯片组成的 SuperPod 中。每个 SuperPod 通过高速互联进行数据通信,并利用专用光开关在大约 10 秒 内动态重配置为 3D 环面拓扑。

随着超大规模模型对硬件资源的需求不断增加,系统故障率也相应上升,平均故障间隔时 间成比例下降。谷歌通过减少抢占和重新规划的比率尽量减少硬件故障的影响,但在如此 规模的硬件部署中,故障不可避免。Gemini Ultra 的计算复杂性推动了多模态 AI 架构和 大规模硬件集群的极限,尽管当前的硬件性能接近瓶颈,但要满足这种庞大模型的训练需 求仍需数月的时间和大量的能源投入。 然而,单卡算力、互联性能和能源供应的发展速度已逐渐趋缓。即便硬件性能逐年提升, 模型规模的增长速度却更为迅猛,带来了计算瓶颈和能耗压力。因此,AI 模型的未来发展 将面临这些硬件和能源限制的制约,解决这些关键短板将成为 AI 系统持续迭代和优化的 核心挑战。

3.2 单卡算力升级速率落后于模型迭代速率,Blackwell 延后预示系统摩尔进一步降速

在我们之前的报告中,我们已经指出,当前基于传统摩尔定律的发展速度(即单芯片晶体 管数量的扩展速度)已经远远落后于人工智能模型对于算力的需求。最新的 Epoch AI 数 据表明,当前一些知名模型的训练所需算力仅需大约六个月就能实现翻倍。我们对这些数 据进行了更深入的分析后发现,如今更为主流的多模态大模型(例如 Gemini Ultra 和 GPT4)在算力需求方面的增长趋势更为陡峭。这些模型的算力需求翻倍时间已经缩短到不到 六个月。 与此形成鲜明对比的是,传统摩尔定律所定义的晶体管数量翻倍周期是 18 个月,这意味 着上述多模态大模型的算力需求增长速度已经显著超越了传统芯片晶体管数量增长速度。 换句话说,大模型算力需求的增长速度已经明显领先于传统摩尔定律所能支撑的硬件性能 提升速度。

系统摩尔是业界为应对摩尔定律放缓的解决方案。英伟达最新的 Blackwell 架构的核心特 性之一是其多芯片模块(MCM)设计,B200 芯片将两个接近光罩极限面积的芯片通过 NVHBI 技术连接在一起,该技术基于 NVLink5.0 协议,提供高达 10TB/s 的带宽。

从单卡性能来看,以芯片面积增益进行归一化计算后,空气冷却的 B200 在 FP16 FLOPS 性能上每单位芯片面积仅提升了 14%,这与人们对全新架构的期望相去甚远。这是因为大 部分性能提升主要依赖于更大的芯片面积和量化优化。 由于计算芯片(die)的面积不断扩大,封装所需的中介层面积也相应增加,导致整体成 本上升。与采用完整硅中介层的 CoWoS-S 技术相比,CoWoS-L 技术通过在有机基板中局部 嵌入硅桥的方式,减少了硅的使用量,从而有效降低了成本。这也是 Blackwell 选择采用 CoWoS-L 封装技术的主要原因。但与此同时带来的,是工艺上的新难题,Cerebras 联合创 始人指出,此次 Blackwell 延后的核心原因是,GPU 之间以及 HBM 和 GPU 之间的局部硅桥 的位置校准出现了偏差,尤其是在 Blackwell 所采用的接近两倍光罩极限面积的中介层 上,其工艺难度进一步增加,另外,计算 die、CoWoS-L 中局部硅桥、以及 CoWoS-L 中介 层中的 RDL 部分三者的热膨胀系数之间的差异也会导致封装结构出现弯曲,影响系统性 能。 发布会上英伟达表示 GB200 相较于 H200 在 1.8T 参数的 GPT-MoE 模型上的推理性能将提 升 30 倍,然而,这一数据是基于一个非常特定的最佳场景得出的。需要明确的是,这一 场景在理论上确实可以实现,但并不能完全代表市场中的普遍应用场景。解释 30 倍性能 提升的一个关键因素是将 GB200 NVL 在 FP4 下的性能与 H200 和 B200 在 FP8 量化下 的性能进行对比,而且比较基准选取的是最不适合 H200 的 64GPU 张量并行,根据Semianalysis 模拟分析,这一情形下实际性能提升仅有 18 倍,如果在更贴近现实的情况 下,性能提升幅度将更低。

我们认为 Blackwell 因设计问题延迟出货已经反映出了数据中心高性能计算芯片在制造 段继续迭代的瓶颈,尽管英伟达可以通过节点内和节点外互联提升总体系统性能,但我们 认为单卡算力(计算性能/功耗)的提升仍旧是必要的,节点内 GPU 间通信(NVLink)慢于片 上通信,节点间通信(Infiniband/Ethernet)又显著慢于节点内通信,导致并行化带来的 算力提升是边际递减的,单卡 PPA 的提升仍是后续系统性能继续提升的关键。

当前市场对英伟达的预期相当充分,根据彭博一致预期,市场预期英伟达 FY2025Q4 至 FY2026Q3 毛利率分别为 73.5%、72.2%、72.9%、74.2%,说明市场对未来三个季度 Blackwell 研发部署对毛利率的压制是有所认知的,但认为 FY2026Q3 对毛利率的压力将有所缓解。

从时间线上来看,FY2026Q3 英伟达或将开始出货 Blackwell Ultra,Blackwell Ultra 即 为 Blackwell 的 HBM 升级版本,技术上难度相对 Blackwell 并没有显著提高,市场预期 FY2026Q3 毛利率有所回升是合理的。我们不同于市场的观点是,应当警惕下一代产品即 Rubin 不能如期发布的风险,对英伟达的下一代产品来说,从芯片制造的角度,我们认为 无论是从单位面积晶体管缩放还是先进封装角度,实现大幅度性能提升的难度都不容小觑。

3.3 数据中心电力消耗呈指数级增长,核电或成最优解决方案

根据 IDC 数据,24 年云服务厂商数据中心容量达到 28240 兆瓦(MW),2028 年将达到 56756 兆瓦(MW),CAGR 为 19%。24 年云服务厂商数据中心预计消耗电力约达到 563 亿千瓦时, 按全球 23 年发电量 29.92 万亿千瓦时来算,云厂数据中心耗电量占比将达到 0.2%,而如 果按全部数据中心耗电量 4170 亿千瓦时来计算,则这一比例达到 1.4%。按 2028 年 8568 亿千瓦时用电量来计算的话则占比达到 2.9%。数据中心耗电量的快速上升将会影响到正 常生活中的用电。且全球主要数据中心集中在中国、美国、欧洲等地区,这些国家发电量 仅为全球的一半左右,但数据中心用电量基本没有减少,数据中心耗电量的比例在这些国 家中的还会继续上升。如果再进一步集中到这些国家中数据中心密集的地区,则地区的用 电压力还会进一步提升。

为了应对越来越高的能源需求,主要的云服务厂商都打算将能源供应的责任放在核电站上。独立于居民、工业用电的核电具备许多优势。1)尽管核电站的建设成本历来较高,但其 运营成本相对较低,单个反应堆的发电容量通常超过 800 MW。此外,核电站发电过程中 不直接排放二氧化碳,对于那些投资高能耗数据中心且试图实现减排目标的科技公司来说, 核能具有重要吸引力。2)与住宅或许多其他行业的用电需求不同,数据中心的用电需求 在一天中的各个时间段相对稳定。这种持续的用电需求非常契合核电站的运营特点,后者 通常无法快速调整发电功率以应对需求波动。核电站持续稳定的发电能力能够确保数据中 心在全天候都能获得足够的电力,同时还为其提供了零碳排放的大规模能源来源。3)当 数据中心与发电源直接连接时,数据中心可以直接从发电厂获取电力,而无需经过更大的 输电网络。尽管购电协议的存在并不要求发电厂和数据中心必须在同一地点,甚至不需要 在同一时间发电和用电,但这种安排可以通过直接将需求增长与发电来源匹配,降低整体 电网成本。 24 年 3 月,亚马逊斥资 6.5 亿美元,从电力运营商 Talen 能源手里买下一座占地 1200 英 亩的“核电数据中心园区”——数据中心就坐落在两个核反应堆边上。除此之外,亚马逊 也在积极和 Constellation Energy 寻求更多核电站合作。24 年 9 月,Constellation Energy 宣布了一项为期 20 年的购电协议(PPA),将为微软位于美国中大西洋地区的数据 中心提供电力。这些电力将来自宾夕法尼亚州三哩岛核电站的 1 号反应堆。谷歌 24 年 10 月宣布,与 Kairos Power 公司签署协议,将利用小型核反应堆来生成支持其人工智能(AI) 数据中心所需的巨大能源。根据协议内容,谷歌计划在本十年内开始使用首个核反应堆, 并在 2035 年前引入更多的核能设施。

但核能并非毫无风险。除了核反应堆安全问题之外,数据中心&核电站供电方式也存在新 的问题。虽然新建核电站可以单独供给数据中心,但已建成的核电站通常与电网相连,数 据中心过度供电依旧会威胁电网的可靠性,产生的额外费用目前也没有规定该由谁支付。 这也是 24 年 11 月,美国联邦能源管理委员会否决亚马逊增加数据中心供电提案的主要 原因。 考虑政治&安全因素,一些大国如中国、美国国内核电站新建政策可能会收紧,但东南亚 一些国家正在积极扩张核电。除了越南、缅甸、马来西亚等已经建设或考虑建设核电站的 国家外,泰国于 11 月 15 日签署核电站项目合作备忘录,首次启动核能发展,以推动清 洁、低成本能源建设。该项目以 SMR 小型模块化反应堆技术为核心,旨在降低电价并减少 碳排放。该技术具有高安全性、空间需求小等优势,并计划将核电纳入 2037 年国家清洁 能源发展目标。

四、大模型推理服务大规模部署,如何影响硬件市场?

4.1 大模型性能提升,推动推理算力需求加速增长

大模型服务已从聊天机器人进化为严肃生产力,十一月中,MacOS ChatGPT 客户端已经开 始支持读取用户屏幕上的代码并给出编程建议,这是 OpenAI “Work with Apps”功能在 编程工具上的体现,从名字上可以看出,该功能可能不仅面向编程工具,未来可能支持更 多工具。Anthropic 也已在十月中发布了其 Claude 3.5 Sonnet 更新版本,通过其 “Computer USE”API,Claude 被训练具备屏幕视觉理解能力,能够“观察”屏幕上发生 的事情,并通过分析屏幕截图理解用户界面(UI)的布局和内容。当开发者将特定任务交 付给 Claude 并授予其必要的权限时,它可以通过解析截图计算光标需要移动的具体像 素距离(包括垂直和水平方向),以便精准定位到目标区域进行操作。 尽管作为第三方模型,Work with Apps 和 Computer USE 并没有接入系统底层,大模型在 系统层面的集成已经初见雏形,从推理算力的结构上来看,系统集成大模型提供类似于 AI Agent 功能,输入和输出 Token 的数量将大大增加,单位 Prompt 所需的推理算力将显著 增长。

根据我们追踪的 ChatGPT 访问量数据,我们认为大模型正在被加速应用,其生产力属性已 经在消费级市场获得了验证,GPT-4o 和 Claude 3.5 的发布代表着大模型能力进入了一个 新的阶段,将驱动推理算力需求的大幅提升。

4.2 服务器推理:内存墙难破,HBM 容量仍为竞争要点

GPT 类模型通过给定前文来预测下一个 token(即单词或符号)进行训练。在生成文本时, 需要首先输入提示词(prompt),然后模型预测下一个 token,并将其添加到提示词中, 随后再预测下一个 token,重复这一过程直到完成生成。这一生成机制每次生成下一个 token 时,所有模型参数必须从内存传输到处理器,而这些庞大的参数需要尽可能靠近计 算单元存储,以降低数据传输的延迟,必须确保这些参数能够在需要时精准加载到芯片上。 这种推理模式对硬件的内存带宽、容量以及数据传输效率提出了严苛要求,也成为当前生 成式 AI 技术突破的重要瓶颈之一。 Instinct GPU 相对于英伟达 GPU 一直提供更高的存储容量和存储带宽,MI325X 和 Hopper 架构中存储容量最大的 H200 相比,Instinct 在显存容量上具有 1.8 倍的优势,这意味着 加载特定模型参数时所需的 GPU 数量减少了 1.8 倍,同时,AMD 在带宽上也具备 1.25 倍的优势,这表明在将模型参数传输至 GPU 的过程中所需时间更短。 在 AMD 的路线图中,未来的 Instinct GPU 的存储容量和带宽将持续增长,MI355X 将采用 HBM3E,存储容量将达到 288GB,带宽将达到和 B200 相同的 8TB/s,而存储容量将显著高 于 B200 的 192GB。

Instinct GPU 除了在存储容量方面具有显著优势,其相对英伟达 GPU 较低的定价更为低 廉,三星于去年采购过一批 MI300X GPU,单价约为一万美金,相较于当时 H100 三万至四 万美金,有显著的成本优势。根据我们的产业链调研,出于降低成本和寻找第二供应商的 考虑,海外云场正在积极尝试使用 AMD GPU 集群。尽管 AMD 受制于软件生态和互联性能在 训练领域尚难以于英伟达竞争,我们认为随着推理算力需求大幅提升,AMD 在该领域将持 续收益。

4.3 端侧推理:单用户推理导致内存端高成本,端云结合将是未来趋势

AI 手机和 AIPC 提供的端侧 AI 允许用户将数据留在本地,但端侧 AI 的单用户场景意味着 Batch Size 为 1,这意味着每次从内存加载模型参数到芯片上时,其成本只能分摊到单个 token 上,无法通过其他用户的并发计算来缓解这一瓶颈,服务器端的推理我们先前已经 讨论过,内存墙仍然存在,但多个用户的推理请求使内存加载参数的成本分摊到多个 token 上,大幅降低单个 token 生成的开销,对生成式模型的推理效率提升有显著作用。 从模型参数占据的存储空间来看,当前 AI 手机的内存容量仍旧是严重不足的。以 Llama 7B 模型为例,在 FP16 格式下,每个参数占据两个字节,对应 14GB 的内存容量,除此之 外,手机 RAM 中还需要存储应用程序和操作系统相关数据,在 AI 手机本地存储并运行这 一规模的端侧模型还是颇有难度的。根据 IDC 数据,端侧 AI 需求尚未推动智能手机单机 内存容量显著增长,我们认为这并非手机厂商没有意识到端侧 AI 的重要性,而是在端侧 实现高性能模型所需的存储容量远高于目前技术所能提供的,即便手机厂商将存储容量从 16GB 提升至 32GB 能够显著增大可容纳模型参数规模,但和超大云端模型当前所能提供的 性能相比,我们认为仍旧是不具有可比性的。

从消费者的角度来看,端侧并非严肃生产力场景,用户并不需要频繁处理复杂任务。即使 是在类似 AIPC 这样的端侧场景中,复杂任务往往可以通过网页或客户端接入云服务来完 成,而非依赖本地化运行复杂内容。因此,单纯为了本地化复杂任务而额外增加内存开销 并不具备充分的合理性。 我们认为,端侧 AI 用户的核心需求并不在于直接在本地处理复杂任务,而是通过 AI 实 现系统层面的非标准化操作。例如,自动将个人住址信息填写到电商应用中。相比单纯依 靠提升 AI 能力来满足这些需求,我们认为更优的解决方案是将系统底层的数据接口和 指令接口与 AI 模型深度集成。具体而言,AI 模型可将用户指令拆解为具体操作指令, 并通过脚本直接与操作系统交互,从而以更高效、更经济的方式实现个性化功能。 在本地模型性能显著提升需要大量额外内存容量,而端侧 AI 用户的核心需求能够通过数 据接口和脚本操作来满足的背景下,我们认为端侧 AI 硬件厂商大幅增加内存容量并非明 智之举。当前市场数据也验证了这一观点,在内存技术尚未实现单位体积容量大幅提升或 单位容量成本显著下降的前提下,端侧 AI 硬件厂商对内存容量配置的谨慎态度可能将 持续。

五、AI 设备销量正在提升

24 年三季度,AI 手机销量达到 1.47 亿台,同比增长约 8%,AI 笔电销量达约 1450 万台, 同比增长 110%。

5.1 AI 手机焦点在于旗舰机

相较于传统智能手机,AI 手机在硬件上重点突出了 NPU 和内存的提升。AI 手机主要由 NPU 来负责端侧的推理,部分解放了 GPU 资源,使得手机可以更好的运转。同时内存容量的提 升也是在进行端侧推理却不降低手机流畅性的必要条件。作为新加入者的 AI 功能,用户 对其的要求是不能影响以前的视屏、游戏、办公等功能。因此,高配置、高价格的旗舰机 在硬件需要提升带来成本增长的情况下更能满足消费者的需求,涨价也更容易被消费者接 受。从价格上看,全球智能手机价格在 21 年后缓慢回升,且 700 美元以上的智能手机销 量在不断提升,24 年三季度销量达到约 7400 万台,同比增长 2%。 10 月安卓系厂商公布的数据表明了消费者对于新一代旗舰机的热情。根据 vivo 官方公告, X200 系列手机全渠道销售金额已经突破了 20 亿元,这一数据打破了 vivo 历史上所有新 机销售记录,显示了消费者对这一系列新品的热烈欢迎。截至 2024 年 10 月 19 日,X200 系列的销量估计在 29.4 万到 46.5 万台之间(按最低价与最高价估计)。11 月 9 日,在小 米直播中,小米集团总裁卢伟冰透露,小米 15 系列的销量已破 100 万台,破百万的速度 要快于前代小米 14 系列。

24 年三季度,在具备基础 AI 功能的手机中,苹果占约 42%的份额,安卓系厂商占到约 58% 的份额。而在可以完成本地推理的 AI 手机中,苹果 24 年三季度占据约 60%的份额,安卓 系厂商约占到 40%。我们认为在 2022 年 ChatGPT 爆火后的两年中,安卓系厂商和苹果在 推进将 AI 功能融入进自己的生态中。即使现在爆款的 AI 应用还没有出现,但各家大厂已 经在硬件、软件、生态上布局,目标是当爆款 AI 应用真正出现时,自家的旗舰手机能够 支持这些应用。

硬件的提升是手机更新换代中至关重要的一环,但与以往不同的是,这次 AI 革命中,硬 件、软件、生态缺一不可。 SoC 端,23 年以来,联发科天玑系列芯片的崛起,为安卓系厂商旗舰机新增了一个选择。 以往,高端手机除了苹果外,高通旗舰芯片几乎是唯一选择。但在 2023 年联发科使用天 玑9300的ARM公版4超大核+4大核的策略以来,联发科凭借其优异的性能使得今年vivo、 OPPO 等厂商选择天玑 9400 作为旗舰机的 SoC 选择。在目前的竞争中,苹果 A18 Pro 搭载 了和 A17 Bionic 相同的 16 核 NPU,支持每秒高达 35TOPS 的计算能力。高通骁龙 8 Elite 采用增强的 Hexagon NPU 技术,具备 80TOPS 算力,性能提升了 45%,能效提升了 45%, 支持更长的 token 输入、多模态 AI 助手的本地部署,综合 AI 性能增强达到 45%。天玑 9400 凭借全新第八代 NPU 890,不仅 AI 跑分再夺得苏黎世理工学院的 AI Benchmark 测 试第一,同时还首发带来了天玑 AI 智能体化引擎,端侧视频生成及端侧 LoRA 训练,全面 提升了端侧 AI 的体验。我们认为,安卓系手机厂商在有了更多的旗舰 SoC 选择后对于高 通的依赖性将会有所降低,更有效的策略会促使厂商研发更能满足消费者的产品。

正如前文提到的那样,我们认为在未来,端云结合是更适合 AI 手机的方案。操作系统的 提升是端侧 AI 推理对使用体验提升最直观的场景,也是目前手机厂商关注的重点。在硬 件支持端侧推理后,苹果着重强化了 Siri 的能力,规划中 Siri 将扮演智能语音助手的职 责,帮助用户用语音或简短的文字操作手机。新 AI 技术加持后,Siri 的交互更加自然灵 活。用户可随时与 Siri 交流,还可在文本与语音之间随心切换,即便用户表述不够连贯, Siri 也能顺畅理解,并能为连续的请求沿用语境场景。实际操作过程中,系统的反馈速 度、对用户要求的准确性都是影响体验的关键因素,因此端侧硬件的性能以及模型的能力 都至关重要。小米也在不断更新小爱同学,让其完成 AI 手机助手的职责。在娱乐场景可 以通过端侧的推理简单、高效的强化用户体验,一些小型的的生产力场景如会议纪要/文 件摘要在端侧完成也可以大幅提高效率。而在一些大型生产力场景如生成视频或者多路并 行任务,云端推理可以解放本地资源,使得手机运转更为流畅。

通常来说,端云结合的模式下,需要硬件(性能)、软件(适配操作系统)、生态环境(AI 应用的数量及质量)、云(模型质量及云服务质量)等环节参与。我们认为全部环节都可 控并参与的手机厂商更容易成功。苹果、谷歌在某项上有些缺陷,但整体来看链路更为完 整。苹果在硬件、软件、生态环境、云服务上能力都很强,但是在模型领域需要暂时和 OpenAI 合作。谷歌有原生安卓支持、Gemini 强大的模型能力,但在硬件上自己的 Pixel 手机渗透率低,需要仰仗三星端侧硬件拓展用户。两者相比的话,苹果的 AI 服务现金化 率我们认为将会更高。1)苹果本身用户群体更容易接受付费。iPhone 的价格在所有大厂 的智能手机中属于偏高的档次,苹果的用户付费能力也会更强一些。从苹果 FY23-24 财报 来看,服务收入为 961.69 亿美元,同比增长约 13%,收入占总收入的 24.59%,是除 iPhone 外收入最高的产品。此次 Apple Intelligence 的订阅费为 20 美元/月,与 ChatGPT 订阅 费一致,用户平替的阻碍较小。谷歌的 Gemini 近期从免费变为收取 20 美元/月的订阅费, 相对来说,用户付费阻力更大一点。根据数据,24 年一季度虽然谷歌 Play 商店应用总下 载量 (255 亿次)远超过苹果 App Store 的 84 亿次,但苹果在 2024 年一季度的收入为 246 亿美元,反而是谷歌同期 112 亿美元收入的“近两倍”。 2)苹果硬件软件生态更为完整,同时与 OpenAI 的合作摩擦更少。作为谷歌 AI 的载体, 三星即将收取 AI 服务费,这降低了用户对 Gemini 的付费意愿。三星作为全球安卓手机市 场的龙头,对谷歌的态度处于合作&竞争并存的状态,这种合作形式不利于谷歌全额赚取 AI 服务的费用。

5.2 AI PC 的竞争将会越发激烈

24 年三季度,全球 AI 笔电销量达到约 1400 万台,同比增长 105%,AI 笔电渗透率达到了 约 30%,相比二季度提升了约 5 个百分点。其中英特尔核 AI 笔电销量约为 720 万台,占 比约 50%,苹果、AMD、高通核的 AI 笔电销量分别为 540 万、134 万、55 万台,占比分别 为 37%、9%、4%。

作为传统 CPU 厂商,英特尔在互联网时代凭借的设计牢牢把控着服务器、PC 设备 CPU 的 市场,同时和微软的“Wintel”联盟以及芯片先进制成使得英特尔的护城河足够宽。但在 近些年移动互联网(手机等移动设备)的发展过程中,英特尔错失了手机 CPU 市场。再加 上三星、台积电工艺迅速提升而英特尔晶圆技术发展陷入停滞,除了传统服务器&PC CPU 业务外,英特尔近年来业务范围和规模不断缩小,导致收入与利润水平不断下滑。因此, 在“最后的大本营”CPU 处理器上,英特尔实际已经不能再失败。但与二十年前一家独大 不同的是,在 X86 架构处理器上 AMD 已经摆脱需要英特尔这个对手帮助存活的阶段,开始 抢占英特尔的份额。而在 ARM 架构处理器上,苹果依靠着 M 系列芯片出色的设计、台积电 先进工艺的加持以及强大的生态环境等优势,稳定的占据 ARM 架构 PC 的份额。虽然,在 全球所有 PC 设备处理器市场中,英特尔依旧保持着领先地位,72%左右的市占率虽然相比 之前有所下滑,但依旧遥遥领先份额缓慢上升的 AMD(约 16%份额)。但在 AI 笔电领域, 份额下滑到约 50%的英特尔将会遇到更多竞争。

在 X86 与 ARM 的竞争中,虽然 ARM 功耗低带来续航的优势,但 X86 架构下好用的各种 APP 为 X86 构建起了软件护城河。即使苹果在努力扩大自己的软件生态,同时提升 ARM 转译 X86 能力,短时间内仍不足以在 MacOS 跑通全部应用,X86 架构将继续享有软件生态上的 优势。在 X86 生态内,AMD 是英特尔最大的对手。凭借着 AI 笔电中 SoC 优异的性能,以 及反超的发布规划,AMD 正走在抢占英特尔 AI 笔电份额的路上。 近几个月,英特尔、AMD 分别推出 Ultra Lake 和 Ryzen AI 系列芯片,两家 SoC 厂商在苹 果以外的 X86 架构 AI 笔电市场展开了竞争。AMD 在芯片推出时间上占据了优势,但随着 英特尔采用台积电 3nm 先进工艺,英特尔 Ultra 200s 系列芯片在功耗&性能上有所改善, 抢占了大批 OEM 市场。高通 X Elite 系列芯片近期表现不佳,X Elite 核笔电的价格偏高 的同时,性能却不如同为 ARM 架构的苹果。在适配性上,高通 X Elite 芯片在转译 32 位 X86 软件时性能下滑严重,同样也让想要良好软件生态的用户有所顾虑。 英特尔 Lunar Lake 系列芯片在 24Q2&24Q3 都有不错的销量,四季度英特尔发布了新一代 Ultra 架构芯片,在功耗上有明显提升,我们认为英特尔核 AI 笔电四季度的销量将会继 续增长。苹果凭借 M3 芯片的强大性能维持销量的稳定,我们认为四季度 M4 核 AI PC 推出 后,苹果销量将继续增长。AMD Ryzen 300 AI 系列在 8 月正式发布,在芯片性能表现优 异的情况下我们认为 4 季度 Ryzen 300 AI 芯片的销量占比将会提高。高通由于 X Elite 在性能&价格等方面的劣势暂时销量较低。

我们认为未来 X86 笔电市场竞争将会更为激烈,英特尔和 AMD 产品在性能、续航、适配 性、生态方面各分秋色。而在 X86 台式机领域,由于功耗的重要性大幅降低,AMD 的 CPU 性能更为出色使得用户更偏向于采用 AMD CPU 的个人台式机或者工作站电脑。在 ARM 领 域,苹果的优势更为明显。高通 X Elite 目前性能仅与苹果 M1、M2 芯片类似,同时在生 态上远远落后于苹果及 X86 架构对手。短时间内高通很难与苹果竞争 ARM 架构 AI 笔电的 市场。ARM 市场除了苹果与高通外,联发科&英伟达合作开发的 AI PC 也将于 2025 年进入 市场。据报道,这款 3nm AI CPU 将结合联发科的 CPU 技术与 NVIDIA 的 GPU 技术,旨在实 现高效的图形处理与 AI 计算能力。该芯片的流片阶段预计已在 24 年年 10 月正式展开, 英伟达的 AI PC 芯片预计将在 2025 年下半年首次亮相市场,并在 2026 年进入商业生产 阶段。短期内,英伟达与联发科合作的 AI PC 处理器受制于生态以及产品经验不足,很难 与苹果竞争,但长期来看,英伟达、联发科合作的新片性能值得期待。

5.3 AI 设备产业链随着 AI 加入将迎来更新换代

除了处理器之外,在 AI 设备产业链中,我们认为散热、光学、OLED 和内存都是确定性较 强的产业机会。即使现在最先进处理器的制程达到了 3nm,但在本地推理的计算压力和高 频内存的读取压力下,芯片散热依旧是需要解决的大问题。苹果在 iPhone 16 上首次增加 了均热板来解决问题。虽然第一次添加的均热板面积不够大,也没有像安卓系旗舰那样通 过多种导热材料散热,但从零到一表现出了苹果对散热问题的重视,同时也为供应链新增 了增量。 在光学领域,我们认为随着大模型多模态性能不断提升,作为输入口的摄像头及 CMOS 模 组有更新升级的机会。24 年三季度 4800 万像素以上的手机占比已经超过了 80%,我们认 为手机摄像头还会继续迭代向 6400 万以上像素。除此之外,LiDar、ToF 等激光传感器或 光学镜头也会随着 AI 眼镜、AR/VR 设备渗透率提升而放量。

OLED 屏幕凭借其更好的显示效果、响应速度快、功耗低等优势击败 LCD 成为主流旗舰机 的标配。而随着人们对旗舰机的接受程度更高,OLED 渗透率也在不断提升。目前,在一些 更追求显示效果的场景中,比如苹果 Vision Pro,即使 Micro OLED 目前成本极高,但其 凭借其出色的显示效果成为了显示屏的选择。等到 Micro OLED 技术更为成熟,我们认为 OLED 屏幕将迎来新一轮产品结构优化。

DRAM 市场经过短期整固并且低端产品逐渐淘汰后,会继续强势。目前,由于手机端侧模型 的部署的推迟,手机内存大小虽然在旗舰机中普遍有所上调,但涨幅并不算大。我们认为 在 AI 手机端云结合的理想模式下,内存的带宽的要求带来 DDR4 向 DDR5 以及 DDR6 提升, 同时内存的频率及大小也会提升。由于体积&功耗的限制,手机很难将内存提升到类似 Macbook 128G 内存的水平,但为满足大模型性能的提升,16G 至 32G 的内存在未来是必须 的。

六、智能驾驶&机器人行业正在摸索技术路径

6.1 智能驾驶:模块化方案与端到端方案之争

在智能驾驶领域,技术路径的选择不仅关乎技术发展的方向,还深刻影响商业化落地的进 程。目前,行业内主要存在两种技术路线:模块化方案和端到端方案。模块化方案以 Mobileye 和 Waymo 等企业为代表,而端到端方案则更多由特斯拉和一些前沿研究团队推 动。 模块化方案将自动驾驶任务分解为多个独立模块,包括:1)感知:通过摄像头、激光雷 达等传感器识别环境中的物体。2)定位:使用高精度地图和 GNSS 定位技术确定车辆的准 确位置。3)决策规划:根据感知和定位的信息,制定行车路径。4)控制:将规划转化为 车辆的具体动作。模块化方案通过这四步循序渐进完成自动驾驶。这种方案的优点是可解 释、可验证、易调试,但缺点也很明显:传递过程中信息损耗、任务多且散导致低效、存 在复合误差。这种方案中,Mobileye(摄像头+高精地图)和 Waymo(摄像头+激光雷达+毫 米波雷达等多种传感器)走的最远,也和 Uber 和 Lyft 等大型出租车平台展开了 RoboTaxi 相关合作。24 年 11 月,Lyft 一次性宣布了三项 Robotaxi 相关合作,分别是与自动驾驶 方案商 Mobileye、自动驾驶接驳车公司 May Mobility,以及基于 AI 的行车记录仪制造商 Nexar。根据计划,Lyft 将从 2025 年开始逐步引入上述公司的技术,以提供自动驾驶运 送乘客的服务。 端到端方案基于统一的神经网络从原始传感器数据输入直接到控制指令输出的连续学习 与决策过程,过程中不涉及任何显式的中间表示或人为设计的模块。特斯拉发布的 FSD V12 则是端到端方案。 我们认为目前两种方案在复杂场景和简单场景中各具优势,未来的方向可能是在简单环境 下使用端到端方案,而在较为复杂的城市中心场景使用模块化方案。 从技术角度看,无论使用什么方案,车厂仍需一段时间才能达到 L4+级别的自动驾驶,而 国内新能源汽车渗透率较高将一定程度上降低未来消费者对新能源汽车的需求。

6.2 具身智能想要放量需要更实用的场景及更低的价格

具身智能可以通过机器人或其他具身设备与真实世界进行交互,实现感知、决策和行动的 闭环。这一领域结合了人工智能、机械设计和感知技术,赋予机器自主学习和适应复杂环 境的能力,使其在无人配送、灾害救援、仓储物流等场景中大放异彩。目前包括波士顿动 力、特斯拉、小米、宇树等厂商都积极投入。 我们认为国内龙头公司如宇树更容易放量。宇树在四足机器人领域实现了高集成度的小型 化和模块化设计,使其机器人具有强大的灵活性和高性价比。相比于其他品牌,如波士顿 动力的 Spot,宇树的产品不仅在成本上更具优势,而且在可拓展性上也非常突出。同时, 宇树通过技术优化,将四足机器人价格拉低至几万元的级别,大幅降低了企业和个人的购 买门槛,使得这一技术能够从实验室走向实际场景。低成本的实现并未牺牲性能,其产品 依然能够应对复杂的地形环境和高强度任务,这为其在物流、安防和教育等市场开辟了广 阔的应用空间。

(本文来源国金证券,如有侵权请联系删除)

展开全文
速看!社保和公积金的基数,必须一致吗?
每月为啥只发21.75天工资?官方解释来了!
社保临退休未交够,养老金可以取出来吗?可以退保吗?
延迟退休10问,与你息息相关
无固定期限劳动合同不能解除?这14种情形除外!
唐山市住房公积金管理中心关于2024年度住房公积金缴存基数调整工作的通知
唐山市印发 《唐山市灵活就业人员缴存使用住房公积金管理办法(试行)》
唐山市《关于2024年度住房公积金缴存基数调整工作的通知》政策解读
《上海市关于进一步加强本市重点产业领域技能人才培养试点工作的通知》政策问答
上海市关于进一步加强本市重点产业领域技能人才培养试点工作的通知
青海:城乡居民基本养老保险推出惠民新政
北京:“安薪北京”冬季行动持续推进
顶部
AI赋能,让您的工作更高效
您可以向我询问有关该内容的任何信息,或者点击以下选项之一:
{{item}}
{{copyMenuTxt}}
您可以向我询问有关该内容的任何信息,或者点击以下选项之一:
{{item}}
{{copyMenuTxt}}
三茅网出品,免费使用
复制
全选
总结
解释一下
延展问题
自由提问
联系我们(工作日 09:00-19:00 )