
146: Gemini 3翻盘背后、Agent需要什么大模型、RL创业机会,与前 Google 创业者、硅谷投资人聊湾区动向
12/26/2025 | 1h 40 mins.
「一线开发者看到的前排变化。」 本期是 137 期 Agentic 工具链节目的嘉宾返场,Henry 和 Naomi,他们近期刚刚和普林斯顿 AI 加速创新中心联席主任,王梦迪教授,一起成立了一家新的早期 VC,MoE capital。 这次一起的也有两位之前在 Google DeepMind 和 谷歌云 Vertex AI 平台工作 7 年,刚刚创业,成立 Agent 工具层公司 Precur 的戴涵俊和 Bethany。 我请他们分享了,岁末年初,在硅谷观察到的 AI 水温,OpenAI、Google 等一系列新模型进展背后的故事,和围绕当今 Agent 与 RL 生态的创业机会。 这是我们本年关于 Agent 的第 8 期节目。 本期嘉宾: Bethany Wang,Precur 联创 戴涵俊,Precur 联创 Henry Yin,MoE Capital 创始合伙人 Naomi Xia,MoE Capital 创始合伙人 本期主播: 程曼祺,晚点 LatePost 科技报道负责人 时间线: -基础模型竞争和幕后故事:Google 在旧金山开 Gemini 3 Party 的同一天,OpenAI 发布 GPT-5.2 06:11 AI 进入实用工作:OpenAI 的 GDPval,Databricks 也发布了 Office QA 14:25 GDPval 在主流知识工作上表现优秀,但基础模型处理长尾问题的 gap 始终存在 19:09 Gemini 3 后,OpenAI、Anthropic、Google、各自的进展 22:15 NotebookLM 和 Nano Banana 策源地——Google Labs,不仅招工程师,也有主编、作家、创作者 24:54 DeemMind 研究员 Orio:Gemini 3 的秘密?预训练还有很多空间;TPU 对 Google 训练的加持 https://pic4.fukit.cn/autoupload/n-L6s5C_cu5ZZHPwIYlQzY12_FRYNb81z6UPhMWD8iI/20251226/CtEk/1178X828/%E4%B8%8B%E8%BD%BD.png/webp 26:34 Google 的 3 层协同优化:从 TPU 到 Infra 到模型;模型和应用;数据和硬件 surface(终端) 30:18 Google TPU 已经更多对外,这对英伟达 GPU 优势的影响 38:02 回顾组织变化:DeepMind 和 Google Brain 的合并与磨合 -大厂竞争中,新公司的成长:围绕 RL 与 Agent 的创业机会 43:31 垂类的机会:弥补基础模型到具体问题的差距;水平的机会:调度层、数据层、工具层都有新公司涌现 50:17 技术新趋势——自我演化:RL、用 RAG 加长记忆有人尝试,但远不是成熟方案 53:32「可训练的工具层」背后的技术变化:code 驱动工具,如 Anthropic 的 PTC(Programmatic Tool Calling) 59:44 RL 创业方向:RL 环境,RL as a Service,RL 应用 01:08:47 Agent 开发者挑选模型的前置条件:用什么云(比如 Azure 客户用不了 Gemini),再看云厂商折扣 01:12:20 Anthropic 的 Claude Code 已成为 Agent 核心,刚发布的 Promatic to Call 探索新开发范式 01:17:13 开源模型使用体验:Qwen 很棒;驶往 NeurIPS 的飞机上,1/3 人在看 DeepSeek-V3.2 技术报告 01:22:04 选择模型时,关注什么 benchmark & 为什么? 01:29:34 模型优化方向预测:加入大量 agent trace 的开源模型,更强的多模态,长程任务优化 01:38:58 连点成线:往期节目推荐 《晚点聊》今年关于 Agent 的更多节目: 晚点聊 106 期:与真格戴雨森长聊 Agent:各行业都会遭遇“李世石时刻”,Attention is not all you need (https://www.xiaoyuzhoufm.com/episode/67cdb53f7ccfd410926b0c66) 晚点聊 110 期:《与明势夏令聊Agent竞争:通用入口之战就要来,创业要做垂、做专》 (https://www.xiaoyuzhoufm.com/episode/67fd8cafcc06f8ff48a73642) 晚点聊 111 期:Pokee.ai 朱哲清的 Agent 造法:强化学习作后端,语言模型作前端 (https://www.xiaoyuzhoufm.com/episode/680818eb79d324fdd40c2b5e) 晚点聊 130 期:手机Agent大幕拉开!从刚上线的AutoGLM 2.0聊起,大模型如何改造手机 (https://www.xiaoyuzhoufm.com/episode/68a6546b7357a4b631fe8cd3) 晚点聊 136 期:Sora新世界 & Lovart 4个月复盘 | 与陈冕聊怎么做垂类Agent| (https://www.xiaoyuzhoufm.com/episode/68e82298b97d3bce02b4f815) 晚点聊 137 期:Agent 是机会,造 Agent 的工具也是|从OpenAI开发者日聊起 (https://www.xiaoyuzhoufm.com/episode/68f1727052f01d1dd2a00523) 晚点聊 138 期:从你用手机到它更懂你,OPPO的手机AI实践 |与小布负责人万玉龙聊端侧AI (https://www.xiaoyuzhoufm.com/episode/68faad2749540bd15c2ee589) 附录: 本期中提到的一些 benchmark: -GDPVal:OpenAI 今年 10 月发布的、用于评估大模型在复杂推理与决策场景中“价值对齐与结果质量”的验证型 benchmark,强调输出是否符合人类偏好而不只是“做对题”。 -ARC-AGI-2:ARC Prize 今年 3 月发布的、用于测试模型在少样本条件下的抽象、组合推理能力,被视为接近“通用智能门槛”的挑战集。 -OfficeQA:Databricks 今年 12 月发布的、围绕办公场景(文档、表格、邮件、日程等)的 benchmark,用来评估模型在真实工作流中的信息检索、理解与执行能力。 本期中提到的一些产品/服务、公司 -PTC(Programmatic Tool Calling):Anthropic 今年 11 月底发布的一种新的工具调用方法 https://www.anthropic.com/engineering/advanced-tool-use -Tinker:Thinking Machines Lab 今年 10 月发布的首个对外产品 https://thinkingmachines.ai/blog/announcing-tinker/ -Preference Model:一家旧金山初创企业,做强化学习环境 剪辑制作:甜食、Nick 小红书@曼祺_火柴Q (https://www.xiaohongshu.com/user/profile/5dfa9e92000000000100626f?xsec_token=YBSKzbnOGWpnyJ5fxw_yafTdnAUIDw-EfCtqmFTkCIM2o=&xsec_source=app_share&xhsshare=CopyLink&appuid=5dfa9e92000000000100626f&apptime=1736682459&share_id=331aecb9ca7941f498d81fb9c32ea810)即刻@曼祺_火柴Q (https://okjk.co/FBoH1Q) https://cdn.z.wiki/autoupload/20250129/p96l/1428X298/%E6%92%AD%E5%AE%A2-%E7%BB%93%E5%B0%BE%E4%BD%9C%E8%80%85%E7%AD%BE%E5%90%8D.png ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 https://tc.z.wiki/autoupload/f/vF9vElnh05iCqwr0xfm9iL4wP3sHaC7Y1psXYbgMe5eyl5f0KlZfm6UsKj-HyTuv/20250730/YNjr/907X339/WechatIMG1646.jpg 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章: https://hv.z.wiki/autoupload/20250129/DqTi/1452X514/%E6%92%AD%E5%AE%A2%E7%BB%93%E5%B0%BE%E6%88%AA%E5%9B%BE.png

145: 对话极壳孙宽:首个「消费级外骨骼」的诞生
12/17/2025 | 2h 8 mins.
「创业治好了我的死亡焦虑。」 极壳是第一家把外骨骼做成消费级产品的公司。21 年成立以来,他们经历过账上只有20万元人民币的危急时刻,也刚在今年融到了 7000 万美元,出货量达到数万台。 https://pic4.fukit.cn/autoupload/n-L6s5C_cu5ZZHPwIYlQzY12_FRYNb81z6UPhMWD8iI/20251217/tCS8/2390X794/%E6%88%AA%E5%B1%8F2025-12-17_13.38.57.png/webp 图注:极壳已发布 4 款消费级外骨骼产品。 这只是个开始,远远不意味着成功。孙宽多次告诉我们,消费级外骨骼还在非常早期的阶段;他享受定义一个新品类的乐趣,也深知跨越鸿沟,走出小众市场的挑战。 这是一家起步时没有风口的公司;这是一个父母开手机卖场,从小做各种发明,但没有名校光环的创始人。 孙宽分享了他早年的“折腾”经历,他创立极壳、开发出第一款产品的故事,以及他对未来的更多想象。 https://pic4.fukit.cn/autoupload/n-L6s5C_cu5ZZHPwIYlQzY12_FRYNb81z6UPhMWD8iI/20251217/Uwyx/1279X1706/WechatIMG60.jpg/webp 图注:孙宽是一个户外爱好者;极壳的主要目标用户是户外人群,外骨骼可以帮助他们增强运动能力。 本期嘉宾:孙宽,极壳创始人 & CEO 本期主播: 程曼祺,《晚点 LatePost》科技报道负责人 李梓楠,《晚点 LatePost》科技报道作者 时间线跳转: -水滴字幕、光固化 3D 打印机、3 年轮岗、内部创业 03:05《攻壳机动队》、90 后的科学幻想、技术是魔法 13:25 第一份工作:从轮岗 3 年到模块化 PC 的内部创业 18:27 一次误诊后回到初心:做一件做着做着挂了的事也不会后悔 -从 1 人公司,到第一款消费级外骨骼 26:51 1 人公司手搓原型,一度账上只有 20 万元人民币 40:06 做“真有用”的消费级外骨骼:拉高核心正面效果,尽量降低负面影像 49:41 推倒第一代方案,用户体验比新架构重要 01:04:27 正式交付 Hpershell X,有人日行 7 万步,有人重返户外 -效率的迭代:从 40 个月到 5 个月 01:09:11 从成立到第一款产品,40 个月;第二代产品,5 个月 01:05:08 从 1 人公司,到 4 位联创和 200+团队 01:25:47 对拓竹组织的观察:好的人,希望身边都是好的人 -跨越鸿沟 01:32:52 品类跨越鸿沟:营造向往、价格、自研、形态拓展 01:49:47 组织跑得更快 -创业之后更踏实了,“活对了的感觉” 01:56:22 创业治好了我的“死亡恐惧”。 01:59:53 广义的外骨骼,最终是让我们的身体可编程。 02:05:40 连点成线:后记 & 往期节目推荐 往期「消费科技」创始人访谈: 晚点聊 120 期:《科创板后再访Insta360刘靖康:这何尝不是一种极限运动!》 (https://www.xiaoyuzhoufm.com/episode/684b3febcdecf72d4cb70f82) 晚点聊 141 期:《大疆激光雷达前负责人做了台“电动轮椅”?与 Strutt 洪小平聊创业两年半:不做人形也能通向具身》 (https://www.xiaoyuzhoufm.com/episode/6923997b83aceb424d94f667?s=eyJ1IjogIjYwZDg0ZWU1ZTBmNWU3MjNiYjc3YjhmMCJ9) 往期「AI 硬件」创始人访谈: 晚点聊 107 期:与Haivivi李勇聊月入千万的AI Jellycat:小众AI硬件×大众消费品的交叉口创业 (https://www.xiaoyuzhoufm.com/episode/67d2a7cb52a6af799c23479a) 晚点聊 118 期:《天生卷王郭人杰:从 97 年的扫地机器人总裁到创业做家庭通用机器人》 (https://www.xiaoyuzhoufm.com/episode/68379234661c1af455c9e42c) 晚点聊 122 期:10分钟朱啸虎投资,泡泡玛特、米哈游都在试;Fuzozo孙兆治聊AI潮玩 (https://www.xiaoyuzhoufm.com/episode/67d2a7cb52a6af799c23479a?s=eyJ1IjogIjY1ZGRjOWUyZWRjZTY3MTA0YWUxMWU0YiJ9) 剪辑制作:甜食 小红书@曼祺_火柴Q (https://www.xiaohongshu.com/user/profile/5dfa9e92000000000100626f?xsec_token=YBSKzbnOGWpnyJ5fxw_yafTdnAUIDw-EfCtqmFTkCIM2o=&xsec_source=app_share&xhsshare=CopyLink&appuid=5dfa9e92000000000100626f&apptime=1736682459&share_id=331aecb9ca7941f498d81fb9c32ea810)即刻@曼祺_火柴Q (https://okjk.co/FBoH1Q) https://cdn.z.wiki/autoupload/20250129/p96l/1428X298/%E6%92%AD%E5%AE%A2-%E7%BB%93%E5%B0%BE%E4%BD%9C%E8%80%85%E7%AD%BE%E5%90%8D.png ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 https://tc.z.wiki/autoupload/f/vF9vElnh05iCqwr0xfm9iL4wP3sHaC7Y1psXYbgMe5eyl5f0KlZfm6UsKj-HyTuv/20250730/YNjr/907X339/WechatIMG1646.jpg 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章: https://hv.z.wiki/autoupload/20250129/DqTi/1452X514/%E6%92%AD%E5%AE%A2%E7%BB%93%E5%B0%BE%E6%88%AA%E5%9B%BE.png

144: 从「大而强」到「小而强」,密度法则、RL 的 Scaling Law 和智能的分布式未来
12/11/2025 | 1h 41 mins.
本期嘉宾,是清华大学的刘知远和肖朝军,他们刚在 11 月的《自然》杂志《机器学习》子刊上发表了封面文章:Densing Law of LLMS,大模型的密度法则。所谓“密度”,就是用更少的算力和数据获得相当乃至更多的智能。 刘知远是清华计算机系副教授和面壁智能首席科学家,肖朝军现在在清华做博士后,也是面壁 MiniCPM 系列的文本模型负责人。 https://pic4.fukit.cn/autoupload/n-L6s5C_cu5ZZHPwIYlQzY12_FRYNb81z6UPhMWD8iI/20251211/ajP0/1280X699/da0e6f3b-bcb7-44e0-8f3f-48e0e5d66648.png/webp 图注:此图描述了 2023 年 4 月之后,主要开源模型的能力密度的变化。能力密度是衡量单位参数/算力下,模型能力的指标。目前版本的密度法则总结了预训练大语言模型的密度变化,o1、R1 等后训练强化学习对能力密度的提升尚未体现在指标里。 我们讨论了密度法则研究的源起,也展开聊了业界提升模型能力密度的具体做法:如何从架构、数据治理、算法和软硬协同优化 4 个环节着手提升模型能力密度。 而再往后,更大的密度提升,可能需要一些全新方法,因为强化学习的 Scaling Law 还未清晰展现,未来可能有两种技术路线:一是继续扩大强化学习的规模,观察其中是否涌现更多泛化能力;二是寻找新的学习方式。 在刘知远的设想中,未来,更高密度的模型,会支持每个人在端侧的专属模型,智能会分布式存在:也许手机都不是最终的入口,而是一个可以随身携带的个人计算设备:“就像一个可以随身携带的 NAS”。 https://pic4.fukit.cn/autoupload/n-L6s5C_cu5ZZHPwIYlQzY12_FRYNb81z6UPhMWD8iI/20251211/J3ZV/1080X679/31971587-39a6-4c14-a140-c117c88bcd67.png/webp 图注:达到 GPT-4V 水平的模型参数规模随时间增长迅速缩减,而端侧算力快速增强,当芯片电路密度(摩尔定律)和模型能力密度(密度法则)两条曲线交汇,端侧设备将能运行以往只能在云端运行的大模型。 性能一直是人们更关注的模型演进的脉络,而这期我们会讨论,在另一条主线“效率”上,我们可以做出什么努力。 本期嘉宾: 刘知远,清华大学计算机系副教授、面壁智能首席科学家 肖朝军,清华大学计算机系博士后、面壁智能 MiniCPM 系列文本模型负责人 本期主播:程曼祺,《晚点 LatePost》科技报道负责人 时间线跳转: -大模型时代的“摩尔定律” 02:09 Gemini 3 和 Nano Banana Pro 的启发:统一的“自回归式视觉+语言生成”即将突破 04:31 大模型演进的两条主线:能力和效率 10:23 和摩尔定律一样,“密度法则”是行业现实,也是“自我实现” 18:43 每 3.5 个月,大模型的能力密度翻一番 21:01 2023 年下半年的抉择:花几千万再训一个更大的模型,然后呢? -提升密度的四个环节 27:08 架构、数据、算法、软硬协同优化 30:41 (1) 架构:MoE (混合专家系统) + 注意力机制改进 34:28 (2) 数据治理:Ultra-FinWeb 用 1/10 数据量达到更好效果 40:24 (3) 算法:RL 还没有 Scaling Law,接下来可能有两条路 49:21 (4) 软硬协同优化 52:02 InfLLM-V2 的核心更新:把稀疏注意力做到预训练阶段 55:18 注意力改进趋势:长文本不仅是长输入,更多关注“长输出” -大模型上车、上手机 58:53 5 年内,手机可跑 GPT-4~5 级别的模型 01:06:23 大模型在汽车上已开始量产落地 01:10:34 “别人得到的,不一定是你失去的”,AGI 既会发生在云端,也会发生在终端 01:15:07 未来入口也许不是手机,而是属于每个人的移动计算终端 -AGI 下一步:自主学习 + 分布式的智能 01:17:40 自主学习→AI 协作网络→真正的创新 01:21:04 2023 年初,有巨头说世界上只会拥有几个大模型,就像 1943 年,IBM 董事长曾说全球不需要超过 5 台主机 01:24:46 AI 助手帮成为更好的工作者 01:28:53 不担心生产过剩,未知领域还太多 01:31:39 机器制造机器,AI 制造 AI 01:40:01 ☆连点成线 相关链接: 晚点聊 143 期:《再聊 Attention:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进》 (https://www.xiaoyuzhoufm.com/episode/692cd86fe4244f7e3d3ad135) 晚点聊 103 期:《用Attention串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进》 (https://www.xiaoyuzhoufm.com/episode/67bf356952a6af799c558399?s=eyJ1IjogIjYwZDg0ZWU1ZTBmNWU3MjNiYjc3YjhmMCJ9) 剪辑制作:Nick 附录,本期提到的一些论文(更多具体名词解释,见本期文字版): Densing law of LLMss (https://www.nature.com/articles/s42256-025-01137-0)(《大模型的密度法则》) Efficient GPT-4V level multimodal large language model for deployment on edge devices (https://www.nature.com/articles/s41467-025-61040-5)(本期中提到的,具身行业喜欢引用的图的原始论文。) InfLLM-V2: Dense-Sparse Switchable Attention for Seamless Short-to-Long Adaptation (https://arxiv.org/abs/2509.24663)(InfLLM 稀疏注意力改进的第二版。) 本期主播: 小红书@曼祺_火柴Q (https://www.xiaohongshu.com/user/profile/5dfa9e92000000000100626f?xsec_token=YBSKzbnOGWpnyJ5fxw_yafTdnAUIDw-EfCtqmFTkCIM2o=&xsec_source=app_share&xhsshare=CopyLink&appuid=5dfa9e92000000000100626f&apptime=1736682459&share_id=331aecb9ca7941f498d81fb9c32ea810)即刻@曼祺_火柴Q (https://okjk.co/FBoH1Q) https://cdn.z.wiki/autoupload/20250129/p96l/1428X298/%E6%92%AD%E5%AE%A2-%E7%BB%93%E5%B0%BE%E4%BD%9C%E8%80%85%E7%AD%BE%E5%90%8D.png ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 https://tc.z.wiki/autoupload/f/vF9vElnh05iCqwr0xfm9iL4wP3sHaC7Y1psXYbgMe5eyl5f0KlZfm6UsKj-HyTuv/20250730/YNjr/907X339/WechatIMG1646.jpg 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章: https://hv.z.wiki/autoupload/20250129/DqTi/1452X514/%E6%92%AD%E5%AE%A2%E7%BB%93%E5%B0%BE%E6%88%AA%E5%9B%BE.png

143: 再聊 Attention:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进
11/30/2025 | 1h 27 mins.
「不仅是提效,线性注意力在数据受限情况下的更多潜力。」 今年初的两期节目(103、104 期)里也讨论过注意力机制,这是大语言模型的核心机制。 9 月 和 10 月,阿里和 Kimi 都发布了相关进展,而且都用到了一个线性注意力成果,DeltaNet。 本期嘉宾,就是 DeltaNet 的核心贡献者之一,现在在 MIT 读博士的杨松琳,她也是线性注意力开源小组 FLA 的发起者。 这期节目在 25 分钟以前很硬核,松琳讲了线性注意力和 DeltaNet 的发展脉络,为何 21 年刚被提出时没引起太多注意,后来怎么进化的。 25 分钟以后,是关注 AI 比较多的文科生,比如我也能完全跟上的部分。我们讨论了,重新去做 full attention 的 MiniMax,以及未来要在旗舰模型上用线性注意力的 Kimi 和阿里的不同选择;线性注意力的优劣势;以及一些脑洞——如果算力无限,还需要线性注意力?松琳给了很有启发的回答。 最后半小时,松琳分享了她作为研究员,怎么习得交叉技能的,怎么开始发起FLA小组等成长经历。 本期嘉宾:杨松琳,MIT 博士生在读,DeltaNet 贡献者 本期主播:程曼祺,《晚点 LatePost》科技报道负责人 时间线跳转: -DeltaNet 的诞生演进与近期动向 02:07 注意力机制是什么? 04:21 DeltaNet 的提出,用 Delta Rule 来增强 in-context retrieval 09:41 近年的改进主要是模型架构,而非“更新规则” 14:25 阿里 Qwen 团队 apple to apple 比较几种线性注意力混合方式;Kimi Linear 对 Gated Delta 的具体改进 17:00 更新规则和模型架构改进的区别:更新规则是在算子层面“动刀” 19:50 算法出身,自学 Infra;学习 Hazy Research Group 的风格 23:28 Qwen 和 Kimi 大概率在下一代旗舰模型用线性注意力,而 MiniMax 用回 full attention;DeepSeek 目前释放的改进都是“稀疏注意力” 37:07 稀疏注意力 vs 线性注意力潜力对比 39:40 即使算力无限,线性注意力仍有价值,因为它在有限数据中的学习效率更高,而高质量数据正是当前瓶颈 42:28 线性注意力在状态追踪上也可能有效果优势,而状态追踪对 Agentic 很重要 47:33 线性注意力的“归纳偏见”和 The Bitter Lesson:先验与 scalable 并不矛盾 49:30 回应 RWKV(原始智能)彭博:从未说发明 DeltaNet,一直在给 Schmidhuber 署名 -Householder 与 DeltaNet 的联想,像运营产品一样运营技术社区 51:51 关注注意力改进的起点,数学知识、Infra,交叉能力怎么积累? 58:48 发现 Hoseholder 累乘和 DeltaNet 关联的过程 01:02:44 AI 何时能像人这样产生联想?——Prompt 合适,大模型应该能独立发现这个算法 01:04:11 FLA 小组的产生,受 Tri Dao 做 FlashAttention 的启发,像运营产品一样运营技术社区;Kimi 从 FLA 小组招募了线性注意力研究者 -注意力改进的未来趋势 01:11:24 稀疏注意力的改进,DeepSeek 年初 NSA 到最近 DSA 的变化 01:16:44 线性注意力的改进,从线性混合全注意力,到线性混合稀疏注意力(比如混合 DeepSeek DSA 和 Kimi KDA 😀 01:21:10 更广泛来说,关注何种模型演进?——持续学习 相关链接: 图文版:《再谈注意力:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进丨晚点播客》 (https://mp.weixin.qq.com/s/bjRAqIn9sEVE03dW6ToEEg) 晚点聊 103 期:《用Attention串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进》 (https://www.xiaoyuzhoufm.com/episode/67bf356952a6af799c558399?s=eyJ1IjogIjYwZDg0ZWU1ZTBmNWU3MjNiYjc3YjhmMCJ9) 晚点聊 104 期:《我给线性注意力找“金主”,字节 say No,MiniMax say Yes》 (https://www.xiaoyuzhoufm.com/episode/67c63718e24b741ee8e2ee63?s=eyJ1IjogIjYwZDg0ZWU1ZTBmNWU3MjNiYjc3YjhmMCJ9) 剪辑制作:Nick 附录,本期提到的一些论文(更多具体名词解释,见本期文字版): Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention (https://arxiv.org/abs/2006.16236) Linear Transformers Are Secretly Fast Weight Programmers (https://arxiv.org/abs/2102.11174) Parallelizing Linear Transformers with the Delta Rule over Sequence Length (https://arxiv.org/abs/2406.06484) Gated Linear Attention Transformers with Hardware-Efficient Training (https://arxiv.org/abs/2312.06635) Recurrence-Complete Frame-based Action Models (https://arxiv.org/abs/2510.06828) 本期主播: 小红书@曼祺_火柴Q (https://www.xiaohongshu.com/user/profile/5dfa9e92000000000100626f?xsec_token=YBSKzbnOGWpnyJ5fxw_yafTdnAUIDw-EfCtqmFTkCIM2o=&xsec_source=app_share&xhsshare=CopyLink&appuid=5dfa9e92000000000100626f&apptime=1736682459&share_id=331aecb9ca7941f498d81fb9c32ea810)即刻@曼祺_火柴Q (https://okjk.co/FBoH1Q) https://cdn.z.wiki/autoupload/20250129/p96l/1428X298/%E6%92%AD%E5%AE%A2-%E7%BB%93%E5%B0%BE%E4%BD%9C%E8%80%85%E7%AD%BE%E5%90%8D.png ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 https://tc.z.wiki/autoupload/f/vF9vElnh05iCqwr0xfm9iL4wP3sHaC7Y1psXYbgMe5eyl5f0KlZfm6UsKj-HyTuv/20250730/YNjr/907X339/WechatIMG1646.jpg 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章: https://hv.z.wiki/autoupload/20250129/DqTi/1452X514/%E6%92%AD%E5%AE%A2%E7%BB%93%E5%B0%BE%E6%88%AA%E5%9B%BE.png

142: 一款能主动教学的 AI 产品是如何出现的|对话斑马 CPO 修佳明
11/24/2025 | 1h 15 mins.
教育或许是最难被技术改造的领域,因为它太强调互动、个性化的体验与启发性的反馈,这个过程既难标准化,又无法快速复制。 直到大模型的出现,让人第一次看到了教育被技术大规模改造的可能性。市场上旋即涌现出来的各种五花八门的 AI 教育产品,它们从各种层面试图运用大模型的能力,但也反映出在原理技术到面向市场的商业产品之间,大模型在教育场景的落地还存在着一条难以被清晰描摹的鸿沟。 今天的播客,我们与斑马首席产品官修佳明探讨了这条鸿沟本身,以及斑马逾越它的方式。 基于大模型特点,原生构建的 AI 教育产品应该是什么样的?如何摆脱工具属性,让大模型 Agent 成为一个可以主导教学过程的教育产品?如何设计教学梯度、节奏和目标,既能发挥大模型的主动性,又不让一切偏离教学目的本身?如何让大模型更好理解人类在教学领域积累的各种经验,让它更好实践已被证明有效的各种教学法和教育心理学方法? 对这些问题的回应将决定一款 AI 教学产品的本质,进而决定它的商业化前景。修佳明给出了斑马的回答。 本期节目由 斑马口语 特别支持播出。 本期嘉宾:修佳明,斑马首席产品官 本期主播:申远,晚点 latepost 记者 时间线跳转: -Part1:斑马心中的全栈式 AI 教育产品 04:36 确定性的方向 08:01 与模型“搏斗” 13:58 为什么开发 delay 了? -Part2:主动性 VS 被动型,斑马产品的核心差异 20:56 从维持能力到突破能力 24:08 让大模型学会人的教学经验与教学法 29:36 更难的是对(教学)难度的控制 34:16 这种模式适合所有人吗? 35:54 让 AI 提供一种教学情绪价值 41:38 对 AI 外教人格的理解 -Part3:将 AI 产品推向市场 47:37 试用用户的反馈与规则设定 52:06 如何衡量 AI 的教学能力? 56:28 未来的 AI 教学产品会如何发展 59:22 如何运用数据和经验:斑马的 AI 壁垒在哪里 01:04:05 AI 产品还是教育产品?斑马的付费和定价策略 相关链接: 《主导型教育 Agent 产品,是口语学习的终极答案吗?》 (https://mp.weixin.qq.com/s/OlSnwvQKmu3_4F-7hU5XBQ) 本期主播:申远,晚点 latepost 记者 https://i.ibb.co/pt55jRm/20251121-223803.png ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 https://tc.z.wiki/autoupload/f/vF9vElnh05iCqwr0xfm9iL4wP3sHaC7Y1psXYbgMe5eyl5f0KlZfm6UsKj-HyTuv/20250730/YNjr/907X339/WechatIMG1646.jpg 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章: https://hv.z.wiki/autoupload/20250129/DqTi/1452X514/%E6%92%AD%E5%AE%A2%E7%BB%93%E5%B0%BE%E6%88%AA%E5%9B%BE.png



晚点聊 LateTalk