从 2024 年 6 月 WWDC 的高调亮相算起,国行用户为这一刻等了整整 21 个月。APPSO 在第一时间完成了激活和全面实测,先说结论:体验很「苹果」,但效果很一般。但如果你期待的是一个能跟 Gemini 或豆包正面交锋的 AI 系统,这不是你想要的。值得注意的是,这次苹果国行 AI 突然上线可能是一次意外,并非正式发布。一向以苹果爆料闻名的彭博社记者 Mark Guman ,称国行 AI 还没拿到监管批准,他给出了以下理由:1.苹果国行 AI 上线,官方不可能没有任何宣传动作。2.苹果不会在中国凌晨发布国行 AI 。3.它会调用 Google 作为视觉识别引擎,这在中国本就不合理因此,这很可能是一次国行 AI 的限量版体验,APPSO 先把实测关键点总结给大家。
激活方式:更新后进入「设置 → Apple 智能与 Siri」(原「Siri」入口已更名),点击 Apple 智能按钮即可开始下载模型,完成后解锁全部新功能。需机型支持。
已上线功能:全新 Siri 界面、写作工具、图乐园、AI 消除、视觉智能、翻译等(部分功能目前存在激活失败的情况)。
点击进入,再点亮 Apple 智能的开关,系统开始下载端侧模型。整个过程需要连接 Wi-Fi,下载时间取决于网络状况,我们实测大约花了十分钟左右。下载完成后,一系列新功能随即解锁。机型方面有硬性要求:iPhone 15 Pro 及后续机型才能运行 Apple 智能,更早的 iPhone 15 标准版因芯片和内存限制被排除在外。
Siri 现在同时支持语音和文字输入,这意味着你在会议室或者安静的公共场合也能通过打字跟它交流,不用担心开口说话的尴尬。
语义理解能力有所提升,能处理一些上下文连贯的对话。但在我们的实测中,Siri 的深度对话能力距离 ChatGPT 或者豆包仍然有肉眼可见的差距。值得注意的一点是大模型调用的问题。国行版 Apple 智能调用的后端模型情况比较复杂。视觉识别 AI 方面,我们通过 iPhone 16 的「相机控制」按钮实测,调出的视觉识别引擎应该来自 Google。
而在 Siri 的对话和内容生成环节,APPSO 实测发现是有可能调出 GPT 的,网上也有调出百度文心大模型的。这一点颇为微妙,因为此前业界普遍预期国行版只会接入百度和阿里的模型。具体的模型调用策略,苹果官方尚未给出明确说明,也许跟网络环境高度相关。写作工具覆盖了系统级文本输入场景,包括备忘录、邮件、信息等原生 App。选中一段文字后,可以调用润色、改写、摘要等功能。速度是写作工具最令人印象深刻的地方。由于模型运行在本地,从点击到结果呈现几乎没有感知延迟。在备忘录里选中一段 200 字的草稿,点击「改为专业语气」,不到两秒就输出了完整结果。这种即时反馈对日常使用来说体验非常好。
但端侧模型的能力天花板也肉眼可见。复杂长文本的摘要有时会遗漏关键信息,语气改写偶尔会产生不够地道的表达。跟调用线上大模型的写作工具相比,它胜在速度和隐私,输在精度和灵活度,在云端模型面前,苹果的 AI 写作工具就像小学生。Apple 智能下载完成后,桌面会新增一个「图乐园」App。它支持根据文字描述生成图片,提供素描、插画、动画三种风格。你可以输入描述,也可以直接用照片库中的人脸作为素材,生成带有本人特征的艺术风格图像。生成速度很快,大约三到五秒就能出图,这得益于端侧扩散模型的优化,但手机会明显发热。苹果显然没有把图乐园定位成一个专业创作工具,它更像是一个系统级的趣味配件,如果你真要玩 AI 修图,请出门左转选择豆包。
AI 消除是本次更新中最实用的功能。在照片 App 中打开一张图片,选择消除工具,用手指涂抹需要去除的主体,系统会自动识别并完成消除和背景填充。 好消息是速度快到令人惊讶。选中、涂抹、消除,整个过程不超过三秒,完全在本地完成。日常清理照片中的路人、电线杆、垃圾桶之类的干扰物,效率极高。坏消息是,精度不够。
在我们的实测中,AI 消除能够快速识别并去除主体,但细节层面存在明显瑕疵。放大图片后可以看到阴影残留、边缘模糊、填充纹理不连续等问题。如果是消除一个背景简单的小物体,效果尚可;但面对复杂背景或者大面积消除,画面破绽一目了然。跟 Gemini 或者豆包的消除功能相比,Apple 智能的 AI 消除有明显差距。但苹果选择把所有处理放在本地,换来的是隐私和速度,代价就是质量上的折让。比较私人的照片资料,也许端侧模型用起来会更让人放心一些。
系统级翻译功能现在也被纳入 Apple 智能的体系。支持实时对话翻译和文本翻译,在信息、Safari 等场景中可以直接调用。响应速度很快,可以提前下载好语言包,实测在 iPhone 或者 AirPods Pro 3 上都能激活。但在翻译质量上,它跟 DeepL 或者 Google 翻译的差距仍然存在,特别是在长句、专业术语和语境判断上。翻译功能对于苹果来说更像是一个系统级的实用补充,而非要在翻译赛道上跟专业选手竞争。
苹果最初的计划是在 2025 年中将 Apple Intelligence 带到中国市场,可惜这个时间表几乎从一开始就注定要被推翻。 由于合规要求,无论是苹果自己的云端模型还是 OpenAI 的 ChatGPT 都无法直接在国内使用,这意味着苹果必须找到本地合作伙伴。 苹果先是接触了百度,尝试接入文心一言,但据报道在技术对接和模型表现上遇到了障碍。随后,苹果转向阿里巴巴。2025 年 2 月,阿里巴巴集团董事局主席蔡崇信公开确认了双方的合作关系。根据方案,阿里的通义千问将作为 Apple Intelligence 在国行设备上的模型底座,同时负责内容合规审查。阿里还会在苹果的端侧模型之上部署一个审查层,确保 AI 输出符合国内法规要求。
但随着 2025 年上半年,世界局势的急剧变化,以及 AI 行业的迅猛发展,苹果的国行 AI 也从「行货」变成了「期货」。 此后,国行版 Apple Intelligence 的上线日期经历了多次推迟。最初锚定 2025 年中,推迟到 iOS 18.6(2025 年夏),再推迟到 iOS 26.1、iOS 26.2、iOS 26.4。2025 年 11 月,彭博社记者马克·古尔曼在 Power On 专栏中直言,国行版落地「遥遥无期」。他指出,除了监管问题之外,Apple Intelligence 本身的工程进展也不顺利,模型性能未达预期。最新的消息是,苹果计划在 iOS 27 中开发 Siri 的第三方 AI 接口,同时与 Google Gemini 深度合作,双管齐下来提升苹果 AI 的使用体验——但这种把半条命交给合作伙伴的做法,也意味着苹果在这轮 AI 大模型的军备竞赛中已经输了。苹果能做的,就是牢牢把住 AI 硬件的入口——数十亿级的苹果生态设备。
这也是为什么,国行 Apple 智能必须尽快推出的原因,苹果要赶在 WWDC26 之前,完成全球范围的布局,为 AI 时代的 App Store 扫清障碍。2026 年 3 月 31 日。距离苹果成立 50 周年的 4 月 1 日恰好只剩最后一天。Tim Cook 发布公开信回顾公司 50 年的历程,全球多地 Apple Store 举办了特别活动,我们也受邀参加了苹果在成都和上海的特别演出。
就在这个时间窗口里,Apple 智能悄悄降临国行设备。苹果没有解释为什么选择这个时间点,也没有给出关于合作模型、审批进展的任何官方说明。但时间节点本身已经足够说明问题:在迈入下一个 50 年的门槛上,苹果大概不希望自己最大的海外市场之一仍然被排斥在 AI 时代的门外。
从商业角度看,这也合理。中国市场的 iPhone 销量在过去两年持续承压,Tim Cook 本人多次在财报电话会上承认,Apple Intelligence 的缺席是国行 iPhone 竞争力下滑的原因之一。与此同时,华为、小米、OPPO 等国产厂商早已在 AI 功能上全面铺开,部分品牌还陆续接入了 DeepSeek 和龙虾,体验差距越拉越大。苹果需要这个功能落地,而且需要在 50 周年这个全球瞩目的节点上落地。把 Apple 智能放回它该有的坐标系里来看:它不是一个要跟 ChatGPT 或 Gemini 争夺「最强 AI」头衔的产品,它是苹果把 AI 能力融进系统层的第一步。 端侧模型带来的速度和隐私优势是实实在在的。
对于普通用户来说,能在本地完成文本润色、照片消除、信息摘要这些日常操作,不需要把数据交给任何云端服务,这件事本身有价值。但如果你已经习惯了豆包、Kimi、DeepSeek 这些国产 AI 产品的能力水准,Apple 智能目前的表现大概率会让你觉得「就这?」。端侧模型的参数量级和推理精度决定了它的上限,苹果在隐私和性能之间做出了清晰的取舍,而你需要判断这个取舍,是否符合你自己的需求。等了快两年,Apple 智能终于来了。它迟到得太久,以至于我们对它的期待已经从「改变游戏规则」降到了「先能用再说」,但它确实来了。在苹果 50 岁生日的前一天。