iOS 26.4重磅更新!Siri史诗级重构,苹果AI终于硬刚谷歌OpenAI
:牵手Gemini重构底层,迟到两年的Siri终于要变聪明了用了这么多年iPhone,相信不少人对Siri的印象还停留在“人工智障”——喊半天没反应、只会认关键字、复杂指令直接卡壳,慢慢就成了手机里的摆设。但这次苹果真的要动真格了,iOS 26.4官宣2026年春季上线,新一代Siri迎来诞生以来最彻底的底层重构,还直接牵手谷歌Gemini,正式在生成式AI领域和谷歌、OpenAI正面对决。等了两年的Siri升级,到底藏了多少干货?今天就跟大家聊点实在的。这次Siri的AI升级,最早能追溯到2024年WWDC开发者大会,当时苹果首次亮出Apple Intelligence,原计划塞进iOS 18。但苹果对AI品控要求苛刻,原有架构和大语言模型融合不顺,体验不达标只能推迟到2026年。这波跳票也让苹果内部大调整,撤换原AI部门主管、整合Siri团队,由Vision Pro团队主管接手,库克更是在内部放话:不计代价做AI,要当行业领导者。不同于以往的修修补补,iOS 26.4里苹果对Siri做了端对端的完全重构,苹果软体工程主管Craig Federighi直言,这次成果远超过最初的承诺,也让新一代Siri有了和主流AI助手掰手腕的底气。这次Siri升级的核心,就是告别单一的语音转文字+关键字辨识,正式迈入 语意推理 时代。过去的Siri像个机械工具人,依赖多个模型分步解析请求,稍微复杂的指令就拉胯,完全不懂语境和用户意图。而iOS 26.4的新一代Siri,直接将大型语言模型作为核心架构,和ChatGPT、Gemini用的是同一套核心逻辑。新版Siri不会完全变成纯聊天机器人,但具备深度语意理解能力,还能处理多步骤复杂任务,简单说,终于能“听懂人话”了。苹果这次的另一大动作,是和谷歌达成多年合作,新一代Siri将采用双方共同开发的客制化Gemini模型,这也让新版Siri的功能表现更贴近Gemini,而非我们熟悉的旧版Siri。很多人好奇苹果为何选Gemini而非ChatGPT,核心还是 隐私 。苹果向来把用户隐私放在第一位,这次合作明确了Siri的AI处理优先在本地装置进行,配合Private Cloud Compute技术实现资料匿名化保护,既保证AI能力,又守住了苹果的隐私底线,这也是果粉最在意的一点。除了底层重构,iOS 26.4的Siri还落地了Apple Intelligence预告的三大核心功能,直击日常使用痛点,从“语音助手”真正变成“AI助手”,也是普通人能最直观感受到的升级。新版Siri能掌握用户的邮件、讯息、档案和照片,具备个性化判断,比如喊一句“帮我找上周朋友发来的工作档案”,它能精准定位,不用再手动翻找,效率直接拉满。这是最值得期待的功能,Siri能实时理解屏幕画面,讯息里的地址喊一声就能加进联系人,正在看的照片一句话就能传给指定好友,彻底解放双手。过去的Siri只能在单个App内做简单操作,新版则实现了真正的跨App联动:照片编辑后直接发送、文件跨App搬移、发送草稿邮件,多步骤操作让Siri一步完成,日常使用的便捷性大幅提升。大家最关心的上线时间,彭博社记者Mark Gurman已给出爆料:iOS 26.4开发者测试版2月23日当周上线,3月初推出公测版本,测试顺利的话, 正式版3月底到4月向iPhone用户推送 。支援机型方面,新版Siri的核心AI功能,大概率只支持搭载Apple Intelligence的新款iPhone,不过部分基础升级功能,会下放给部分较旧机型,老用户也能享一波福利。总的来说,这次iOS 26.4的Siri升级,是苹果在生成式AI领域的补课式发力,从底层到功能都完成了真正的革新,解决了Siri“听不懂、用不了”的核心问题。对于苹果而言,这是正式踏入生成式AI赛道的标志,对于普通用户,那个被遗忘的Siri,终于要变成能真正“帮上忙”的AI助手了。当然,最终体验如何,还要等正式版推送后实测才知道。你对新一代Siri有什么期待?觉得这次升级能让它摆脱“人工智障”的标签吗?欢迎在评论区留言聊聊,也可以点赞+在看,后续我会第一时间带来iOS 26.4的实测体验!