iOS 26.4新Siri曝光:接入Gemini+屏幕感知,这次终于不像人工智障了
大家手里捏着的iPhone,恐怕都有一个共同的痛点:那个喊出来容易、用起来糟心的语音助手。现在的Siri,哪怕是到了2026年的今天,大多数时候依然只是个昂贵的“倒计时设置器”。你问它复杂点的问题,它要么给你搜网页,要么直接回一句“我不明白”。但根据最新的供应链和媒体消息,这种情况可能要在未来三个月内发生质变。预计在这个春天发布的iOS 26.4,极有可能成为苹果AI历史上最关键的转折点。这次不是挤牙膏式的修修补补,而是要把那个靠关键词触发的“旧脑子”彻底换掉。🧠 从“执行指令”到“理解意图”
很多朋友好奇,所谓的“LLM版Siri”到底和现在有什么区别?简单来说,现在的Siri是个只会做选择题的机器:你必须说出特定的关键词,它才能触发预设的脚本。一旦你的表述稍微模糊一点,它就瘫痪了。而iOS 26.4带来的新架构,是让Siri具备了逻辑推理能力。它不再是机械地匹配关键词,而是去“猜”你想干什么。虽然目前的爆料显示,它暂时还不会像ChatGPT那样支持无限制的闲聊(那个可能要等iOS 27),但在理解模糊指令上,它将会有断层式的提升。这意味着,你以后跟它说话,终于可以用正常人的语气,而不是像在跟机器人对暗号。🧾 杀手锏:它真的能看见你的屏幕了
这次更新最让我期待的,其实是“个人情境(Personal Context)”和“屏幕感知”这两个功能。以前我们觉得AI不好用,是因为它是个“局外人”,不知道你手机里有什么。新版Siri据说能深度索引你的邮件、短信和本地文件。这有什么用?想象一下,你不用再去翻那几百封邮件找上周收到的附件,直接对Siri说“找到Eric上周发给我的滑冰建议”或者“把我的护照号码调出来”,它就能直接把结果甩给你。更狠的是跨应用流转。比如你正在看一张照片,直接说“编辑这张照片并发送给Eric”,Siri能理解“这张”指的是屏幕上显示的图片,“Eric”是你通讯录里的人,然后自动串联起“照片-编辑-微信/iMessage”这一整条链路。这才是智能手机该有的样子,而不是让你在App之间切来切去。⚙️ 苹果的妥协:引入外援Gemini
为了达成这个效果,苹果这次走了一步险棋:不再死磕纯自研,而是采用了“自研+合作”的混合模式。iOS 26.4的后端模型将由苹果自研团队与谷歌Gemini团队联合打造。这其实是个非常务实的信号:苹果承认自己在通用大模型上的积累还需要时间,为了尽快把体验提上来,选择直接借用谷歌成熟的基建。当然,隐私依然是苹果的底裤。虽然用了谷歌的技术,但核心数据处理依然遵循“端侧优先”原则,必须上云的部分则走苹果的私有云计算(Private Cloud Compute)。这种“把敏感数据留在本地,把复杂计算扔给混合云端”的策略,应该是目前平衡隐私和智商的最优解。⚠️ 别高兴太早,这只是个跳板
虽然听起来很美好,但我得泼盆冷水:iOS 26.4依然是个过渡版本。按照目前的测试进度,beta版大概率会在2月底或3月初启动,正式版要等到4月。而且,它不支持长时记忆,也不能像人一样跟你进行几十轮的深度对话。苹果显然是想通过这个版本先解决“Siri听不懂人话”的燃眉之急,至于更科幻的完全体AI,那是留给iOS 27的大招。对于手持旧机型的用户来说,现在的悬念在于:这种混合架构到底需要多强的NPU性能?如果是端侧运算占大头,那么iPhone 15系列之前的老机型,可能又要被无情地挡在门外了。最后给个建议: 如果你是因为眼馋这个新Siri想换新机,建议先按兵不动,等4月正式版推送后,看看老款机型的支持列表再做决定。现在的数码产品,“画饼”和“落地”之间往往隔着一个太平洋。互动一下: 如果Siri真能读懂你的所有邮件和屏幕内容,你会觉得? A. 效率神器,赶紧端上来 B. 背后发凉,感觉隐私在裸奔(欢迎在评论区聊聊你的看法,如果觉得这条资讯有用,可以收藏起来,等4月更新时对照看看刀法准不准)