iPhone用户狂喜!盼了整整两年,那个动不动就“我不太明白”、只会甩网页链接的Siri,真的要逆袭了😭
最新猛料曝光:苹果最快下个月就会推送iOS 26.4测试版,而这次更新的核心杀招,就是给Siri换“超级大脑”——全面接入谷歌Gemini模型,更关键的是,它终于能看懂你的手机屏幕,帮你自动完成各种繁琐操作,彻底解放双手!
说真的,用过Siri的都懂那种无力感:问它“明天天气”要等三秒,让它帮忙订机票只会搜网页,甚至连“总结一下这封长邮件”都做不到,久而久之,大家都把它当成了“语音闹钟工具人”,谁能想到,苹果这次居然狠下心,直接抱上了谷歌的大腿。
根据MacRumors和古尔曼的双重爆料,这次iOS 26.4测试的新版Siri,背后靠的是参数量高达1.2万亿的Gemini 2.5 Pro模型——对比现在Siri用的1500亿参数模型,相当于从“小学生”直接升级成“博士生”,能力翻了8倍不止✨
而最让人眼前一亮的,就是它新增的「屏幕读取+自动化操作」功能,说通俗点,以后Siri不光能“听”,还能“看”,更能“动手”!
举几个最实用的场景,你们感受下有多香:
✅ 看长文档/邮件,不用手动翻:打开一篇几十页的工作报告、一封密密麻麻的邮件,对着Siri说“总结一下这页的核心内容”,它会直接读取屏幕上的文字,提炼重点,不用你逐字逐句去看,摸鱼、办公效率直接翻倍;
✅ 跨应用操作,一句话搞定:以前你想把备忘录里的清单,同步到日历设置提醒,要先打开备忘录、复制内容、再打开日历、粘贴创建,步骤繁琐到崩溃。现在只要对着Siri说“把这页的清单同步到明天的日历”,它看懂屏幕内容后,会自动完成所有操作,全程不用你碰一下屏幕;
✅ 复杂任务一条龙,不用反复指令:比如你想计划周末短途旅行,不用分别去查航班、订酒店、找餐厅,对着Siri说“帮我规划周末去苏州的旅行,预算1000以内,靠近景区”,它会读取你屏幕上的地图、旅游APP内容,结合你的需求,直接给出完整方案,甚至能帮你一键预订;
除此之外,新版Siri还有两个大惊喜,彻底摆脱“人工智障”标签:
第一,对话更自然,还能记上下文。以前问Siri“我妈明天的航班几点到”,再问“午餐订在哪合适”,它会一脸懵,现在它能记住你们之前的对话,自动关联航班时间、地点,推荐附近的餐厅,不用你反复解释背景;
第二,隐私有保障,不用怕数据泄露。很多人担心,Siri能读取屏幕,还和谷歌合作,会不会泄露个人信息?苹果早就想到了——所有用户数据都会在苹果自家的私有云服务器上处理,谷歌根本碰不到你的任何隐私,而且Siri界面还是纯苹果风格,看不到一点谷歌标识,体验不打折✅
可能有人会好奇,苹果为啥放着OpenAI的ChatGPT不用,非要选谷歌的Gemini?其实答案很简单:Gemini的多模态能力(看懂文字、图片、屏幕)比ChatGPT更强,而且它的混合专家架构,既能保证高性能,又能降低手机能耗,适配iPhone的体验更好,更重要的是,成本也更有优势——苹果每年要给谷歌支付约10亿美元,换取这款定制化模型的使用权,可见这次是真的下血本了。
另外提醒大家一句,iOS 26.4里的Siri升级,还只是苹果AI战略的第一步。据悉,更强大的“完整版Siri”(内部代号Campos),会在今年6月的WWDC开发者大会上亮相,随iOS 27正式推送,到时候它还能生成图片、编辑文档、网页搜索,能力直接对标ChatGPT和Gemini,彻底成为苹果生态的“AI中枢”。
说真的,从iOS 14到iOS 26,我们等了整整6年,终于等到Siri真正“开窍”。以前觉得Siri没用,以后可能真的离不开它——上班帮你总结报告,下班帮你规划行程,玩手机时帮你完成各种繁琐操作,这才是智能助手该有的样子啊!
最后划重点:iOS 26.4测试版最快下个月推送,正式版预计3-4月上线,只要你的iPhone能升级到iOS 26系列,就能体验到这款“全新Siri”。
你们最想用新版Siri做什么?是总结文档、规划旅行,还是帮你处理工作琐事?评论区聊聊,一起蹲一波实测,看看这次Siri能不能彻底“洗白”,告别“人工智障”的称号!