苹果Siri大升级要来了?传iOS 26.4几个月后上线,背后靠的竟是谷歌
你还记得2024年6月的WWDC发布会吗?库克站在台上,信誓旦旦地说要给Siri来个"史诗级"AI升级——什么能看懂你屏幕上的内容,什么更懂你的个人习惯,什么秒懂你在说啥。结果呢?两年过去了,Siri还是那个傻fufu的语音助手。你让它定个闹钟行,问个复杂点的问题?对不起,它直接摆烂给你搜个网页。根据彭博社Mark Gurman最新爆料,苹果那个承诺了快两年的"超级Siri",可能真的要在几个月内登陆iOS 26.4了。听起来挺振奋人心?但问题来了——这个升级版Siri的大脑,用的是谷歌Gemini的技术。卧槽,这不就等于苹果承认自己搞不定AI,得找谷歌救场?说实话,从2024年WWDC到现在,苹果在AI这条路上走得有多艰难,咱们都看在眼里。当时发布会上画的大饼可够大的:Siri不光能听懂你说话,还能"看懂"你手机屏幕上的内容。比如你正在看个餐厅地址,直接跟Siri说"导航过去",它就能秒懂。或者你刷着照片,说句"把这张照片发给老妈",Siri就能准确识别是哪张。听起来很牛,但落地呢?iOS 25没见着。iOS 26现在都快到26.3了,还是没影儿。这期间发生了什么?苹果憋着劲儿自己研发AI模型,结果憋了两年,憋出个寂寞。隔壁ChatGPT都出到GPT-5了,Gemini也升级了好几代,苹果这边愣是拿不出手。到了今年1月12号,苹果终于官宣和谷歌合作——用Gemini的底层技术来搭建自己的基础模型(Apple Foundation Models)。这波操作,怎么说呢...有点像考试前一晚抱佛脚,发现自己根本没复习,只能找学霸同学借答案抄。根据爆料,这个版本的Siri会用上一个叫"Apple Foundation Models version 10"的系统——听名字挺唬人的,但人家明确说了,这玩意儿是"基于谷歌开发的系统"。什么概念?就是理论上这个AI模型足够聪明,能处理超级复杂的任务。比如你跟它聊天,它不光能听懂你在说啥,还能结合你手机里的信息(日历、邮件、照片)给你提供真正有用的建议。听起来确实不错。但这儿有个问题:这TM不还是谷歌的技术吗?苹果只不过是在谷歌Gemini的基础上,套了层"Apple"的壳子。就好比你买了辆车,发动机是别人的,车身是你自己喷的漆,然后你说"这是我造的车"——emmm,也不能说你完全在扯淡,但总觉得哪里不太对劲。AI这玩意儿,拼的是数据、算力、还有时间。谷歌在AI领域深耕了十几年,手里握着全球最大的搜索引擎数据,YouTube视频数据,Gmail邮件数据...这些都是训练AI模型的"养料"。而苹果呢?虽然用户多,但它一直标榜"隐私至上",用户数据都加密存本地,不上云。这本来是好事,但在AI时代就成了束缚——你没数据喂模型,模型怎么变聪明?OpenAI的ChatGPT火了之后,全球科技公司都在疯狂追赶。谷歌有Gemini,微软有Copilot,连Meta都搞出了Llama系列。苹果要是还慢悠悠地自己从头研发,等它搞出来,黄花菜都凉了。所以,与其死磕到底,不如"借力打力"——用谷歌的技术快速上线,先把用户体验做起来,后面再慢慢优化自己的模型。这波操作,从商业角度看,挺聪明。但从"苹果一贯的傲娇人设"来看...多少有点打脸。抛开这些商业博弈不谈,咱们普通用户关心的是:这个升级版Siri到底好不好用?如果爆料属实,iOS 26.4的Siri会有以下几个亮点:- 真正的"个人助理"体验 它能看懂你屏幕上的内容。比如你正在看一条短信,朋友问你"明天几点见面",你直接对Siri说"回复他下午3点",Siri就能自动识别联系人和上下文,帮你发消息。
- 跨应用联动 以前Siri只能单独操作某个App,现在它能串联起多个应用。比如你说"把今天拍的照片整理成相册,然后分享给家人群",Siri就能自己完成这一系列操作。
- 更自然的对话 不用再像以前那样"机械式"下命令了。你可以随便聊,Siri能理解你的语境和意图。
听起来确实诱人。但问题是:这些功能真的能在iOS 26.4里全部实现吗?苹果之前画过太多饼了。还记得Apple Maps刚推出时的翻车现场吗?还记得Siri刚上线时被吐槽"人工智障"吗?这次虽然有谷歌技术加持,但能不能真正做到发布会上展示的那种效果,咱们得等实际体验才知道。根据爆料,iOS 26.4大概率会在今年春季发布——也就是3月到5月之间。现在苹果正在测试iOS 26.3,按照以往的节奏,26.3正式版推送后,26.4的测试版应该很快就会跟上。可能性1:低调上线 苹果直接在春季某个时间点推送26.4,没有发布会,没有大张旗鼓宣传,就这么悄咪咪地让用户升级。可能性2:留到WWDC 2026 苹果把这个"重磅更新"留到6月的WWDC大会上,作为压轴大戏展示,然后现场直接推送给所有用户。我个人觉得可能性2更大。毕竟这是苹果憋了两年的"翻身仗",肯定得好好造势一波,顺便给投资者和媒体一个交代。它不光能收苹果一笔技术授权费(据说每年好几亿美元),还能让Gemini的技术渗透进苹果生态——要知道,全球有超过20亿台苹果设备在使用。这对谷歌来说,是个巨大的市场入口。短期来看,它解决了燃眉之急,能快速推出一个"能打"的AI助手,稳住用户和市场。以前苹果一直标榜"软硬件垂直整合",从芯片到系统全是自己造。现在AI这块核心技术得靠谷歌,这在某种程度上削弱了苹果的"独立性"。有些铁杆果粉可能会觉得:"我买苹果,就是冲着它的独立生态来的。现在你告诉我Siri的大脑是谷歌的?那我还不如直接用安卓手机配Gemini呢。"这两种声音哪个会占上风,得等产品真正上线后才知道。说实话,我在科技圈混了这么多年,见过太多公司为了"面子"死磕技术,最后把自己搞死的例子。苹果这次选择和谷歌合作,从商业角度看,是明智的。与其闭门造车浪费时间,不如借力打力快速上线。但这也暴露了一个问题:在AI时代,单打独斗越来越难了。以前苹果能靠"软硬件垂直整合"称霸市场,但现在AI拼的是数据和算法,这两样苹果都不占优势。它要么选择妥协(像现在这样找谷歌合作),要么选择掉队。如果iOS 26.4的Siri真的能做到发布会上承诺的那些功能,我不在乎它用的是谷歌技术还是苹果技术。用户要的,从来都是"好用",而不是"自研"。但苹果得明白一个道理:你可以借别人的技术,但核心体验必须是你自己的。如果最后Siri和Gemini没啥区别,那用户凭什么还留在苹果生态?如果iOS 26.4的Siri真的用上了谷歌技术,你会升级吗?还是觉得"这不是纯正的苹果了,不想用"?另外,你们对现在的Siri满意吗?最想它改进哪些功能?想第一时间知道iOS 26.4啥时候上线,Siri到底好不好用?关注「华子上网」,我会持续追踪苹果的AI动态,给你们带来最真实的体验报告。这里没有官方公关稿,只有真心话。