这几天克雷格在社交平台发了一篇博文,说的是WWDC定在6月9日,用了一个“开创性”的说法,还把“重新定义设备智能的核心体验”放在显眼的位置,配了张抽象线条像神经网络的背景图,海报一眼就能看出在暗示方向,话没多说但意思已经给到了。
网友那边就开始聊起iOS这几年AI上的进展,iOS 17里的那些功能被拿来开玩笑,大家把目光放到更远,说到iOS 27能不能来一次大的变化,比日期更抓人的是问题本身,苹果能不能给出一个真正在设备里跑起来的AI能力,而不是给Siri修一修流程加几个技能包。
苹果在系统里塞AI这件事其实老早就开始了,2011年Siri跟着iPhone 4s一起出来,那个时候把对话式的东西接到系统里,语音叫醒、设闹钟、查天气,第一次被大范围看到,后面每年iOS里都往里放一些小能力,照片能认人,Memories能把片段挑出来做成合辑,Live Text能抓取图片上的字,这些功能都尽量在设备上算,强调隐私,思路基本一致。
到iOS 18这个时间点,外面的ChatGPT带起一波热度,苹果这边节奏保持稳,功能更偏向实用,亮点不多的评价常被提起,公众印象里像是在观察和打磨,追着大趋势又不急着跟风。
Siri这条线也被反复比较,Shortcuts放出来很多年,能做的事很丰富,玩得溜的人把它当成隐形的AI,门槛对普通用户还是在那,其他家这段时间把大模型助手推到前台,谷歌有自己的整合,微软那边把助手嵌进系统,国内很多厂商也都在手机上做新入口,用户看着这些新尝试,再回到Siri,核心体验层面没迎来预期中的提升,这个缺口就一直在。
克雷格那条推文下面,有开发者丢出了一张自己做的猜想图,题目写着iOS 27 AI功能,图里有系统级写作助手,有根据一句描述生成壁纸的“即时渲染”,如果这样的整合能到位,他说会第一时间升级,话不多,态度清楚。
苹果这两年在软件生态的注意力更集中,内部资源上有调整,汽车项目里的部分团队转去做AI这个消息被多次提到,每到WWDC前夕,高管在公开场合用词显得更克制,也更像在留空间,这波评论区的讨论过一过,方向感会更清晰,iOS 27要谈“开创性”,拎出来的关键就落在AI。
眼下还只是预告阶段,功能的实际形态和能用到什么程度,属于苹果内部的范围,没有可对照的样板,外界能做的就是等到台上展示。
按往年节奏,6月WWDC上宣布新一代iOS,9月跟新iPhone一起把正式版推给全部用户,这条线跑了很多年,变化不大,关注点会落在发布当天的细节演示和开发者文档里。
iOS 27被看作承载苹果AI战略的一块主板,假如在搜索、交互、应用开发上做深层的重构,iPhone的使用方式会被带动,生态里的开发者分工和工具也会跟着动,影响面很广,大家怎么看,评论区说说你的想法。