苹果Apple Intelligence于6月WWDC大会亮相,但即便已展示AI服务,不过《彭博社》记者Mark Gurman最新专栏指出,现在传出部分员工认为,苹果AI开发落后约两年。

苹果WWDC大会亮相许多Apple Intelligence功能,显示朝人工智能领域迈出第一步。苹果打造许多AI功能,如通知摘要、重要消息通知、了解上下文新Siri、Image Playground、Genmoji等。

即便苹果AI策略一环是与OpenAI合作,让Siri可与ChatGPT串联使用,但实际上Apple Intelligence主要还是依赖设备端运行的模型,但这也意味着Apple Intelligence对于设备规格要求相当高,用户需要使用至少A17或M1芯片组的设备才能获得Apple Intelligence功能,且设备必须至少有8GB RAM。

虽然安全且具有隐私性,但大多AI模型都依赖设备端运行的,也会限制资讯量。这也是为什么苹果会选择让Siri与ChatGPT串联使用。

苹果宣布他们将在iOS、iPadOS和macOS上支持GPT-4o,将GPT-4o集成到Siri与书写工具中,与ChatGPT的集成预计可缩小资讯量的差距。Gurman表示,苹果的内部研究表明ChatGPT的准确率比Siri高出25%左右,且能够回答的问题多出30%左右。

Gurman指出,苹果内部部分员工认为,其生成式人工智能技术比行业领先者落后了两年多。

那么苹果未来的AI策略又会是什么面貌?就以往苹果的发展来看,该公司已在他们看似落后的领域(像是苹果地图)成功迎头赶上竞争对手;Gurman认为,无论苹果自己做、雇人来做,或是收购必要的公司来做,苹果都会迎头赶上。

另一方面,Gurman也表示,到了2026年Apple Intelligence将会在所有搭载屏幕的设备上运行,iPhone SE 4 会如预期那样在明年3月时换上A18芯片推出,入门级iPad可能会在2025年晚些时候获得更新。

(首图来源:科技新报)