此次苹果 WWDC,在介绍各种 OS 时显然「加速」了不少,就是为了要为下半场的人工智慧,或者说个人化 AI 留出时间,而贯穿整个 Apple 晶片、软硬体、操作系统以及所有产品线的 Apple Intelligence,就是苹果向消费者端出的「AI」答案。
早在苹果 WWDC 前就有不少媒体猜测,苹果会在 WWDC 上不断强调「隐私」这一苹果自始自终的强项,而苹果也没让大家失望,在发表 Apple Intelligence 时,从头到尾都在强调个人资料的隐私以及控制权。
什麽是 Apple Intelligence?苹果的所有设备都是 AI 的上下文
一言以蔽之,Apple Intelligence 是苹果端出的,更加理解使用者的客制化 AI 系统(以及助理),能够依照使用者的「个人情境」来调整 AI 提供的答案与服务。
也就是说,苹果的 AI 能参考的「上下文」(context),将不只是与聊天机器人之间的对话纪录,而是涉及使用者所有苹果设备的使用方式以及跨应用程式的使用习惯。
例如,iPhone 上的通知的优先顺序,就会依照使用者的使用经验与习惯来调整,在群聊非常活跃非常吵时,就能显示较为关键的讯息;邮件内的系统也会变得智慧,举例来说,使用者无需打开电邮就能知道航班资讯的总结。
当然,书写、生图、总结会议等等常见基本的 AI 任务,Apple Intelligence 也都可以办到,要生成 emoji 也没问题(所谓的 Genmoji),至於生成文本,基本上只要应用程式中有「输入游标」的地方都能使用这项 AI 能力。
另一大亮点是 AI 总结的功能还来到「电话」应用程式当中,使用者现在可以录制、转录和总结一段对话的音讯(当然,开启录音功能时,参与者会自动收到通知),这也显示出苹果的 AI 的一个极大优势。(很难想像其他 AI 供应商可以总结电话内容吧?)
苹果强调,大部分的 AI 运算都是在设备端运行,在不得已的状况下(例如设备的零组件限制、某功能需使用的模型过大等等),才会让 AI 任务上到云端处理,苹果也为此端出了 Private Cloud Compute(PCC)也就是私有云运算这个解方。
苹果强调,他们把在 Apple 设备上领先业界的隐私性以及安全性扩展到了云端上,确保发送至 PCC 的资料无法被使用者以外的任何人存取,甚至是苹果也无法。
Craig Federighi 以及 John Giannandrea 如何解析苹果 AI 战略?
在 WWDC 发表会结束後,《INSIDE》参与了苹果软体工程资深副总 Craig Federighi 和苹果人工智慧策略资深副总裁 John Giannandrea 的对谈,在活动上,这两位苹果 AI 的最主要领导者更加厘清了苹果的 AI 战略路线。
Craig 目前是 iOS 和 macOS 开发的主要负责人,而 John 在加入苹果之前,在 Google 待了 8 年左右,负责领导机器智慧、研究和搜寻团队,2018 年加入苹果之後,负责监督整间公司的 AI 以及 ML 策略,还有 Core ML 和 Siri 技术的开发。
Craig 指出,苹果要打造的 AI,首先要直观,并且能依照使用者的个人情境给出答案,这需要对於「使用者本身」的知识与理解,再来则是要能保护隐私。
他举出在 WWDC 上举过的案例,如果需要知道自己的会议延後半小时後还能不能赶上女儿的表演会,如果使用「聊天机器人」这种方式,就难以获得答案,因为它不知道谁是你的女儿,她的表演会在哪里,以及你公司的所在地点、你偏好的交通方式,当然也就无法进行这类的任务。
「但如果是口袋中的设备,那一切就不一样了,」Craig 说。
他也强调,要把这些知识结合 AI,需要在隐私方面有更深度思考。
面对如今生成式 AI 如火如荼的发展,苹果自己的 AI 策略显然是「先找到有意义的应用场景」,Craig 说,苹果的使命是打造出有意义的、普通人都能用上的 AI。
他强调,在生成式 AI 热潮之前,苹果设备中就有 200 多种机器学习模型,包括车祸检测功能,AI 都是重要的促成者,「AI 不是目的本身,而是达成目的的方式,我们会以『苹果的方式』来让使用者体验与应用有意义的 AI。」
至於生成式 AI 的幻觉问题,两人指出,苹果打一开始就非常谨慎在设计 AI 模型,研究了影响模型的行为,当然也有自家的 AI 原则,希望以负责任的态度来作 AI,也为此做了许多测试。
对於现在市场上突然兴起的 AI PC 热潮,Craig 也大方回应,「这有点好玩,我们至少在 M1——那是 2020 年——就在打造 AI PC 了,它具有统一记忆体,很高的频宽,可以带来全面的体验,但到最近市场才突然说出了 AI PC 这个类别,但其实我们很早就已经在做了。」
Jonh 则回应了苹果如何训练 AI 的问题,他强调,苹果首先在网路搜寻方面有很多年的研究,从公有云上寻找品质最高的数据,并且也有取得授权,包括新闻、教科书等等,扩散模型则透过不同方式微调,并强调这些模型都是苹果自己打造的。
Craig 也补充了 Private Cloud Compute,他指出,使用者的 IP 位址会被遮盖起来,个资也不会永久储存(会在完成请求後就删除),iPhone 也只会信任有经过验证的软体,并且可以拒绝软体将资料发送至云上。
苹果强调,独立专家可以检查在 Apple 晶片伺服器上运行的程式码以验证隐私,私有云运算以加密方式确保 iPhone、iPad 和 Mac 不会与伺服器通讯,除非其软体已有被公开检查的纪录。
至於 AI 对环境的影响,Craig 表示,传统云端运算,尤其是大模型对於环境有极大的影响,「我们的方案对环境的影响小了非常多,苹果晶片的设计十分节能,且 100% 使用再生能源。」
Siri 与 ChatGPT,以及 Gemini?
John 指出,Siri 在这代操作系统上有了巨大的飞跃,它已经不只是语音助手,而是所谓的「设备助手」了。不但有全新的使用者介面、能听懂使用者并且真正理解设备和上下文,这得益於「语意索引」,让 Siri 可以存取设备上的内容来理解需求,例如你可以用自然语言的方式,请 Siri 为你找到一张「某个人穿着黄色登山服」的照片,不必在大海捞针,
他强调,很多年前苹果就开始做很多基础研究工作,例如语意索引,甚至能让 Siri 知道影片中发生了什麽,所有搜寻都变成语意索引,以提升搜寻效率。另一个重要的方面是随着开发者采用其 API,Siri 的发展会变得越来越聪明。
最後,明明有了 Siri,为何还会选择与 ChatGPT 整合?
Craig 指出,Apple Intelligence 都是基於苹果所做的模型,包括设备端、私密云等,都是苹果自家模型。
「但我们知道外部有很多平台和模型可能有专门领域的模型,例如医疗或法律,有些使用者希望能了解这些知识利用这些模型,这就可以作为苹果自家模型的补充,我们希望能从最好的开始,所以我们和 OpenAI 合作。使用者不需要再去到另一个地方,打断工作流。其他像是创意写作、写程式都可以调用不同的模型。」
最後,Craig 也证实,Gemini 未来可能会加入,但目前没有更详细的计画要宣布。
「iOS 已经到达第 18 个版本,不过随着时间推移,iPhone 将不断演进,这对苹果来说仍是全新的开始,这是一段漫长而令人兴奋的旅程的开始。」Craig 强调。
核稿编辑:Jocelyn
快加入 INSIDE Google News 按下追踪,给你最新、最 IN 的科技新闻!