WWDC 2024上,苹果带来了Apple Intelligence,不过这项功能却仅仅支持搭载A17 Pro的iPhone 15 Pro与iPhone 15 Pro Max,旧款iPhone以及搭载M2芯片的Vision Pro均不支持。
此前有报道称是因为旧款iPhone的性能不够,运行内存太小,因此不支持Apple Intelligence。但Apple Intelligence分为设备端与云端两部分,既然旧款iPhone的性能不足以支持端侧AI,那么为何云端AI也不支持呢?
根据John Gruber对苹果的采访,这背后的原因看起来似乎颇为复杂。
根据苹果工作人员的回答,旧款iPhone的设备速度不够快,无法提供良好的体验,而苹果认为一项功能如果体验不够好,那么就不如不提供。
另外Apple Intelligence包含了众多大模型,设备端运行的模型与云端运行的完全不同,而Apple Intelligence中有一项模型为启发式模型,它可以确定哪些任务是可以通过设备端AI处理执行,哪些需要进行云端AI处理或者调用ChatGPT。也就是说设备端AI要处理的任务,并不是借助云端AI就可以完成。
而且苹果承担了云端AI进行大量计算的服务器成本,如果苹果为旧款iPhone启用Apple Intelligence,那么旧款iPhone在云端AI的需求会更多,苹果所承担的服务器成本也会更高。
Apple Intelligence并不支持Vision Pro,虽然这款设备搭载了M2芯片,但是由于VisionOS仍然是一个尚未成熟的平台,苹果仍在忙于构建基础功能,并且设备运行时M2已经基本处于满载状态,因此没有足够的性能来供Apple Intelligence使用。
其实不难看出,苹果的Apple Intelligence还是以设备端性能为基石,而云端AI更像是锦上添花而已。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com