每年苹果发布新版 iPhone 之后,图片编辑软件 PhotoRoom 的公司团队都会测试一下新 iPhone 的 Core ML 性能。现在,前几天发布的 iPhone 14 的基准测试结果出炉了。

PhotoRoom 团队的这项系列测试旨在探究苹果公司最新硬件的计算能力,以及计算能力的提升对设备上的机器学习系统意味着什么。

Core ML 是苹果集成多个 API 构建的机器学习框架,允许 iOS 开发人员发布和执行机器学习模型,以加速在 iPhone、iPad、Apple Watch 上的人工智能任务。

今年,PhotoRoom 分析了多个 iPhone 机型和 iOS 版本上的 Core ML 性能。

实验设置

作为一款图片编辑软件,图片裁剪和抠图是 PhotoRoom 非常重要的基础功能。

iOS 检测是否有相机权限 苹果相机检测软件_人工智能

这项功能依托于 iPhone 上的 Core ML 框架执行,PhotoRoom 团队基于此任务在多个 iPhone 机型和 iOS 版本上进行了基准测试,包括:

  • iPhone 12 Pro A14 Bionic (iOS 15 + iOS 16)
  • iPhone 13 Pro A15 Bionic (iOS 15 + iOS 16)
  • iPhone 14 Pro A16 Bionic (iOS 16)
  • iPad Pro 2021 M1 (iOS 15 + iOS 16)
  • MacBook Pro 2021 M1 Pro (macOS 12)

iOS 检测是否有相机权限 苹果相机检测软件_python_02

对于每个设备,该团队根据不同的 Core ML 计算配置(包括仅在 CPU 上运行、GPU+CPU、ALL、神经网络引擎(ANE)+CPU),统计了模型的平均执行时间(不包括模型加载时间)。其中,每个设备、操作系统版本和计算单元配置都测量了 40 次并取平均值,结果如下:

iOS 检测是否有相机权限 苹果相机检测软件_大数据_03

这些测试结果表明:

  • 从 CPU 到 GPU 再到 ANE ,运行速度持续提升;
  • 当在 iOS 16 上从 ALL 转到 ANE+CPU 时,推理时间(几乎)持续增加,这表明模型中的一些层无法在 ANE 上运行,而是默认使用 GPU;
  • 操作系统版本对整体性能的影响似乎可以忽略不计;
  • 在 A 系列芯片(A14 Bionic - A15 Bionic - A16 Bionic)中,所有配置的性能都有缓慢而稳定的提升。苹果公司也称其新的 A16 Bionic 芯片(17 TFlops)比 A15 Bionic(15.8 TFlops)提高了 7.5%,使得推理时间从 iPhone 13 Pro 的 45ms 缩短到 iPhone 14 Pro 的 41ms;
  • iPad Pro 的 M1 芯片与新的 A16 Bionic 相比,CPU 和 ANE 的性能相当,并其 M1 的 GPU 似乎更强一些。这也许和 M1 芯片比 A16 Bionic 具有更多 GPU 内核有关。

值得注意的是,从这项基准测试看,MacBook Pro 中 M1 Pro 芯片的性能似乎并不比 iPad Pro 中的 M1 芯片好很多,甚至 ANE 的表现要差一些。

对于新发布的产品,iPhone 14 Pro 的推理时间缩短至 41ms,这是一个重要的突破。但这项测试也显示出苹果神经网络引擎还存在一些问题。