- 这个新包支持使用默认 CPU 执行提供程序在设备的 CPU 上执行 ONNX 模型。一些手机硬件包含专门的硬件 (NPU),用于通过 NNAPI (Android) 和 CoreML (iOS) 接口高效执行 ML。
- 借助 ONNX Runtime Mobile 软件包,开发人员可以选择使用软件包中提供的 NNAPI (Android) 或 CoreML (iOS) 执行提供程序。
开发人员可以在两个 ONNX Runtime Mobile 软件包之间进行选择。一个是包含专注于移动 AI 场景的 ONNX 算子集子集的预构建包,另一个是可以根据 AI 应用程序使用的特定模型生成的自定义包。