为了满足算法端侧的部署需求,我们针对不同手机芯片的CPU、GPU、DSP、APU、NPU、ANE推理需求,对TNN、MNN、PyTorch Mobile、SNPE、HiAi、CoreML和TensorRT进行了优化,以满足准确性、内存开销、算力和模型小型化的要求。我们支持不同硬件的不同精度模型(Int8、FP16、FP32)运算,并实现了跨平台部署(IOS、安卓),同时同步不同硬件上的数据和格式转换。

优化这段话	针对算法端侧的部署需求同时也为了满足不同手机芯片CPU、GPU、DSP、APU、NPU、ANE的推理需求对TNN、MNN、PyTorch Mobile、SNPE、HiAi、CoreML和TensorRT满足准确性、内存开销、算力和模型小型化的要求。满足不同硬件如和不同精度Int8、FP16、FP32模型的运算并且同步不同硬件上的数据和格式转换做到跨平台部署IOS、安卓。

原文地址: https://www.cveoy.top/t/topic/fvCN 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录