docs/guide/introduction.md
Paddle Lite 是一组工具,可帮助开发者在移动设备、嵌入式设备和 loT 设备上运行模型,以便实现设备端机器学习。
以下介绍了该工作流程的每一个步骤,并提供了进一步说明的链接:
您可以通过以下方式生成 Paddle Lite 模型:
推断是指在设备上执行 Paddle Lite 模型,以便根据输入数据进行预测的过程。您可以通过以下方式运行推断:
MobileConfig),设置模型来源等CreatePaddlePredictor 接口即可创建predictor->GetInput(i) 获取输入变量,并为其指定大小和数值predictor->Run()predictor->GetOutput(i) 获取输出变量,并通过 data<T> 取得输出值在有 GPU 的设备上,您可以使用 OpenCL 加速来提升性能。
根据目标设备,您可以参阅以下指南: