|
4 tháng trước cách đây | |
---|---|---|
.. | ||
CMakeLists.txt | 5 tháng trước cách đây | |
build.sh | 5 tháng trước cách đây | |
build_testJar.sh | 5 tháng trước cách đây | |
libpaddle_inference.so | 4 tháng trước cách đây | |
profile.log | 4 tháng trước cách đây | |
readme.md | 5 tháng trước cách đây | |
test.sh | 5 tháng trước cách đây |
Paddle Inference java API 基于 capi 和 jni 实现,需要您提前准备好C预测库。
您可以选择直接下载paddle_inference_c预测库,或通过源码编译的方式安装,源码编译方式参考官网文档,注意这里cmake编译时打开-DON_INFER=ON
,在编译目录下得到paddle_inference_c_install_dir
。
下载 resnet50 模型后解压,得到 Paddle Combined 形式的模型。
wget https://paddle-inference-dist.bj.bcebos.com/Paddle-Inference-Demo/resnet50.tgz
tar zxf resnet50.tgz
# 获得 resnet50 目录结构如下
resnet50/
├── inference.pdmodel
├── inference.pdiparams
└── inference.pdiparams.info
git clone github.com/paddlepaddle/paddle/paddle/fluid/inference/javaapi
在javaapi目录下执行
./build_gpu.sh {c预测库目录} {jni头文件目录} {jni系统头文件目录}
以笔者的目录结构为例
./build.sh /root/paddle_c/paddle_inference_c_2.2/paddle_inference_c /usr/lib/jvm/java-8-openjdk-amd64/include /usr/lib/jvm/java-8-openjdk-amd64/include/linux
执行完成后,会在当前目录下生成JavaInference.jar和libpaddle_inference.so
在javaapi目录下执行
./test.sh {c预测库目录} {.pdmodel文件目录} {.pdiparams文件目录}
以笔者的目录结构为例
./test.sh "/root/paddle_c/paddle_inference_c_2.2/paddle_inference_c" "/root/paddle_c/resnet50/inference.pdmodel" "/root/paddle_c/resnet50/inference.pdiparams"
首先创建预测配置
Config config = new Config();
config.setCppModel(model_file, params_file);
创建predictor
Predictor predictor = Predictor.createPaddlePredictor(config);
获取输入Tensor
String inNames = predictor.getInputNameById(0);
Tensor inHandle = predictor.getInputHandle(inNames);
设置输入数据(假设只有一个输入)
inHandle.Reshape(4, new int[]{1, 3, 224, 224});
float[] inData = new float[1*3*224*224];
inHandle.CopyFromCpu(inData);
运行预测
predictor.Run();
获取输出Tensor
String outNames = predictor.getOutputNameById(0);
Tensor outHandle = predictor.getOutputHandle(outNames);
float[] outData = new float[outHandle.GetSize()];
outHandle.CopyToCpu(outData);