电子说
我们在进行CNN模型推理的时候,需要预先从DDR或者ROM中加载AI模型。大家平时一般用的是create from file的形式,为了保护自己的模型IP,一般会在模型上面做一些混淆。下面我们介绍另外一种方式,create from buffer。在编译算法sdk的阶段,可以将AI模型作为机器码编译进so中,算法加载的时候从栈内存进行加载就可以。这样模型的参数和定义就不会暴露在用户层面,目前MNN、NCNN和RKNN等都提供了create from buffer的类似接口,非常方便用户们进行使用。
使用的方式也非常的简单,分如下三步进行操作:(1)生成十六进制模型文件 (2)制作头文件和cpp文件 (3)采用create from buffer进行模型加载
一、生成十六进制模型文件
可以采用linux提供的xdd工具进行十六进制模型文件的生成。假设你有编译好的mnn模型或者rknn模型,只要执行如下操作就可以生成十六进制的模型文件:
xxd -i face\_det.mnn face\_det.cpp
二、制作头文件和cpp文件
cpp文件由xdd工具生成,文件形式如下(文件太大,只截取头尾两部分):
三、采用create from buffer接口实现模型加载
我们采用MNN的接口为例,核心代码块如下:
这样成功进行编译后,就可以将AI模型固化到算法sdk的so库当中了。
责任编辑人:CC
全部0条评论
快来发表一下你的评论吧 !