本文主要是介绍darknet获取网络某一层的feature代码,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
当我们在命令行中执行./darknet detect fridge.cfg fridge.weights dog.jpg时,代码流程是:detect到了detector.c文件里面的test_detector函数里面的test_detector,然后在test_detector函数里面首先用parse_network_cfg_custom读取 cfg配置文件,并且用load_weights加载权重文件,然后load_image加载图片,所以可以仿照test_detector函数编写获取网络某一层输出的代码。
下面的是临时的demo.所以函数返回值以及代码规范都没管。
首先是初始化函数。
int boyun_featureInit(void)
{gpu_index = 0;//如果是用gpu,那么就要加上这5行if (gpu_index >= 0){cuda_set_device(gpu_index);}//net = parse_network_cfg_custom((char*)("./model/cspdarknet53_chw.cfg"), 1, 1);//net = parse_network_cfg_custom((char*)("./model/yolov4_chw.cfg"), 1, 1);net = parse_network_cfg_custom((char*)("./model/yolov4_chw_dongjie.cfg"), 1, 1);//load_weights(&net, (char*)("./model/cspdarknet53_chw_153000.weights"));//load_weights(&net, (char*)("./model/yolov4_chw_20000.weights"));load_weights(&net, (char*)("./model/yolov4_chw_dongjie_20000.weights"));fuse_conv_batchnorm(net);calculate_binary_weights(net);return 1;
}
提取特征获取feature map. 将104层的13*13*1024进行average pooling处理,得到1024个float,作为feature map。
int featureExtract(char* imagePath, vector<float> &result)
{image im = load_image(imagePath, 0, 0, net.c);image sized;sized = resize_image(im, net.w, net.h);float *X = sized.data;network_predict(net, X);//printf("-----------------------------\n");int layerNum = 104;//printf("net.layers[layerNum].type:%d\n", net.layers[layerNum].type);//printf("net.layers[layerNum].output: %f\n",*net.layers[layerNum].output);//printf("net.layers[layerNum].n:%d\n", net.layers[layerNum].n);//printf("net.layers[layerNum].out_c:%d\n", net.layers[layerNum].out_c);//printf("net.layers[layerNum].out_h:%d\n", net.layers[layerNum].out_h);//printf("net.layers[layerNum].out_w:%d\n", net.layers[layerNum].out_w);//如果是用cpu那么就用这一行得到某一层的输出。 float * outputPtr = net.layers[layerNum].output;/*如果是用GPU,那么就用这一行获取代码,这个get_network_output_layer_gpu函数在network_kernal.cu的大约664行,但是这个函数只有定义没有声明,在使用时要在自己的文件里面声明一下。*/float * outputPtr = get_network_output_layer_gpu(net, 104);//printf("outputPtr[0]:%f\n", outputPtr[0]);//printf("=========================output=============================\n");float feature[net.layers[layerNum].n] = {0.0};//std::vector<float> featVec = {0.0};std::vector<float>().swap(result);float featSum = 0.0;float featAve = 0.0;for(int n = 0; n < net.layers[layerNum].n; n++){//printf("---------------------------n:%d------------------\n", n);featSum = 0.0;//每次要先清零。for(int h = 0;h < net.layers[layerNum].out_h; h++){for(int w = 0; w < net.layers[layerNum].out_w; w++){if(0 == h )//只打印一点就好了。{//printf("%f,", *outputPtr);}featSum = featSum + *outputPtr;outputPtr++;}}featAve = featSum / (net.layers[layerNum].out_h * net.layers[layerNum].out_w);feature[n] = featAve;result.push_back(featAve);//printf(";\n");}//cout<<"--------------------------------------"<<endl;for(int i =0; i < net.layers[layerNum].n;i++){printf("%f, ", feature[i]);}//std::cout<<"net.layers[layerNum].n:"<<net.layers[layerNum].n<<endl;//std::cout<<"\ntest========================"<<endl;free_image(im);free_image(sized);return 1;}
另外要注意:
1.使用gpu的时候,除了你编译darknet生成libdarknet.so的时候要修改GPU=1以外,你自己的工程的makefile里面也要加上-DGPU,因为darknet的有些头文件里面是根据GPU分别包含不同的东西的。
2.使用gpu的时候,有些头文件在darknet里面是没有的,你再darknet工程里面根本找不到,这些头文件是你的开发环境中安装cuda的时候安装上的,
这篇关于darknet获取网络某一层的feature代码的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!