學習一種工具最簡單和最有效的方法是download一個demo,根據教程模擬。Caffe作為深度學習框架,它也是一種工具,官方提供了一些demo,主要是在Caffe運行的網絡架構文件。那么如何跑起一個demo呢?或者如何用demo直接做預測呢?
訓練:caffe train --solver solver.txt 這樣就可以了,如果有已訓練好的參數或者進行學習遷移finetuning,那么訓練的參數可以添加 "--weight init.caffemodel"或者"--snapshot snapshotfile.solvestate"
測試或預測:caffe test --weight test.caffemodel --model test.txt --iteration test_iteration
更加深入的理解,還要從源碼出發(fā),首先Caffe源碼的tools目錄下的caffe.cpp是生成可執(zhí)行文件的源碼,其中定義了train()和test()兩個函數分別執(zhí)行訓練和測試,也可以自定義函數執(zhí)行特定操作。
首先看train()函數:
??CHECK_GT(FLAGS_solver.size(),?0)?<<?"Need?a?solver?definition?to?train."; ??CHECK(!FLAGS_snapshot.size()?||?!FLAGS_weights.size()) ??????<<?"Give?a?snapshot?to?resume?training?or?weights?to?finetune?" ??????"but?not?both.";
首先檢查是否有solver.txt文件,文件名可自定義,但是內容必須符合solver結構,在src/caffe/proto/caffe.proto中有此定義。然后檢查snapshot和weight,這兩個參數分別用于中斷后繼續(xù)訓練和學習遷移的。
參數檢查完畢,caffe開始加載solver文件,之后是檢查訓練要工作在CPU還是GPU。
??caffe::SolverParameter?solver_param; ??caffe::ReadSolverParamsFromTextFileOrDie(FLAGS_solver,?&solver_param);
工作設備設定后,根據加載的solver_param參數創(chuàng)建solver對象,并根據snapshot和weight參數加載模型參數,如果兩個參數都沒有設置,則模型根據提供的初始化類型或者默認值進行初始化。
shared_ptr<caffe::Solver>??solver(caffe::SolverRegistry::CreateSolver(solver_param)); ??solver->SetActionFunction(signal_handler.GetActionFunction()); ??if?(FLAGS_snapshot.size())?{ ????LOG(INFO)?<<?"Resuming?from?"?<<?FLAGS_snapshot; ????solver->Restore(FLAGS_snapshot.c_str()); ??}?else?if?(FLAGS_weights.size())?{ ????CopyLayers(solver.get(),?FLAGS_weights); ??}
設置和初始化完成,就可以訓練了。CPU版本的就是solver對象調用其Solver()函數。
??LOG(INFO)?<<?"Starting?Optimization"; ??if?(gpus.size()?>?1)?{ #ifdef?USE_NCCL ????caffe::NCCLnccl(solver); ????nccl.Run(gpus,?FLAGS_snapshot.size()?>?0???FLAGS_snapshot.c_str()?:?NULL); #else ????LOG(FATAL)?<<?"Multi-GPU?execution?not?available?-?rebuild?with?USE_NCCL"; #endif ??}?else?{ ????solver->Solve(); ??}
再看test()函數:
首先也是檢查solver文件和權值文件weight,但是此時weight必須提供,否則無法預測
??CHECK_GT(FLAGS_model.size(),?0)?<<?"Need?a?model?definition?to?score."; ??CHECK_GT(FLAGS_weights.size(),?0)?<<?"Need?model?weights?to?score.";
然后檢測當前平臺是否支持GPU,如果支持,則默認使用GPU進行預測
//?Set?device?id?and?mode ??vectorgpus; ??get_gpus(&gpus); ??if?(gpus.size()?!=?0)?{ ????LOG(INFO)?<<?"Use?GPU?with?device?ID?"?<<?gpus[0]; #ifndef?CPU_ONLY ????cudaDeviceProp?device_prop; ????cudaGetDeviceProperties(&device_prop,?gpus[0]); ????LOG(INFO)?<<?"GPU?device?name:?"?<<?device_prop.name; #endif ????Caffe::SetDevice(gpus[0]); ????Caffe::set_mode(Caffe::GPU); ??}?else?{ ????LOG(INFO)?<<?"Use?CPU."; ????Caffe::set_mode(Caffe::CPU); ??}
平臺設定后,創(chuàng)建Net對象初始化預測的神經網絡,然后使用weight參數初始化網絡權值
??Netcaffe_net(FLAGS_model,?caffe::TEST,?FLAGS_level,?&stages); ??caffe_net.CopyTrainedLayersFrom(FLAGS_weights);
然后就可以開始預測了
??for?(int?i?=?0;?i?<?FLAGS_iterations;?++i)?{ ????float?iter_loss; ????const?vector<Blob*>&?result?= ????????caffe_net.Forward(&iter_loss); ????loss?+=?iter_loss; ????int?idx?=?0; ????for?(int?j?=?0;?j?<?result.size();?++j)?{ ??????const?float*?result_vec?=?result[j]->cpu_data(); ??????for?(int?k?=?0;?k?<?result[j]->count();?++k,?++idx)?{ ????????const?float?score?=?result_vec[k]; ????????if?(i?==?0)?{ ??????????test_score.push_back(score); ??????????test_score_output_id.push_back(j); ????????}?else?{ ??????????test_score[idx]?+=?score; ????????} ????????const?std::string&?output_name?=?caffe_net.blob_names()[ ????????????caffe_net.output_blob_indices()[j]]; ????????LOG(INFO)?<<?"Batch?"?<<?i?<<?",?"?<<?output_name?<<?"?=?"?<<?score; ??????} ????} ??}
主要是caffe_net.Forward(&iter_loss);這一句,其他都是為了可視化的參數。