米爾入門(mén)級i.MX6UL開(kāi)發(fā)板的神經(jīng)網(wǎng)絡(luò )框架ncnn移植與測試

發(fā)布時(shí)間:2023-2-17 17:05    發(fā)布者:eechina
米爾 MYD-Y6ULX-V2 開(kāi)發(fā)板,基于 NXP i.MX6UL/i.MX6ULL處理器,該開(kāi)發(fā)板被米爾稱(chēng)之為經(jīng)典王牌產(chǎn)品。本次測試目標是在此開(kāi)發(fā)板上進(jìn)行神經(jīng)網(wǎng)絡(luò )框架ncnn的移植與測試開(kāi)發(fā),測試ncnn在此開(kāi)發(fā)板上的性能與應用測試。



01.什么是ncnn

ncnn 是騰訊優(yōu)圖推出的在手機端極致優(yōu)化的高性能神經(jīng)網(wǎng)絡(luò )前向計算框架。也能夠在移動(dòng)設備上的高性能神經(jīng)網(wǎng)絡(luò )前向計算框架。ncnn 從設計之初深刻考慮移動(dòng)端的部署和使用。無(wú)第三方依賴(lài),跨平臺,其中手機端 cpu的速度快于目前所有已知的開(kāi)源框架;趎cnn,能夠將深度學(xué)習算法輕松移植到手機端和移動(dòng)設備上高效執行,開(kāi)發(fā)人工智能應用。以騰訊內部應用為例,ncnn目前已在QQ,Qzone,微信,天天P圖等上得到應用。ncnn支持大部分常用的CNN 網(wǎng)絡(luò ):Classical CNN: VGG AlexNetGoogleNet Inception …Practical CNN: ResNetDenseNet SENet FPN …Light-weight CNN:SqueezeNet MobileNetV1/V2/V3 ShuffleNetV1/V2 MNasNet …Detection: MTCNNfacedetection …Detection: VGG-SSDMobileNet-SSD SqueezeNet-SSD MobileNetV2-SSDLite …Detection: Faster-RCNNR-FCN …Detection: YOLOV2 YOLOV3MobileNet-YOLOV3 …Segmentation: FCN PSPNetUNet …騰訊優(yōu)圖實(shí)驗室是主要研究計算機視覺(jué)技術(shù),ncnn的許多應用方向也都在圖像方面,如人像自動(dòng)美顏,照片風(fēng)格化,超分辨率,物體識別。騰訊優(yōu)圖ncnn提供的資料顯示:對比目前已知的同類(lèi)框架,ncnn是cpu框架中最快的,安裝包體積最小,跨平臺兼容性中也是最好的。以蘋(píng)果主推的CoreML為例,CoreML是蘋(píng)果主推的 iOS gpu計算框架,速度非?,但僅支持 iOS11以上的 iphone手機受眾太狹窄。非開(kāi)源也導致開(kāi)發(fā)者無(wú)法自主擴展功能。

02.ncnn功能簡(jiǎn)介

ncnn支持卷積神經(jīng)網(wǎng)絡(luò ),支持多輸入和多分支結構,可計算部分分支無(wú)任何第三方庫依賴(lài),不依賴(lài) BLAS/NNPACK 等計算框架純 C++ 實(shí)現,跨平臺,支持 android ios 等ARM NEON 匯編級良心優(yōu)化,計算速度極快精細的內存管理和數據結構設計,內存占用極低支持多核并行計算加速,ARM big.LITTLE cpu 調度優(yōu)化。支持基于全新低消耗的 vulkan api GPU 加速整體庫體積小于 700K,并可輕松精簡(jiǎn)到小于 300K可擴展的模型設計,支持 8bit 量化和半精度浮點(diǎn)存儲,可導入 caffe/pytorch/mxnet/onnx 模型支持直接內存零拷貝引用加載網(wǎng)絡(luò )模型可注冊自定義層實(shí)現并擴展。ncnn與同類(lèi)框架對比



03.在i.MX 6ull上移植編譯ncnn

工程地址:

githubhttps://github.com/Tencent/ncnn 從工程的readme文件看,該工程已經(jīng)支持很多嵌入式CPU的架構,其中就有arm 32位版本。



既然支持arm32位,那么ixm6ull處理器也應該支持,即著(zhù)手編譯米爾i.MX6UL/i.MX6UL開(kāi)發(fā)板上的版本。1.從github 上拉取ncnn源碼在主機上執行命令:Sudo git clone
https://github.com/Tencent/ncnn.git



可見(jiàn)是一個(gè) cmake工程,那么嘗試cmake 編譯。2.初次使用camke編譯先進(jìn)入ixml6ull的SDK下,切換到交叉編譯環(huán)境,然后創(chuàng )建 build 目錄,進(jìn)入build目錄下,執行cmake命令cmake ../從輸出信息上看 cmake失敗,查看cmake 日志,發(fā)現錯誤原因是cmake在生成開(kāi)發(fā)板的makefile文件時(shí),需要指定使用的編譯工具鏈。3.添加imx6ull開(kāi)發(fā)板的編譯配置根據腳本的過(guò)程,在toolchains目錄下,有很多其它開(kāi)發(fā)板的編譯配置文件,參照其它開(kāi)發(fā)板的配置文件,添加一個(gè)i.MX6UL開(kāi)發(fā)板的配置文件。文件名:arm-poky-linux-gnueabi.cmake內容如下:

set(CMAKE_SYSTEM_NAME Linux)set(CMAKE_SYSTEM_PROCESSOR arm)set(CMAKE_C_COMPILER "arm-poky-linux-gnueabi-gcc")set(CMAKE_CXX_COMPILER "arm-poky-linux-gnueabi-g++")set(CMAKE_FIND_ROOT_PATH_MODE_PROGRAM NEVER)set(CMAKE_FIND_ROOT_PATH_MODE_LIBRARY ONLY)set(CMAKE_FIND_ROOT_PATH_MODE_INCLUDE ONLY)
set(CMAKE_C_FLAGS "-march=armv7-a -mfloat-abi=hard -mfpu=neon --sysroot=/home/lutherluo/workspace/fsl-imx-fb/5.10-gatesgarth/sysroots/cortexa7t2hf-neon-poky-linux-gnueabi")
set(CMAKE_CXX_FLAGS "-march=armv7-a -mfloat-abi=hard -mfpu=neon --sysroot=/home/lutherluo/workspace/fsl-imx-fb/5.10-gatesgarth/sysroots/cortexa7t2hf-neon-poky-linux-gnueabi")
# cache flagsset(CMAKE_C_FLAGS "${CMAKE_C_FLAGS}" CACHE STRING "c flags")set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS}" CACHE STRING "c++ flags")



4.再使用cmake生成編譯文件添加完i.MX6UL/i.MX6ULL開(kāi)發(fā)板的編譯工具鏈后,就可以使用cmake來(lái)生成編譯所需的makefile文件了。在cmake時(shí),可以指定除了編譯ncnn庫外,還可以編譯ncnn例子程序。命令如下:cmake-DCMAKE_BUILD_TYPE=Release -DNCNN_SIMPLEOCV=ON-DCMAKE_TOOLCHAIN_FILE=../toolchains/arm-poky-linux-gnueabi.cmake-DNCNN_BUILD_EXAMPLES=ON ..



查看目錄下,已經(jīng)順利地生成了 Makefile文件。5.使用make編譯文件然后可以正式編譯ncnn庫和測試樣例程序了。直接執行make –j4就開(kāi)始愉快地編譯了。





編譯libncnn庫文件成功,會(huì )繼續自動(dòng)編譯 examples 下的例子文件。



大約10多分鐘,順利地全部編譯完成。在編譯測試用例時(shí),會(huì )出現庫格式錯誤的提示,此時(shí)需要設置一下交叉編譯環(huán)境下的庫歸檔工具,系統默認使用的是arm-poky-linux-gnueabi-ar 工具,這個(gè)工具產(chǎn)生的 .a文件有問(wèn)題,經(jīng)過(guò)測試使用 arm-poky-linux-gnueabi-gcc-ar 即可。只需要在執行切換交叉環(huán)境腳本后,再單獨執行一下以下命令即可修改該問(wèn)題:export ar=arm-poky-linux-gnueabi-gcc-ar再進(jìn)行編譯即可。6.查看編譯結果編譯完成后,在build目錄下,可以看到 benchmark 目錄,該目錄下就是ncnn的基準測試工具,可以看到目標板執行文件已經(jīng)編譯出來(lái)。 再進(jìn)入到 build/example 下,可以看到所有例程也編譯出來(lái)了。



04.板上運行測試ncnn

編譯完成把可執行文件與模型文件復制到i.MX6UL/i.MX6ULL開(kāi)發(fā)板里進(jìn)行測試。

把 build/benchmark 下的benchmark 復制到開(kāi)發(fā)板/home/root/ncnn 目錄下,同時(shí)把工程根目錄下的benchmark 目錄下所有文件也復制到i.MX6UL/i.MX6ULL開(kāi)發(fā)板 /home/root/ncnn目錄下,


然后就可以執行 benchmark 執行文件來(lái)測試i.MX6UL/i.MX6ULL開(kāi)發(fā)板的人工神經(jīng)網(wǎng)絡(luò )的計算能力。

先把開(kāi)發(fā)環(huán)境下目標文件系統arm目錄下/usr/lib下的libgomp.so.1文件復制到開(kāi)發(fā)板的/usr/lib下,這個(gè)文件是并行計算庫,ncnn編譯時(shí)用到了這個(gè)庫,這個(gè)庫在多核處理器上能夠支持執行并行計算。然后再在i.MX6UL/i.MX6ULL開(kāi)發(fā)板執行benchmark,執行輸出結果如下圖:



可見(jiàn)大部分的模型能夠跑通了,有部分模型運行出現異常。

從拋出的分值可以評估該開(kāi)發(fā)板的神經(jīng)網(wǎng)絡(luò )推理計算能力了。

這個(gè)分值是一個(gè)模型推理一次的耗時(shí),所以數值越小意味著(zhù)算力越強?紤]到這個(gè)開(kāi)發(fā)板是一個(gè)arm v7入門(mén)級的開(kāi)發(fā)板,這樣的性能已經(jīng)超乎預料了。

05.測試基于ncnn的應用

這里在i.MX6UL/i.MX6ULL開(kāi)發(fā)板上測試ncnn的應用例子,這里就用ncnn下的例程來(lái)做測試,在上面編譯完example后,在build目錄下會(huì )產(chǎn)生example的目標板的可執行文件。編譯出來(lái)的例子程序如下,把他們全部傳到開(kāi)發(fā)板上。



需要注意的是,除了ncnn的應用執行文件,在這些例子執行的時(shí)候,還需要模型和測試的資源文件,而這些文件體積都比較大,因此不能傳送到開(kāi)發(fā)板的系統目錄上,需要單獨存在擴展的存儲空間上。

經(jīng)過(guò)觀(guān)察板上的文件系統,發(fā)現有3.1G的空間沒(méi)有使用,此時(shí)可以使用fdisk 來(lái)格式化該空間,格式化成 ext4 格式,重啟板子后,就可以看到這部分空間了,然后把ncnn的所有測試執行文件和資源文件傳到該目錄下,這樣就夠用了。



在板上執行各個(gè)測試例子,會(huì )提示缺少相關(guān)模型文件和參數文件,這些模型和參數文件在這個(gè)github上面,下載相應的文件到當前目錄下就可以。

https://github.com/nihui/ncnn-assets/tree/master/models



1. 測試圖片分類(lèi)器

準備被測試圖片,test,jpg ,傳到上ncnn當前目錄下



并且下載好 squeezenet_v1.1.param和 squeezenet_v1.1.bin 文件到 ncnn當前目錄下,然后執行一下命令:

./squeezenet./test.jpg

很快就輸出識別結果,輸出結果如下圖



輸出結果前面的編號和分類(lèi)號,具體可以參考:

mageNet20121000分類(lèi)名稱(chēng)和編號
https://zhuanlan.zhihu.com/p/315368462

但不知本測試模型所用分類(lèi)的版本是否和這個(gè)一致。

2  測試圖片內容多目標識別

測試圖片內容識別,先用上面的圖,再使用 squeezenetssd 來(lái)執行。執行前先下載 squeezenet_ssd_voc.bin和 squeezenet_ssd_voc.param 到板上ncnn當前目錄下,然后執行:
./squeezenetssd./test.jpg

大約3秒左右輸出結果如圖:

輸出的分類(lèi)編號,可見(jiàn)代碼的定義:



同時(shí)輸出了識別結果圖:



再測試另外一張圖;



執行結果如下:



輸出識別結果圖:



上面的識別,因為輸出的第二個(gè)目標被第三個(gè)目標遮蓋,第二個(gè)識別為“Dog”,所以識別準確度還是比較高的。

再測試了一張圖:

輸出:





識別效果也比較理想。

06.ncnn移植測試總結

經(jīng)過(guò)在米爾i.MX6UL/i.MX6ULL開(kāi)發(fā)板上,進(jìn)行這次的ncnn移植測試,總體非常順利,在移植中只需要針對開(kāi)發(fā)板的編譯器,修改添加相應的編譯腳本即可順利的編譯ncnn庫和所有例程。并不需要對代碼做任何改動(dòng)或者調整,因此過(guò)程很快,短暫的時(shí)間就可以完成ncnn這樣一個(gè)神經(jīng)網(wǎng)絡(luò )框架在本開(kāi)發(fā)板上運行起來(lái)。

對ncnn的benchmark的性能測試來(lái)看,因為本開(kāi)發(fā)板僅為arm v7單核處理器,處于入門(mén)級的一款開(kāi)發(fā)板,能跑出這樣的成績(jì)已經(jīng)出乎意料。

在對實(shí)際圖像分類(lèi)和圖像內容識別測試中,其中圖像分類(lèi)僅百十毫秒就出結果,對多目標識別單張圖在2秒左右,這對一些靜態(tài)的環(huán)境下已經(jīng)能夠達到業(yè)務(wù)使用的需求了,再綜合其硬件性能,可見(jiàn)效能比是非常高的。同時(shí)工程里還帶有一些各種其它框架模型轉化ncnn的工具,方便將其它模型轉化到ncnn上來(lái)使用,非常方便。

同時(shí)也測試出ncnn的良好的可移植性和對不同嵌入式硬件的支持較好,其它任何一個(gè)神經(jīng)網(wǎng)絡(luò )框架恐怕無(wú)法在這樣一個(gè)系統上運行,因此也為這樣一個(gè)有效的國產(chǎn)開(kāi)源神經(jīng)網(wǎng)絡(luò )項目點(diǎn)贊。

本文地址:http://selenalain.com/thread-810881-1-1.html     【打印本頁(yè)】

本站部分文章為轉載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問(wèn)題,我們將根據著(zhù)作權人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復 返回頂部 返回列表
午夜高清国产拍精品福利|亚洲色精品88色婷婷七月丁香|91久久精品无码一区|99久久国语露脸精品|动漫卡通亚洲综合专区48页