日韩欧美视频一区-日韩欧美三区-日韩欧美群交P内射捆绑-日韩欧美精品有码在线播放免费-成人免费一区二区无码视频-成人免费一级毛片在线播放视频

樹人論文網(wǎng)一個專業(yè)的學(xué)術(shù)咨詢網(wǎng)站!!!
樹人論文網(wǎng)

基于改進(jìn) YOLOv3的豬臉識別

來源: 樹人論文網(wǎng)發(fā)表時間:2021-03-11
簡要:摘 要 針對生豬智能化管理中傳統(tǒng)標(biāo)識方法存在的易脫標(biāo),易引起生豬感染等問題,采用基于改進(jìn) YOLOv3模型的非侵入式方法,對生豬多個體識別進(jìn)行研 究。針 對 原 有 的 YOLOv3模 型,在

  摘 要 針對生豬智能化管理中傳統(tǒng)標(biāo)識方法存在的易脫標(biāo),易引起生豬感染等問題,采用基于改進(jìn) YOLOv3模型的非侵入式方法,對生豬多個體識別進(jìn)行研 究。針 對 原 有 的 YOLOv3模 型,在 Darknet53特征提取器中引入密連塊,結(jié)合下采樣層組成新的骨干網(wǎng)絡(luò);在 YOLOv3模型中添加改進(jìn)的 SPP單 元,最 終 構(gòu) 建 了 YOLOv3_DB_SPP模型。試驗采用的豬臉數(shù)據(jù)集共分為10類,數(shù)據(jù)增強(qiáng)后樣本為8512張,訓(xùn)練集和測試集比例約為9∶1。結(jié)果表明:1)YOLOv3_DB_SPP模型在各分類概率閾值下檢測豬臉數(shù)據(jù)集時的平均精度均值均高于 YOLOv3模型;2)當(dāng)IOU 閾值為0.5,分類概率 閾 值 為 0.1時,YOLOv3_DB_SPP 模型的平均精度均值比 YOLOv3模 型 高 9.87%;3)YOLOv3_DB_SPP模型檢測遠(yuǎn)距離有遮擋的小目標(biāo)樣本時,平均精度值均高于 YOLOv3模型。YOLOv3_DB_SPP模型用于豬臉識別時,能夠提高基礎(chǔ)特征提取器的特征提取能力以及檢測器的準(zhǔn)確率。

基于改進(jìn) YOLOv3的豬臉識別

  本文源自中國農(nóng)業(yè)大學(xué)學(xué)報 發(fā)表時間:2021-03-09 《中國農(nóng)業(yè)大學(xué)學(xué)報》是教育部主管、中國農(nóng)業(yè)大學(xué)主辦的國家級綜合性農(nóng)業(yè)學(xué)術(shù)期刊。本刊主要刊登生物學(xué)、作物學(xué)、植物保護(hù)、園藝學(xué)、動物科學(xué)與動物醫(yī)學(xué)、食品科學(xué)與營養(yǎng)工程、農(nóng)業(yè)資源與環(huán)境工程、農(nóng)業(yè)機(jī)械工程、信息與電氣工程、水利與土木工程及農(nóng)業(yè)經(jīng)濟(jì)管理等學(xué)科的學(xué)術(shù)論文、文獻(xiàn)綜述和研究快報等。讀者對象為國內(nèi)外高等院校師生、廣大農(nóng)業(yè)科技工作者及管理干部。

  關(guān)鍵詞 豬臉識別;YOLOv3;DenseNet;SPP

  近年來,隨著生豬養(yǎng)殖業(yè)智能化的發(fā)展,生豬的精準(zhǔn)管理變得尤為 重 要,而 識 別 生 豬個體則是進(jìn)行針對性養(yǎng)殖的關(guān)鍵。傳統(tǒng)的識別方式包括顏色標(biāo)記、佩戴 射 頻 識 別 耳 標(biāo) (Radiofrequencyidentification,RFID)等。使用顏色 標(biāo) 記 的 方 法 雖 然 直 觀,但 僅 限于生豬較少的情況;而佩戴耳標(biāo)則可能存在耳標(biāo)損壞,脫標(biāo)以及生豬感染寄生蟲等問題。

  現(xiàn)有的豬臉識別研究較少,主要包括:1)Naoki等[1]利用特征空間方法,采用手動分割的特征實現(xiàn)生豬 個 體 識 別,在 16 個 類 別 的 數(shù) 據(jù) 集 上 達(dá) 到97.9% 的識別率;2)Hansen等[2]搭建了基于卷積,最大池化等 結(jié) 構(gòu) 的 CNN 模 型,在農(nóng)場豬臉識別上取得了較好結(jié)果;3)秦興等[3]利用雙線性卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行生豬面部特征提取,并將不同層次的特征做外積融合形成最終個體特征,在其測試圖像集上達(dá)到了95.73%的識別準(zhǔn)確率。上述研究在解決豬臉識別問題 時,主要考慮單個個體樣本受光照、姿態(tài)、場景等因 素 的 影 響,當(dāng)樣本圖像中有多個個體時,難以完成自動化管理中復(fù)雜環(huán)境下的多個體識別任務(wù)。

  隨著深度學(xué)習(xí)技術(shù)在計算機(jī)視覺領(lǐng)域的廣泛運用[4-6],深度卷 積 神 經(jīng) 網(wǎng) 絡(luò) 在 人 臉 識 別 領(lǐng) 域 成 果 頗豐。理論上,應(yīng)用于非侵入式場景的人臉識別對于豬臉識別有一定參考價值。深度學(xué)習(xí)技術(shù)在人臉識別領(lǐng) 域 的 研 究 主 要 包 括:1)Taigman 等[7]提 出 的Deep-Face方法,使用4000個人200萬的大規(guī)模訓(xùn)練數(shù)據(jù)訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò),對人臉對齊和人臉表示提出改進(jìn),在 LFW 數(shù)據(jù)集上達(dá)到97.35%的準(zhǔn)確率;2)Sun等[8-9]提出的 DeepID系列使用25個網(wǎng)絡(luò)模型,并在網(wǎng)絡(luò)結(jié)構(gòu)上同時考慮分類損失和驗證損失等,顯著提升了人臉識別效果;3)Sun等[10]提出的 DeepID2神 經(jīng) 網(wǎng) 絡(luò) 結(jié) 構(gòu) 利 用 人 臉 識 別 信 號 提取不同人臉特征,增大不同人臉圖像間的類間差異,并使用人臉驗證信號提取同一個人臉的特征,減小類 內(nèi) 差 異,從 而 學(xué) 習(xí) 到 區(qū) 分 能 力 較 強(qiáng) 的 特 征;4)Florian等[11]提出的 FaceNet網(wǎng)絡(luò)結(jié)構(gòu)共擁有27層網(wǎng)絡(luò)層,引入 Triplet損失函數(shù)提取人臉的特征信息,使得模型的學(xué)習(xí)能力 更 高 效;5)Omkar等[12]在網(wǎng)絡(luò)結(jié)構(gòu)中引入跨層連接,并使用了260萬的大規(guī)模數(shù)據(jù)集,在 LFW 和 YTF 數(shù) 據(jù) 集 上 達(dá) 到 很 好 的結(jié)果。

  基于以上研究,本研究擬采用在骨干網(wǎng)絡(luò)中引入密連塊(DenseBlock)以及在檢測器中引入改進(jìn)的SPP單元的方法,以期設(shè)計出能夠在多個尺度特征圖上對不同大小的目標(biāo)進(jìn)行檢測,能夠有針對性的實現(xiàn)多個體識別任務(wù)的豬臉識別算法。

  1 材料與方法

  1.1 樣本采集

  樣本豬來自安徽蒙城京徽蒙養(yǎng)豬場,使用羅技C920Pro攝像頭作為實時采集工具,利用 NanoPc-T4開發(fā)板將 USB連接的攝像頭采集到的圖像傳輸?shù)介_發(fā)板的I/O 緩沖區(qū)中,在開發(fā)板的圖形運算單元上對圖像數(shù) 據(jù) 進(jìn) 行 壓 縮 打 包 處 理,利 用4G 通 信模塊將圖像信息經(jīng)過互聯(lián)網(wǎng)傳輸?shù)椒?wù)器。試驗中安裝攝像頭的圈舍光照較為充足,且試驗采集裝置能夠遠(yuǎn)程控制攝像頭的旋轉(zhuǎn),使得采集到的樣本圖像具有不同角度的生豬個體臉部信息。

  為保證采集到的樣本畫面連續(xù),能夠辨認(rèn)生豬個體是否為同一只,試驗采集裝置采樣時間間隔設(shè)置為0.5s;由于過短的時間間隔可導(dǎo)致采集的樣本圖像之間相似度過高甚至畫面接近重復(fù),故對采集到的樣本圖像進(jìn)行了篩選。本研究對連續(xù)采集圖像之間 采 用 結(jié) 構(gòu) 相 似 性 指 數(shù) (Structuralsimilarityindex,SSIM)進(jìn)行比較。經(jīng)過對樣本進(jìn)行一系列的比較試 驗,試 驗 樣 本 同 時 選 用 SSIM 值 <0.78 的2張圖像,若大 于 該 值,則選用序號靠后的圖 像,樣本圖像分辨率為1920像素×1080像素。

  1.2 YOLOv3

  YOLOv3模型使 用 連 續(xù) 的1×1和3×3卷 積以及殘差模塊構(gòu)成了 1 個 包 含 52 個 卷 積 層 以 及1個全連接層的53層特征提取器 Darknet53,結(jié)構(gòu)見圖1,此時輸入圖片大小為256像素×256像素。在預(yù)測時,為了能夠充分利用早期特征映射中的上采樣特征和細(xì)粒度特征,YOLOv3模型使用了多尺度預(yù)測方法[13],輸入圖片大小為416像素×416像素。YOLOv3模型 首 先 去 除 特 征 提 取 結(jié) 構(gòu) 中 的 全連接層,在最后1個殘差塊的后面增加若干個核大小為1×1和3×3的卷積層集合,并使用最后1個1×1卷積層進(jìn)行預(yù)測,此即為scale1。然后對該尺度提取到的特征圖執(zhí)行上采樣操作,并 使 用concat操作將其與上一個殘差塊提取到的大小為26×26的特征拼接,拼接后的特征圖投入其后的多層卷積集合并預(yù)測,此即為scale2。最后,將scale2中提取的特征上采樣到52×52,并將其與上上個殘差塊輸出的特征拼接形成大小為52×52的特征圖,將該特征圖輸入其后的卷積層集合進(jìn)行第3次預(yù)測,此即為scale3。

  YOLOv3模型提供3種不同尺寸的先驗框,并依據(jù)不同的下采樣尺度,采用 K-means方法聚類得到9種尺寸的先驗框,按照大特征圖小尺寸框的原則分配。YOLOv3 模型利用線性回歸預(yù)測每個先驗框的目標(biāo)分值[14]。網(wǎng)絡(luò)模型給每個groundtruth對象只分配1個先驗框。訓(xùn)練時,采用誤差平方和作為邊框預(yù)測的損失函數(shù)。圖2給出先驗框與預(yù)測邊界框在 圖 像 上 的 關(guān) 系。預(yù)測邊界框的中心坐標(biāo)(bx,by)及寬度bw,高度bh 的計算過程為:

  式中:σ()為sigmoid函數(shù);tx,ty 為預(yù)測邊界框的中心偏移量;Cx,Cy 分別為目標(biāo)所在單元相對于圖像左上角的橫坐標(biāo)與縱坐標(biāo);pw,ph 分 別 為 先 驗 框 的寬度和高度;tw,th 分別為預(yù)測邊界框的寬度和高度縮放比例。

  YOLOv3模型為每個邊界框采用多標(biāo)簽分類,使用單獨的邏輯回歸分類器取代softmax分類。在訓(xùn)練過 程 中,利 用 二 值 交 叉 熵 損 失 (Binarycrossentropy)來預(yù)測類別。

  1.3 DenseNet

  密連 網(wǎng) 絡(luò) (DenseNet)是卷積神經(jīng)網(wǎng)絡(luò)中的一種跨連模型。密連網(wǎng)絡(luò)包括密連塊和用于連接密連塊的過渡層。密連網(wǎng)絡(luò)的優(yōu)勢在于能夠有效解決深層神經(jīng)網(wǎng)絡(luò)的梯度消失問題,并在實現(xiàn)特征重用的同時減少了參數(shù)[15-16]。

  1個L 層的密連網(wǎng)絡(luò),其第l層有l(wèi)個輸入,且第l層的特征圖將傳遞給其后的L -l層以實現(xiàn)特征重 用,網(wǎng) 絡(luò) 共 有 L(L+1)2 個 連 接。網(wǎng) 絡(luò) 連 接 模式為:xl = Hl([x0,x1,…xl-1]) (2)式中:xl 為 第l 層 的 輸 出;Hl(·)為 批 標(biāo) 準(zhǔn) 化 層(Batchnormalizationlayer,BNLayer),ReLU 函數(shù)以及3×3卷積層構(gòu)成的組合函數(shù)。

  2 YOLOv3_DB_SPP模型

  由于豬場養(yǎng)殖環(huán)境的限制,采集到的生豬樣本面部存在臟污遮擋,需要深層神經(jīng)網(wǎng)絡(luò)提取更具表征性的特征用于識別。然而,由于標(biāo)記檢測圖像的時間代價大,短期內(nèi)無法獲取較大的樣本數(shù)來應(yīng)對深層神經(jīng)網(wǎng)絡(luò)可能出現(xiàn)的梯度消失問題。本研究在原始 YOLOv3模型的基礎(chǔ)上提出了 YOLOv3_DB_SPP模型。該結(jié)構(gòu)首先在基礎(chǔ)特征提取器中引入了 DenseNet中 的 DenseBlock。其 次,為 了 在 不 引入過多參數(shù)的前提下融合多尺度的信息,該結(jié)構(gòu)在骨干網(wǎng)絡(luò)之后添加改進(jìn)的SPP單元,以提高檢測豬群樣本中占整張圖片面積較小的生豬個體時的準(zhǔn)確率。

  2.1 特征提取器

  YOLOv3_DB_SPP 模型的特征提取器包括Convolutional單 元 和 DenseBlock 模 塊 2 部 分,結(jié)構(gòu)見圖3。Convolutional單元由BNLayer,7×7或3×3的卷積層,LeakyReLU 激活函數(shù)構(gòu)成(圖4)。其中 BN Layer用 于 自 適 應(yīng) 的 重 參 數(shù) 化,起 到 避 免網(wǎng)絡(luò)參數(shù)分布發(fā)生偏移的作用,在一定程度上能夠緩解深層網(wǎng)絡(luò)的過擬合以及梯度消失問題,且對參數(shù)初始化的影響比較小。為了更充分的保留原圖信息,提 高 對 小 目 標(biāo) 的 檢 測 精 度,本 研 究 參 考ResNet[17]和 GoogLeNet[18]的 做 法,將 特 征 提 取 器第一個卷積層的核大小設(shè)置為7×7,并在該層實現(xiàn)第一次下采樣,其余的4次下采樣均采用3×3的卷積層實現(xiàn)。

  改 進(jìn) 的 特 征 提 取 器 使 用 DenseBlock 代 替 原來 的 Residual單 元,DenseBlock中 每 個 卷 積 層 輸出 的 特 征 圖 數(shù) 目 為k,k 值 的 設(shè) 置 較 殘 差 模 塊 會小 得 多,使 得 網(wǎng) 絡(luò) 更 窄,在加深層次的同時參數(shù)數(shù)目不至于增長的過 多,減 少 網(wǎng) 絡(luò) 計 算 量。本 研究 采 用 的5個 DenseBlock除 Denseblock1 之 外 其余4個 DenseBlock的 結(jié) 構(gòu) 一 致,如 圖 5 所 示。其中 非 線 性 轉(zhuǎn) 換 Hi 由 BN Layer,1×1 的 卷 積 層,LeakyReLU 激 活 函 數(shù) 以 及 大 小 為 3×3 的 卷 積層 組 成。 本 研 究 使 用 LeakyReLU 函 數(shù) 取 代 原DenseNet網(wǎng) 絡(luò) 中 使 用 的 ReLU 函 數(shù),以 防 止 取 到負(fù) 值 的 參 數(shù) 被 置 0 導(dǎo) 致 該 神 經(jīng) 元 無 法 學(xué) 習(xí)。 在3×3的卷積層之前仍然添加1×1的 卷 積 作 為 瓶頸 層,用 于 對 輸 入 到 3×3 卷積層的特征進(jìn)行降維,減 少 計 算 量。

  為 了 不 引 入 過 多 參 數(shù),本 研 究 使 用 的DenseBlock1中 每 個 卷 積 層 的 輸 出 通 道 數(shù) 設(shè) 置 為32,且 僅 使 用 3 層 的 結(jié) 構(gòu)。 經(jīng) 過 DenseBlock1 對特 征 的 重 復(fù) 利 用 之 后,對 后 面 的 DenseBlock2,3,4采 取 或 加 深 層 次 或 減 小 輸 出 通 道 數(shù) 的 做 法,這3個 密 連 塊 的k值 分 別 為 16、16、32,且 均 包 含 8個 卷 積 層。 最 后 一 個 密 連 塊 為 了 輸 出 更 加 豐 富的特征信息設(shè)置了較大的通道數(shù)64,采 用4層 結(jié)構(gòu)。由 于 DenseBlock 中 的 卷 積 層 較 Residual中要 多,故 將 其 疊 加 使 用 次 數(shù) 分 別 減 少 到 1、2、4、2、1。避 免 因 次 數(shù) 使 用 過 多 導(dǎo) 致 網(wǎng) 絡(luò) 層 次 過 深,影 響 到 模 型 的 效 率。YOLOv3_DB_SPP 模 型 結(jié)構(gòu) 見 圖6。

  2.2 檢測器

  由于豬場養(yǎng)殖環(huán)境分為單只圈養(yǎng)和多只圈養(yǎng),采集多只圈養(yǎng)的樣本時,樣本圖像中生豬個體多且擁擠,部分生豬距離攝像頭距離較遠(yuǎn),且有遮擋豬臉的情況發(fā)生。為了能夠檢測到這類小目標(biāo),本研究提出的 YOLOv3_DB_SPP模型引入了改進(jìn)的SPP模塊。

  YOLOv3_DB_SPP模型中,先在特征提取器之后增加 ConvolutionalSet。它 包 括3組1×1和3×3的卷積層,再在該單元的后面引入改進(jìn)的 SPP單元(圖7)。改進(jìn)的SPP單元對卷積層提取的特征圖分別進(jìn)行大小為7×7,5×5以及3×3的最大池化。為了保持輸入輸出尺寸一致,在池化操作前對特征提取器的輸出做了 padding操作,并設(shè)置 池 化步長為1。

  改進(jìn)的 SPP單元對3種不同尺度池化的結(jié) 果進(jìn)行了concat操作,多次最大池化操作在不同尺度上保留響應(yīng)最強(qiáng)烈的特征,且利用拼接特征提取器的輸出與改進(jìn)的 SPP 單元的輸出保留卷積層提 取的特征,再經(jīng)過1個3×3卷積層的處理后,輸入第一尺度檢測器的1×1卷積層,實現(xiàn)在尺寸為13× 13的特征圖上的檢測操作。

  相對于傳統(tǒng)的SPP,改進(jìn)的SPP單元將輸入的特征圖與池化后的特征圖進(jìn)行通道合并,使得更多的特征被捕獲,提高了大目標(biāo)及一般目標(biāo)的識別精度。其中較小尺度的池化,用于提取遠(yuǎn)距離小目標(biāo)的代表性特征。

  網(wǎng)絡(luò)的第二 個 尺 度 對 改 進(jìn) 的 SPP 單 元 輸 出 與骨干網(wǎng)絡(luò)輸出拼接得到的特征圖進(jìn)行上采樣,輸出特征 圖 大 小 為 26×26。與 YOLOv3 模 型 不 同,YOLOv3_DB_SPP模型中密連塊層數(shù)較多,如果仍然 將 上 采 樣 得 到 的 26 × 26 的 特 征 圖 與DenseBlock4輸出的特征圖進(jìn)行拼接操作,輸 出 的通道數(shù)將會變得很大,而在此處進(jìn)行1×1降維又有可能會丟失部分特征,故在第二尺度采用第四個下采樣層大小為26×26的輸出與其進(jìn)行拼接。再 經(jīng)過 ConvolutionalSet和 3×3 卷 積 后 輸 入 1×1 卷積層,完 成 第 二 次 檢 測。最后一個尺度重復(fù)第二個尺度的 操 作,將第三個下采樣 層的輸出與第二尺度拼接后特征的上采樣特征進(jìn)行拼接,經(jīng) 過 一系 列1×1和3×3卷積后在最后一個1×1卷積上完成預(yù)測。

  3 試驗數(shù)據(jù)集

  試驗中網(wǎng)絡(luò)模型的輸入為416像素×416像素的 RGB彩色生豬 圖 像,原 數(shù) 據(jù) 集2128張,經(jīng) 過 水平翻轉(zhuǎn),隨 機(jī) 裁 剪,鏡 像 翻 轉(zhuǎn) 以 及 隨 機(jī) 移 位 產(chǎn) 生8512張樣本,訓(xùn)練集和測試集樣本數(shù)比例約為9∶1。

  試驗采用的豬臉數(shù)據(jù)集包含的10個生豬個體分別編號為pig1,pig2,…,pig10。使用labelImg手動標(biāo)框并 賦 標(biāo) 簽 名,界 面 見 圖8。labelImg生 成 的XML文件包含了樣本圖像的尺寸以及樣本框左上角和右下角的坐標(biāo)等信息。

  4 試驗方法

  本試驗 采 用 的 操 作 系 統(tǒng) 為 Ubuntu18.04.3,CPU 為Inteli59400F2.9GHz,內(nèi) 存64G,GPU為 NVIDIAGEFORCERTX2080Ti,顯存32G;深度學(xué)習(xí)框架為 Tensorflow,版本號1.13.0。

  試驗 分 為 3 個 階 段,分 別 訓(xùn) 練 15、25、40 個epoch,batch尺 寸 為32,設(shè)置最大學(xué)習(xí)率lrmax和 最小學(xué)習(xí) 率lrmin,迭代步數(shù)指迭代的 batch數(shù) 目。由于網(wǎng)絡(luò)訓(xùn)練初期可能出現(xiàn)loss值 為 NaN 的 情 況,為了避免該問題,第一階段的學(xué)習(xí)率設(shè)置為當(dāng)前迭代步數(shù)與第 一 階 段 總 迭 代 步 數(shù) 的 比 值 與lrmax 的 乘積,該階段用于穩(wěn)定訓(xùn)練,學(xué)習(xí)率逐漸增大至lrmax。第一階段與第二階段均凍結(jié)除去檢測器外所有層的參數(shù),利用模型在 PASCAL VOC2007數(shù)據(jù)集 上 訓(xùn)練得到的參數(shù)作為初始參數(shù),僅訓(xùn)練檢測器層,最終學(xué)習(xí)率為lrmax與lrmin的中值。最后一階段進(jìn)行全網(wǎng)訓(xùn)練,最終學(xué)習(xí)率為lrmin。

  由于改進(jìn)的 YOLOv3_DB_SPP模型與 YOLOv3模型在卷積層層數(shù),參數(shù)數(shù)目等方面均有區(qū)別,因此在訓(xùn)練時本試驗根據(jù)模型收斂實際情況使用了2組參數(shù)。針對 YOLOv3和 YOLOv3_DB模型,lrmax和lrmin分別設(shè)置為10-4和10-6,針對 YOLOv3_DB_SPP模型,lrmax和lrmin分別設(shè)置為10-5和10-7。

  網(wǎng)絡(luò)模型的損失函數(shù)分為3個部分,目標(biāo)類別的損失Lcls以及置信度損失Lconf使用二值交叉熵函數(shù),定位損失Lloc采用預(yù)測偏移量與真實偏移量之間差的平方和作為損失函數(shù),三者之和為最終損失total_loss,具體如下:

  式中:S表示將圖像分成S×S的網(wǎng)格;B 為每個網(wǎng)格單元預(yù)測的邊界框個數(shù);C 為置信度值;^Ci 為預(yù)測置信度值輸入Sigmoid函數(shù)后的輸出;c為類別;pi(c)為包含目標(biāo)的第i個單元格中目標(biāo)屬于類別c的概率;^pi(c)為 將 預(yù) 測 概 率 輸 入 Sigmoid函 數(shù) 后的輸出;Iobjij 根據(jù)第i個網(wǎng)格單元的第j個邊界框是否有目 標(biāo) 分 別 取1、0,Inoobj ij 取 值 與 之 相 反;xi、yi、wi、hi 為groundtruth 框 的 中 心 坐 標(biāo)、寬 度、高 度;^xi、^yi、^wi、^hi 為預(yù)測邊界框的中心坐標(biāo)、寬度、高度。

  5 結(jié)果與分析

  在迭代20315個迭代步數(shù)后,3個模型的總損失值均收斂到0.15附近(圖9),三者訓(xùn)練時間均為3.0~3.5h。

  1 示 出 當(dāng)IOU 閾 值 為 0.5,分 類 概 率 閾 值T=0.1時3種 模 型 對 豬 臉 數(shù) 據(jù) 集 的 檢 測 結(jié) 果,包括平均 精 度 均 值(Meanaverageprecision,mAP)與平 均 精 度 值 (Average precision,AP)。 其 中YOLOv3_DB模型 表 示 未 加 改 進(jìn) 的 SPP單 元 的 檢測器。可 以 看 出,YOLOv3_DB 模 型 與 YOLOv3_DB_SPP模 型 的 mAP值 均 高 于 YOLOv3模 型,且后者較前 者 有 顯 著 提 升,說 明 本 研 究 提 出 的 方 法對提高檢測準(zhǔn)確率有明顯作用。YOLOv3_DB 方法在前7類樣本上的 AP值雖然有所 提 升,但 對 于pig8,pig9,pig10 這種多只圈養(yǎng)的生豬樣本,檢 測結(jié)果并不夠好,而 YOLOv3_DB_SPP模型不僅前7類樣本的 檢 測 效 果 優(yōu) 于 前 2 種 模 型,且 對 多 只 圈養(yǎng)的樣本仍有較高檢測結(jié) 果,說 明 改 進(jìn) 的 SPP單元對于檢 測 距 離 較 遠(yuǎn),遮擋較多的小目 標(biāo)物體有所助益。

  為了進(jìn)一步說明模型的性能,表2示出不同分類概率閾值下3種模型檢測豬臉數(shù)據(jù)集時的 mAP值以及檢測速度,此時IOU 閾值仍為0.5。可以看出隨著分類概率閾值的不斷提升,YOLOv3模型的mAP下降十分明顯,而改進(jìn)的2版模型結(jié)果受影響相對較小,結(jié)果表明 YOLOv3模型的檢測結(jié)果普遍是低概 率 的,一 旦 閾 值 提 升,低 概 率 結(jié) 果 被 剔 除,mAP也就隨之下降;且對這10類 樣 本 進(jìn) 行 目 標(biāo) 檢測時,改進(jìn)的網(wǎng)絡(luò)模型檢測每種生豬個體時的 mAP相較 于 YOLOv3 模型均有不同幅度 的提升,但YOLOv3_DB 模型與 YOLOv3_DB_SPP 模 型 的 檢測速度要次于 YOLOv3模型。

  圖10示出 YOLOv3,YOLOv3_DB和 YOLOv3_DB_SPP這3種 模 型 對 多 只 圈 養(yǎng) 樣 本 的 檢 測 結(jié) 果。可以看出,相 對 于 YOLOv3模 型,YOLOv3_DB 模型能 夠 很 好 檢 測 出 右 下 角 有 陰 影 遮 擋 的 生 豬;YOLOv3_DB_SPP 相 對 于 YOLOv3 和 YOLOv3_DB模型,實現(xiàn)了對角落里遮擋較多的小樣本的檢測。

  圖11示出 YOLOv3,YOLOv3_DB和 YOLOv3_DB_SPP這3種模型檢測多只圈養(yǎng)樣本時產(chǎn)生的預(yù)測 邊 界 框。 可 見,YOLOv3_DB 模 型 相 對 于YOLOv3模型,預(yù)測邊界框框出的檢測目標(biāo)更加完整;YOLOv3_DB_SPP模型相較于前2種模型能夠?qū)崿F(xiàn)對較遠(yuǎn)距離下遮擋較多的小目標(biāo)的檢測,但對小樣本邊界框的定位不夠精確。

  6 結(jié) 論

  本研究將 DenseBlock引入 YOLOv3模型的特征提 取 器 Darknet53得 到 檢 測 模 型 YOLOv3_DB,并將其與改進(jìn)的SPP單元結(jié)合,提出一種新的檢測模型 YOLOv3_DB_SPP,應(yīng)用到生豬識別中。當(dāng)IOU閾值為0.5,分類概率閾值為0.1時,YOLOv3_DB模型檢測豬臉數(shù)據(jù)集時的平均精度均值為82.76%,檢測速度60幀/s,與 YOLOv3模型相比,其平均精度均值高出2.76%,速度僅相差5幀/s;YOLOv3_DB_SPP模型檢測豬臉數(shù)據(jù)集時的平均精度均值為90.18%,檢測速度56幀/s,相較于 YOLOv3模型,其平均精度均值高9.87%,速度慢9幀/s。試驗表明本研究提出的 YOLOv3_DB_SPP模型在檢測速度損失不大的情況下,提高了檢測精度并實現(xiàn)了對遠(yuǎn)距離有遮擋小目標(biāo)的檢測,但預(yù)測邊界框的定位精度仍有待提高。

主站蜘蛛池模板: 女生扒开下面 | 女人爽得直叫免费视频 | 一一本之道高清手机在线观看 | 一区二一二 | 擦擦擦在线视频观看 | 国产三级91 | 午夜国产精品影院在线观看 | 亚洲人女同志video | 亚洲这里只有精品 | 久久精品天天中文字幕 | 亚洲国产系列一区二区三区 | 欧美性爱 先锋影音 | 欧美三级aaa | 东北女人一级毛片 | 99久久国产极品蜜臀AV酒店 | 中文字幕1 | 国产在线精彩视频 | 含羞草完整视频在线播放免费 | 国产精品97久久AV色婷婷 | 美女脱了内裤张开腿让男人桶到爽 | 精品无码乱码AV | 草草久久久亚洲AV成人片 | 亚洲理论片在线中文字幕 | 亚洲国产精品综合久久一线 | 快播成电影人网址 | 日本高清在线一区二区三区 | 男生互捏jiji的故事 | 亚洲成人在线免费观看 | 久久精品国产只有精品 | 亚洲AV国产国产久青草 | 无套内射无矿码免费看黄 | 色AV色婷婷96人妻久久久 | 久久精品电影久久电影大全 | 福利片福利一区二区三区 | 无修肉动漫在线观看影片 | 国产精品人妻在线观看 | AV无码九九久久 | 久久久久久久99精品免费观看 | 国产午夜福利100集发布 | a视频免费看 | 亚洲高清在线mv |