第一页欧美-第一页综合-丁香花成人另类小说-丁香久久-顶级欧美色妇xxxxbbbb

學(xué)術(shù)咨詢

讓期刊論文更省時、省事、省心

基于深度學(xué)習(xí)的自然場景下多人臉實時檢測

時間:2020年04月09日 分類:電子論文 次數(shù):

摘 要: 為了解決人臉檢測的實時性與有效性,提出了基于 YOLOv3算法的人臉檢測模型.該模型以 Darknet53為主干網(wǎng)絡(luò),用3種不同尺寸的特征圖進行預(yù)測,對Boundingbox的中心坐標(biāo)、置信度以及類別 損失函數(shù)進行設(shè)計,最后直接回歸被檢測人臉的信息.實驗中對數(shù)據(jù)進

  摘 要: 為了解決人臉檢測的實時性與有效性,提出了基于 YOLOv3算法的人臉檢測模型.該模型以 Darknet53為主干網(wǎng)絡(luò),用3種不同尺寸的特征圖進行預(yù)測,對Boundingbox的中心坐標(biāo)、置信度以及類別 損失函數(shù)進行設(shè)計,最后直接回歸被檢測人臉的信息.實驗中對數(shù)據(jù)進行了批量歸一化處理,加速了 Loss 收斂.實驗采用 WiderFace的自然場景下的人臉數(shù)據(jù)集,將 YOLOv3算法模型與不同算法模型比較,結(jié)果 顯示基于 YOLOv3算法的人臉檢測模型能夠保證人臉檢測的實時性,同時實現(xiàn)了自然場景下多人臉檢測的 任務(wù).

  關(guān)鍵詞: 多人臉檢測;YOLOv3;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);批量歸一化

深度學(xué)習(xí)

  0 引 言

  隨著深度學(xué)習(xí)的快速崛起,人臉檢測與識別 近年來也得到了飛速的發(fā)展.對于人臉檢測的方法,可以回歸于目標(biāo)檢測的問題.目標(biāo)檢測是對 圖片中可變數(shù)量的目標(biāo)進行查找和分類.通過目 標(biāo)檢測找到圖片中需要查找的對象需要解決以下 問題:首先是檢測目標(biāo)種類與數(shù)量問題,需要在 多個對象中提取出自己需要的信息,并且排除其 他對象的干擾;其次是數(shù)量問題,需要模型在被 檢測圖像中檢測出所有需要的被檢測目標(biāo),例如 在人臉檢測中,模型可以檢測出圖像中所有的人 臉;再者是目標(biāo)尺度問題,對于圖片中對象尺度 大小不一的情況,模型可以準(zhǔn)確輸出被檢測目標(biāo) 的信息;同時還有外界干擾問題,例如不同光線、 不同角度、不同顏色背景等都是目標(biāo)檢測時所需 要考慮的問題.在目標(biāo)檢測的同時往往也會進行 分類,這就決定了模型所用的網(wǎng)絡(luò)是一個多任務(wù) 的網(wǎng)絡(luò).

  傳統(tǒng)的目標(biāo)檢測方法有 VJ算法[1]、HOG 算 法[2]以及 DPM 算法[3]等,這些方法主要是將傳統(tǒng) 的手動標(biāo)記特征與滑動窗口相結(jié)合來進行目標(biāo)檢 測和定位,但這種方式設(shè)計出的目標(biāo)特征往往會 有兼容性低、效率差等問題.在2008年 DPM 算 法提出之后,傳統(tǒng)目標(biāo)檢測方法就遇到了瓶頸. 直到2012年,卷積神經(jīng)網(wǎng)絡(luò)的興起帶動了人臉檢 測的進一步發(fā)展,同時一些基于卷積神經(jīng)網(wǎng)絡(luò)的 R-CNN [4],Overfeat [5]方法也出現(xiàn)了.之后基于深 度學(xué)習(xí)的目標(biāo)檢測分為兩類:一類是基于 R-CNN 的系 列 區(qū) 域 檢 測,如 FastR-CNN [6],F(xiàn)asterRCNN [7].但是,R-CNN 系列的區(qū)域檢測方法只是 利用卷積神經(jīng)進行特征上的提取,并沒有從本質(zhì) 上改變搜索框(Boundingbox)的提取目標(biāo) 區(qū) 域. 而 另 一 類 是 利 用 卷 積 神 經(jīng) 網(wǎng) 絡(luò) 直 接 回 歸 檢 測 Bounding box 的 SSD [8] 和 YOLO 系 列 算 法 (YOLOv1 [9],YOLOv2 [10],YOLOv3 [11]).

  1 Two-stage與 One-stage目標(biāo)檢測 方法

  目前,主流的深度學(xué)習(xí)目標(biāo)檢測算法有 Twostage與 One-stage兩大類.其中 Two-stage目標(biāo) 檢測算法主要為 R-CNN 算法系列(R-CNN、Fast R-CNN、Fsater R-CNN).Twostage的目標(biāo)檢測網(wǎng)絡(luò)訓(xùn)練主要分為兩個步驟:第 一步是輸入圖片通過卷積神經(jīng)網(wǎng)絡(luò)后生成多個特 征圖,經(jīng)過 RPN 網(wǎng)絡(luò)[4]后完成區(qū)域推薦與候選目 標(biāo)的篩選;第二步是通過對候選目標(biāo)區(qū)域進行分 類和回歸完成對目標(biāo)的檢測.相對于傳統(tǒng)的目標(biāo) 檢測算法,Two-stage不需要再進行單獨訓(xùn)練分 類器、做特征表示等額外的過程,很大程度地提 高了目標(biāo)檢測訓(xùn)練的精度與效率.但是,R-CNN 系列的區(qū)域檢測方法只是利用卷積神經(jīng)進行特征 上的提取,并沒有從本質(zhì)上改變 Boundingbox的 提取目標(biāo)區(qū)域. One-stage的目標(biāo)檢測算法主要有 YOLO 算 法系 列 (YOLOv1、YOLOv2、YOLOv3)和 SSD 等.

  One-stage算法的檢測步驟是使 用卷積神經(jīng)網(wǎng)絡(luò)對物體進行特征提取,之后直接 回歸物體的類別概率和位置坐標(biāo)值,即 One-stage 算法并不包含有 RPN 網(wǎng)絡(luò).One-stage 目標(biāo)檢測 算法檢測速度更快,在實時檢測場景中適應(yīng)性更 好.對此,本文采用 YOLOv3對自然場景下的人 臉進行模型訓(xùn)練和檢測.

  2 YOLOv3算法模型結(jié)構(gòu)

  本文采用類 ResNet [12]的主干網(wǎng)絡(luò)模型 Darknet53,其借鑒了 ResNet的優(yōu)點,引入了殘差塊, 用來避免深層網(wǎng)絡(luò)所帶來的梯度爆炸或者消失的 問題.在整個主干網(wǎng)絡(luò)中沒有池化層和全連接層, 在前向傳播中特征圖的尺寸變換是通過卷積核的 步長來實現(xiàn)的.由于全部采用卷積層對圖像進行 特征提取,降低了網(wǎng)絡(luò)對圖像尺寸的敏感度,實 現(xiàn)了圖像多尺度的輸入.Darknet53 網(wǎng)絡(luò)中采用大量的3×3和1×1的卷積核進行特 征提取和特征壓縮.

  3 數(shù)據(jù)集的選擇與分析

  本文采用 WiderFace數(shù)據(jù)集作為自然場景下 人臉檢測的數(shù)據(jù)集.WiderFace數(shù)據(jù)集中包含了 32203個圖像和393703個人臉圖像,在尺度、姿 勢、裝扮、光照等方面都有著不同的變化.Wider Face是基于61個事件類別組織的數(shù)據(jù)集,其中包 括了游行、握手、會議、跳舞等不同自然場景下的 人臉,每個類別中40%作為訓(xùn)練集,10%作為交 叉驗證,50%作為測試集.本文采用的測試集有 12880 張 訓(xùn) 練 圖 片,將 數(shù) 據(jù) 集 中 的 驗 證 集 的 3226張圖片進行訓(xùn)練驗證,每張圖片的標(biāo)注信息 包括人臉檢測框的左上角坐標(biāo)以及人臉的數(shù)量.

  數(shù)據(jù)集的預(yù)處理中,先將數(shù)據(jù)集轉(zhuǎn)換為 VOC格式 的數(shù)據(jù)集,對圖片檢測框中的左上角坐標(biāo)轉(zhuǎn)換為 中心坐標(biāo)并進行歸一化處理,生成對應(yīng)的labels 信息作為后續(xù)的 YOLOv3網(wǎng)絡(luò)的輸入. 網(wǎng)絡(luò)的輸入初始大小為608×608×3,設(shè)計中 采用{320,352,384,608}的輸入圖像尺寸,在 訓(xùn)練中每迭代10次就會隨機選擇新的輸入圖像的 尺寸,增加數(shù)據(jù)的多樣性.

  4 實驗環(huán)境與訓(xùn)練

  本文 的 實 驗 環(huán) 境 配 置 如 下:Inter 酷 睿 i7 8700k 處 理 器,16 G 內(nèi) 存,NVIDIA GeForce GTX 1080Ti 顯 卡,CUDA 版 本 為 9.0.176, CUDNN 版本為7.5.0,OpenCV 版本為3.2.0, 操作系統(tǒng)為 Ubuntu18.04.2. 網(wǎng)絡(luò) 參 數(shù) 配 置 如 下:Batch 為 64,動 量 為 0.9,權(quán) 重 衰 減 率 為 0.0005, 初 始 學(xué) 習(xí) 率 為 0.001,最大迭代次數(shù)為50000次,學(xué)習(xí)率發(fā)生變 化的次數(shù)為1、100、30000和40000,比率分別 為0.1、10、0.1和0.1.實驗中采用Darknet框架 進行模型的搭建.

  6 結(jié) 語

  本文設(shè)計了基于 YOLOv3算法的人臉檢測模 型,模型中采用批量歸一化處理進行訓(xùn)練加速, 檢測層采用多層卷積神經(jīng)網(wǎng)絡(luò)進行回歸,實現(xiàn)了 多尺度的被檢測圖片的輸入.實驗結(jié)果表明,通 過以上方法得到的檢測模型,對于自然場景下的 多人臉任務(wù)均可保證較高的檢測準(zhǔn)確率,并且在 檢測速度上能夠達(dá)到實時檢測的效果.該模型對 于后續(xù)的人臉識別任務(wù)具有積極作用,可提高人 臉檢測與識別任務(wù)的速度和準(zhǔn)確性.

  參考文獻:

  [1]ViolaP,Jones M J.Robustreal-timefacedetection [J].InternationalJournalofComputerVision,2004, 57(2):137-154. [2]DalalandN,TriggsB.Histogramsoforientedgradientsforhumandetection[C].IEEE Conferenceon ComputerVisionandPatternRecognition,2005:886- 893.

  相關(guān)論文范文:深度學(xué)習(xí)概念及其在圖像處理領(lǐng)域中的應(yīng)用

  下面文章首先介紹深度學(xué)習(xí)的背景和卷積神經(jīng)網(wǎng)絡(luò)的知識,旨在從本質(zhì)上理解深度學(xué)習(xí)應(yīng)用在圖像領(lǐng)域的基本模型架構(gòu)及其優(yōu)化方法,其次主要在圖像識別、取證、檢測三個方向上,具體論述深度學(xué)習(xí)在圖像領(lǐng)域多個方向上的演變與發(fā)展,其目的在于了解深度學(xué)習(xí)對具體圖像處理問題的最新研究并掌握多種模型或技術(shù),最后指出深度學(xué)習(xí)在圖像領(lǐng)域存在的問題以及對未來的展望。

主站蜘蛛池模板: 大胆国模一区二区三区伊人 | 黄色视屏免费看 | 欧美视频第一页 | 看免费黄色 | 国产区成人精品视频 | 麻豆视频在线播放 | 国内精品自产拍在线观看91 | 亚洲欧美久久精品1区2区 | 成人男女啪啪免费观看网站 | 91视频国产91久久久 | 老外一级黄色片 | 国产一级做a爰片在线看免费 | 波多野结衣黑人系列在线观看 | 色两性网欧美 | 亚洲精品专区一区二区欧美 | a级午夜 | 黄色一级片在线免费观看 | 久草在线视频播放 | 国产精品福利在线观看免费不卡 | 国产精品午夜高清在线观看 | 黄色毛片免费网站 | 一区二区三区免费视频网站 | 色天天天综合色天天碰 | 外国一级黄色毛片 | 日韩不卡一区二区三区 | 49pao强力免费打造在线高清 | 国产精品99r8免费视频2022 | 免费国产97久久青草 | 免费一级特黄特色大片∵黄 | 曰本又色又爽又黄三级视频 | 九九热在线视频观看 | 国产精品v欧美精品v日本精 | 她也啪97在线视频 | 俺来也俺来也天天夜夜视频 | 五月六月婷婷 | 成年视频在线观看 | 精品亚洲欧美高清不卡高清 | 成人影院欧美大片免费看 | 黄色小视频在线看 | 免费观看激色视频网站(性色) | 那一个欧美一级毛片 |