第一页欧美-第一页综合-丁香花成人另类小说-丁香久久-顶级欧美色妇xxxxbbbb

學(xué)術(shù)咨詢

讓期刊論文更省時(shí)、省事、省心

深度神經(jīng)網(wǎng)絡(luò)中高維數(shù)據(jù)集的具體應(yīng)用

時(shí)間:2018年09月27日 分類:電子論文 次數(shù):

下面文章將高維數(shù)據(jù)應(yīng)用于深度卷積神經(jīng)網(wǎng)絡(luò)中,采用實(shí)驗(yàn)與分析比對方式,證明高維數(shù)據(jù)應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中的可能性,大規(guī)模的模擬和傳感器設(shè)備陣列與現(xiàn)今日益龐大的計(jì)算資源相結(jié)合,產(chǎn)生了海量的復(fù)雜高維數(shù)據(jù)集,這些數(shù)據(jù)集應(yīng)用在眾多領(lǐng)域的研究中。與此同

  下面文章將高維數(shù)據(jù)應(yīng)用于深度卷積神經(jīng)網(wǎng)絡(luò)中,采用實(shí)驗(yàn)與分析比對方式,證明高維數(shù)據(jù)應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中的可能性,大規(guī)模的模擬和傳感器設(shè)備陣列與現(xiàn)今日益龐大的計(jì)算資源相結(jié)合,產(chǎn)生了海量的復(fù)雜高維數(shù)據(jù)集,這些數(shù)據(jù)集應(yīng)用在眾多領(lǐng)域的研究中。與此同時(shí),計(jì)算機(jī)視覺與模式識別領(lǐng)域的研究者們?nèi)〉昧嗽S多重大突破,尤其是卷積神經(jīng)網(wǎng)絡(luò)近年來在該領(lǐng)域取得的成就尤為突出。

  關(guān)鍵詞:數(shù)據(jù)可視化,深度學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò),計(jì)算機(jī)視覺

數(shù)據(jù)集

  深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)分支,起源于人工智能領(lǐng)域,其起源可以追溯到1980年提出的新認(rèn)知機(jī)[1]概念,而現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)得以發(fā)展離不開向后傳播算法[2]的提出,現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)基本上都使用反向傳播(BackPropagation,BP)算法進(jìn)行訓(xùn)練。

  之后很長一段時(shí)間內(nèi)深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練由于BP神經(jīng)網(wǎng)絡(luò)模型帶來的梯度彌散(GradientDiffusion),直到Hinton[3]在2006年提出的逐層訓(xùn)練方法才重新將人們的目光轉(zhuǎn)向深度神經(jīng)網(wǎng)絡(luò)。隨著近年傳感器技術(shù)發(fā)展以及越來越強(qiáng)大越來越容易獲取的計(jì)算資源,出現(xiàn)了許多復(fù)雜高維數(shù)據(jù)集。在這一類數(shù)據(jù)集上使用淺層機(jī)器學(xué)習(xí)模型的表現(xiàn)通常會變差。例如K近鄰(K-NearsertNeighbor,KNN)學(xué)習(xí)是一種常用的監(jiān)督學(xué)習(xí)方法,常用于分類問題,其工作機(jī)制非常簡單;給定測試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的K個(gè)訓(xùn)練樣本,然后基于這K個(gè)近鄰的信息來進(jìn)行預(yù)測。在模式識別領(lǐng)域中,最近鄰居法是一種用于分類和回歸的非參數(shù)統(tǒng)計(jì)學(xué)方法。在這兩種情況下,輸入包含特征空間中的K個(gè)最接近的訓(xùn)練樣本。

  近年來,計(jì)算機(jī)視覺領(lǐng)域取得許多引人注目的成果,尤其是卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNNs)在分類、目標(biāo)檢測問題上取得了優(yōu)異成績。因此,本文通過對比K近鄰模型與卷積神經(jīng)網(wǎng)絡(luò)在高維度數(shù)據(jù)集上的表現(xiàn),證明卷積神經(jīng)網(wǎng)絡(luò)處理高維數(shù)據(jù)集有優(yōu)異的性能。

  1模型選取及構(gòu)建

  在機(jī)器學(xué)習(xí)的模型上,選取了具有代表性的KNN模型作為淺層機(jī)器學(xué)習(xí)模型的代表。卷積神經(jīng)網(wǎng)絡(luò)方面,構(gòu)建了2個(gè)卷積神經(jīng)網(wǎng)絡(luò)的模型作為卷積神經(jīng)網(wǎng)絡(luò)對比項(xiàng)。

  1.1ResNet50-mini使用了基于ResNet50[4]裁剪后的迷你版作為實(shí)驗(yàn)的第一階段的卷積神經(jīng)網(wǎng)絡(luò)模型,在卷積層尺度上進(jìn)行相應(yīng)縮小。使用殘差網(wǎng)絡(luò)隨著深度增加,準(zhǔn)確度也會隨之增加。其中Conv2,Conv3,Conv4,Conv5層均是由殘差塊組成的一系列卷積層池化層。基于RestNet50層模型修改而來的縮小版的架構(gòu),我們稱之為ResNet50-mini。

  1.26層CNN對于實(shí)驗(yàn)第二階段使用了一個(gè)6層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。網(wǎng)絡(luò)結(jié)構(gòu)由1層卷積層、1層池化層、4層全連接層組成。

  2實(shí)驗(yàn)

  實(shí)驗(yàn)主要分為兩個(gè)階段:第一階段,對比KNN與ResNet50-mini在同一數(shù)據(jù)集以及相同劃分下對分類任務(wù)的準(zhǔn)確度。第二階段,對比KNN與6層卷積神經(jīng)網(wǎng)絡(luò)在統(tǒng)一數(shù)據(jù)以及同一劃分下對分類任務(wù)的準(zhǔn)確度,來獲得更具有普遍性的結(jié)論。

  2.1實(shí)驗(yàn)階段一

  2.1.1實(shí)驗(yàn)數(shù)據(jù)選擇與處理

  實(shí)驗(yàn)階段一使用的數(shù)據(jù)集為加州大學(xué)歐文(爾灣)分校(UniversityofCaliforniaIrvine,UCI)的可穿戴計(jì)算體態(tài)運(yùn)動(dòng)分類數(shù)據(jù)集[5]。此數(shù)據(jù)集一共有18列,165632條數(shù)據(jù),使用4個(gè)三軸加速傳感器記錄了8h的活動(dòng)數(shù)據(jù),將活動(dòng)分為5類(坐,坐下,站立,站起,行走)。將數(shù)據(jù)集按1∶4比例隨機(jī)劃分訓(xùn)練集以及測試集,訓(xùn)練集為124224條數(shù)據(jù)測試集有41409條數(shù)據(jù)。選取年齡、身高、體重、BMI指數(shù)、4個(gè)三軸傳感器數(shù)據(jù),一共16列作為特征值。

  這兩張的4×4大小的灰階圖片都包含著可以用來判斷體態(tài)行為的所有數(shù)據(jù)。雖然通過肉眼看上去,這兩張圖片好像有著很大的差異,但是事實(shí)上,這兩張圖片所表示的數(shù)據(jù)都屬于同一類體態(tài)。KNN算法在此數(shù)據(jù)集上的表現(xiàn)為99.54%的準(zhǔn)確率。

  2.1.2訓(xùn)練ResNet50-mini模型

  使用ResNet50-mini模型,模型使用的優(yōu)化算法為Adam算法[6],損失函數(shù)為多類交叉熵(categoricalcrossentropy)函數(shù)。如圖3所示,ResNet50-mini經(jīng)過10個(gè)Epoch的訓(xùn)練損失和準(zhǔn)確率的變化情況。可以直觀地看到,損失下降得很快,隨著損失的快速下降,訓(xùn)練集的準(zhǔn)確率也在不斷提升。經(jīng)過1000個(gè)Epoch的訓(xùn)練,ResNet50-mini在測試集上的分類精度達(dá)到了99.56%。

  2.2實(shí)驗(yàn)階段二

  2.2.1實(shí)驗(yàn)數(shù)據(jù)選擇與處理

  實(shí)驗(yàn)階段二使用的數(shù)據(jù)維數(shù)較實(shí)驗(yàn)階段一使用的數(shù)據(jù)更為龐大。選用的數(shù)據(jù)集為NIPS2003特征選取挑戰(zhàn)賽中5個(gè)數(shù)據(jù)集之一的Arcene數(shù)據(jù)集[7]。Arcene數(shù)據(jù)集的任務(wù)是使用大量的質(zhì)譜數(shù)據(jù)分辨目標(biāo)是否患有癌癥。Arcene數(shù)據(jù)集一共包含有900條數(shù)據(jù)訓(xùn)練集、驗(yàn)證集、測試集分別來自3個(gè)不同的來源。其中訓(xùn)練集、驗(yàn)證集各100條數(shù)據(jù),測試集700條數(shù)據(jù),但未給出標(biāo)注。選取ml-benchmarks中的已標(biāo)注的100條數(shù)據(jù)作為測試集。其中,每條數(shù)據(jù)有10000個(gè)特征。

  這是Arcene數(shù)據(jù)集中一條數(shù)據(jù)展開成100×100大小矩陣所轉(zhuǎn)化成的灰度圖片。與實(shí)驗(yàn)階段一不同的是,通過肉眼已經(jīng)無法看出其中存在的模式。

  2.2.2訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)

  將數(shù)據(jù)集中的測試集、驗(yàn)證集與驗(yàn)證集合并,并隨機(jī)劃分為270條數(shù)據(jù)為訓(xùn)練集,30條數(shù)據(jù)為測試集。本階段實(shí)驗(yàn)選取的模型為4層卷積神經(jīng)網(wǎng)絡(luò),訓(xùn)練中使用的優(yōu)化算法為Adam算法,損失函數(shù)為多類交叉熵(categoricalcrossentropy)函數(shù)。ARCENE數(shù)據(jù)集在6層卷積神經(jīng)網(wǎng)絡(luò)上的訓(xùn)練情況可以看出,雖然一開始損失很大,但是隨著訓(xùn)練的時(shí)間開始快速下降,100個(gè)Epoch訓(xùn)練后分類準(zhǔn)確度達(dá)到69.99%。

  2.3實(shí)驗(yàn)結(jié)果

  在實(shí)驗(yàn)階段一中,KNN在UCI可穿戴體態(tài)分類數(shù)據(jù)集上進(jìn)行多分類任務(wù)準(zhǔn)確度可以達(dá)到99.54%,而卷積神經(jīng)網(wǎng)絡(luò)ResNet50-mini在這一任務(wù)上的表現(xiàn)則為99.56%。階段二中,KNN在ARCENE數(shù)據(jù)集上的表現(xiàn)為53.33%,而6層卷積神經(jīng)網(wǎng)絡(luò)在這一任務(wù)上可以達(dá)到69.99%的準(zhǔn)確度。實(shí)驗(yàn)結(jié)果如表3所示,無論在ResNet50-mini這樣深度較大的神經(jīng)網(wǎng)絡(luò)或是一個(gè)6層卷積神經(jīng)網(wǎng)絡(luò),對高維數(shù)據(jù)集的分類任務(wù)都有著優(yōu)異的表現(xiàn)。

  3結(jié)語

  經(jīng)過兩個(gè)階段的實(shí)驗(yàn),可以直觀地看出深度卷積神經(jīng)網(wǎng)絡(luò)在提取高維數(shù)據(jù)集特征以及處理分類任務(wù)上有著優(yōu)異的表現(xiàn),取得了普通淺層機(jī)器學(xué)習(xí)模型難以達(dá)到的成績。通過淺層機(jī)器學(xué)習(xí)模型來處理這一類高維數(shù)據(jù)集的分類問題是有一定難度的,通常需要消耗大量的時(shí)間來預(yù)處理數(shù)據(jù)或使用一些方法來降低維度。而卷積神經(jīng)網(wǎng)絡(luò)在關(guān)于圖片視頻的計(jì)算機(jī)視覺問題上擁有的優(yōu)勢可以運(yùn)用在傳統(tǒng)的高維數(shù)據(jù)集中[8]。實(shí)驗(yàn)表明,對于高維數(shù)據(jù)集,深度卷積神經(jīng)網(wǎng)絡(luò)往往有著比KNN更優(yōu)異的性能。通過較短時(shí)間的訓(xùn)練,對于高維數(shù)據(jù)集的分類問題上能夠達(dá)到較KNN更高的準(zhǔn)確度。

  [參考文獻(xiàn)]

  [1]FUKUSHIMAK.Neocognitron:aself-organizingneuralnetworkmodelforamechanismofpatternrecognitionunaffectedbyshiftinposition[J].BiologicalCybernetics,1980(4):193-202.

  [2]WERBOSP.Beyondregression:newtoolsforpredictionandanalysisinthebehavioralscience[D].Massachusetts:HarvardUniversity,1974.

  [3]HINTONGE,SALAKHUTDINOVRR.Reducingthedimensionalityofdatawithneuralnetworks[J].Science,2006(5786):504-507.

  [4]HEK,ZHANGX,RENS,etal.Deepresiduallearningforimagerecognition[C].LasVegas:IEEEConferenceonComputerVisionandPatternRecognition,2016.

  [5]UGULINOW,CARDADORD,VEGAK,etal.Wearablecomputing:accelerometers’dataclassificationofbodyposturesandmovements[C].Curitiba:BrazilianConferenceonAdvancesinArtificialIntelligence.Springer-Verlag,2012.

  [6]KINGMAD,BAJ.Adam:amethodforstochasticoptimization[J].ComputerScience,2014(10):22.

  [7]GUYONI.DesignofexperimentsfortheNIPS2003variableselectionbenchmark[J].Science,2003(6):8-12.

  [8]盧宏濤,張秦川.深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理,2016(1):1-17

  相關(guān)范文閱讀:大數(shù)據(jù)時(shí)代數(shù)據(jù)質(zhì)量存在何種挑戰(zhàn)

  在互聯(lián)網(wǎng)的廣泛應(yīng)用下,已經(jīng)進(jìn)入大數(shù)據(jù)時(shí)代,對于企業(yè)來說,自身的發(fā)展也離不開數(shù)據(jù)質(zhì)量,而在大數(shù)據(jù)時(shí)代,數(shù)據(jù)存在著不定時(shí)更新的性質(zhì),數(shù)據(jù)質(zhì)量也面臨了巨大的挑戰(zhàn)。下面文章就是在大數(shù)據(jù)時(shí)代對于數(shù)據(jù)質(zhì)量的挑戰(zhàn)展開研究,分析了大數(shù)據(jù)的特性,以及其中存在的問題,在這樣的前提下,數(shù)據(jù)質(zhì)量如何應(yīng)對挑戰(zhàn)也是本文探究的重點(diǎn)。

  

主站蜘蛛池模板: 九九香蕉视频 | 国产 日韩 在线 亚洲 字幕 中文 | 日韩欧美国产精品第一页不卡 | 免费黄色小视频在线观看 | 久久久久久亚洲精品不卡 | 久久专区 | 精品999 | 黄色免费网站网址 | 你懂得在线网址 | 五月综合视频 | 久久久不卡| 成年大片免费视频播放手机不卡 | 国产一区二区日韩欧美在线 | 国产v亚洲v欧美v专区 | 深夜爽爽福利gif在线观看 | 黄色一级免费 | 久久久久女人精品毛片九一 | 欧美黑人两根巨大挤入 | 日日摸夜夜添夜夜添欧美毛片 | 黄在线 | 黄在线观看www免费看 | 久久草在线 | 我看一级黄色片 | 2020国产精品自拍 | 中文字幕1区 | 日韩三级毛片 | 在线播放免费人成毛片乱码 | 欧美成人午夜视频免看 | 91久久精品国产免费一区 | 免费人成视网站在线不卡 | 日韩大片观看网址 | 精品一本久久中文字幕 | 国产乱码精品一区二区三区四川人 | 婷婷在线成人免费观看搜索 | 精品一久久香蕉国产线看观 | 欧美三级成版人版在线观看 | 国产精品一区伦免视频播放 | 国产麻豆入在线观看 | 欧美一级特黄aaaaaa在线看首页 | 国产综合一区二区 | 国产午夜精品视频 |