時間: 分類:科學技術論文 次數:
摘要:行駛中的兩輛列車之間保持安全的距離是避免列車追尾事故發生的重要條件。由于機器視覺獲得的圖像數據信息豐富,可以根據采集到的圖像進行多方面的集成檢測,所以文中提出了一種基于機器視覺的列車測距方法。該方法以列車兩條軌道不變的間距(1 435 mm)作為基準,來推算列車之間距離。該方法利用卷積神經網絡對單目相機采集到的圖像進行處理和分析,提取所需的軌道特征,再基于已有的小孔成像原理推導出世界坐標系與像素坐標系之間的映射關系,從而優化列車之間距離的計算式。實驗結果表明,測距系統的誤差率<6%,并且系統測量時間在 40 ms 之內,說明該方法實現了測距與在圖像中獲取到的其他信息有效的融合與集成,可用于對列車制動距離進行判斷。
關鍵詞:距離測量;機器視覺;單目相機;深度學習;圖像處理;軌道檢測;小孔成像原理;卷積神經網絡
隨著世界經濟以及科學技術的高速發展,中國城市軌道交通規模也逐年增加。隨著軌道交通客流量的增大以及行車速度的提高,列車制動距離也隨著慣性的增大而增大。由于制動距離不足而造成的列車追尾事故時有發生。城市軌道交通運行的安全性是保障城市居民平安出行的關鍵,行駛中前后列車之間的距離就成為了列車運行安全的首要衡量標準,列車間距測量精度以及速度也尤為重要。當列車行駛過程中出現信號燈故障或調度問題時,列車的高速度和遠距離的特性使得很難通過人眼來準確估計與前方列車尾部的距離。為了保障列車在特殊情況下仍能安全行車,需要列車測距系統來測量與前方列車車尾的距離,并將其轉化成可視化數據向駕駛員發出預警。傳統的測距手段有激光[1]、雷達[1-4]、超聲波[5]等傳感器技術。相對于傳統的測距手段,視覺信號[6]的探測范圍更廣,目標信息更完整,價格相對更低。
文獻[7]提出了一種基于融合雷達(用于距離測量)和圖像傳感器(用于障礙物檢測)的鐵路障礙物檢測系統。隨著機器視覺技術的發展,不僅可以從圖像中獲取障礙物信息,還可以利用圖像實現距離的測量,因此更應該使用機器視覺技術獲得更多適合于系統集成的信息。文獻[8]預測智能交通系統(Intelligent Traffic System,ITS)將通過機器視覺來感知環境條件。在過去的幾年里,機器視覺測距系統也被廣泛使用于汽車領域。文獻[9]通過安裝在車尾的兩個攝像頭來捕捉立體圖像,并進行圖像處理,從而計算與后面車輛之間的距離,并將汽車之間的距離數據實時顯示給后方車輛。雖然該方法對距離的計算值是準確的,但由于雙目攝像頭測距算法復雜且標定困難,使得雙目測距系統延遲較大。
文獻[10]使用汽車尾部的單個監控攝像頭來對駕駛環境進行分析,通過圖像處理計算出與后方車輛之間的相對距離、速度和加速度。但該方法得到的測量量程和測量精度遠不能達到城市軌道交通的行駛需求。本文基于機器視覺提出了一種簡單而精確的方法。目前基于單目視覺測距的方法在列車軌道領域還未見報道,并且傳統單目測距的方法是利用物體的實際被拍攝面積和在該物體在圖像中被拍攝的圖像面積作比值,從而得出相機與被拍攝物體之間的距離。在列車軌道環境下,利用傳統單目測距的算法難以計算其面積特征,所以提出利用軌道的特殊環境,即軌道之間的距離始終為 1 435 mm 來優化距離計算式,使器更加簡潔。本文經過實驗驗證了該系統能夠在 200 m 內有效檢測前方列車距離,能夠滿足城市軌道交通安全行駛的要求。
1 軌道檢測
為了獲得行駛列車的前方信息,在列車車頭安裝了一個相機。將收集到的視頻數據傳輸到處理單元中將圖像分割成單幀圖片,然后利用卷積神經網絡(Convolutional Neural Network,CNN)對圖片中的軌道進行有效檢測。該方法包括兩個主要階段:
(1)在第一階段中,利用卷積神經網絡實現軌道環境圖像的像素級分類。本文的網絡主要包括編碼層和解碼層。編碼層包括 3 個基本單元,其中兩個核為 3 且步長為 1的卷積層和一個降采樣層為一個基本單元。通過 3個最大值池化層得到原圖像的 1/8 尺寸,然后使用空洞卷積增強特征圖的感受野,從而對軌道進行有效提取。解碼層則使用反卷積層,將 1/8 尺寸的特征圖逐步還原到原始圖像的大小。在反卷積過程中還原的圖像分別與編碼層降采樣所得到的同等尺寸的特征圖片進行融合,以提高檢測精度。
(2)第二階段采用多邊形擬合方法來優化提取的軌道輪廓[11-14]。將兩條軌道始終平行這一特性作為有效的參考信息來優化軌道檢測結果。通過卷積神經網絡對其進行軌道檢測,分別為原始圖像和檢測圖像。由于采集圖像的條件有限制,實驗無法收集到不同氣候下的圖像數據。為解決這一問題,本文通過合成技術合成了虛擬圖像。本文以該虛擬圖像作為軌道圖像來模擬降雪氣候,并驗證了檢測方法對該天氣變化的魯棒性。結果表明,該軌道檢測方法在小雪(包括小雨)條件下仍然可以有效地工作。然而,在濃霧或其他惡劣天氣的情況下,該檢測方法的性能將受到限制。
2 距離公式推算利用兩個軌道始終平行這一原則,不僅可以優化軌道的檢測,還能簡化距離公式的計算步驟。基于小孔成像原理,建立世界坐標系、相機坐標系、圖像坐標系和像素坐標系以及 4 個坐標系之間的映射關系[15-16]。
以標準軌道間距(1 435 mm)為已知數據,推導二維圖像的幾何關系,從而優化距離測量的推導公式。但是在實際中,所拍攝的列車照片的尾部輪廓并不規則,這為檢測輪廓以及計算其面積的工作帶來了困難,使得研究人員難以從列車尾部得到精準的面積值。不僅如此,隨著距離的增加,剖面往往會變得更加模糊,增加測量系統的測距結果誤差。本文通過上述的軌道間固定的距離來優化測距計算式,使其更加簡潔和精確。
3 相機標定基于機器視覺測距原理,根據張氏相機標定法[17-18]對采集圖像的攝像機的內部參數和外部參數進行標定。首先,對事先準備好的棋盤格標定板進行拍攝,通過多次改變拍攝位置和角度捕捉到幾張標定圖像。然后,通過 OpenCV 提取棋盤格圖像的角點以獲得更豐富的坐標信息,從而對相機進行精準標 定 , 計 算 出 相 機 的 內 外 參 數 [15] 。
4 實驗結果及誤差分析
在 1∶1 列車軌道模型處,將攝像機放置在距離地面 1.5 m 處,并使其位于兩條軌道的中心。為了保證測量的精準度,在采集數據的過程中需要將相機的光軸與地平面的夾角固定在一個值上,分別在光軸與水平面的夾角為 85°、90°和 95°拍攝了一組照片,并將 3 組照片進行處理分析。每組的第一張照片是在距列車尾部 40 m 處拍攝,然后每向后推移20 m就再采集一張圖像,從而組成距離由40~200m 處的一組數據集。基于上述算法,在光軸與水平面的夾角為 90°時所計算的測量距離與實際距離。
為了進行有效的數據分析,本文還進行了多組對照實驗,即光軸與水平面的夾角為 85°和 95°的距離測量實驗。結果表明,通過機器視覺計算得到的距離精度大于 94%,并且測量每張圖片的時間成本在 40 ms 以內。在實際中,火車的制動距離取決于許多因素,包括速度、摩擦、延遲時間、剎車片和制動缸、地理位置、質量分布[17]。根據《鐵路技術管理規定》,直線運行的客運列車制動距離應滿足以下指標:初始制動速度為 160 km·h-1、200 km·h-1和 300 km·h-1時,制動距離分別小于 1 400 m、2 000m 和 3 700 m。因此,根據這些要求可以計算出列車的加速度分別為-0.70 m·s-2、-0.77 m·s-2 和-0.94m·s-2。
在城市軌道交通中,列車的普遍運行速度為60 km·h-1,在地鐵的制動加速度為-0.70 m·s-2 時,制動距離達 200 m 左右。因此,地鐵之間應該保持至少 200 m 的距離以避免列車追尾。此外,由于圖像檢測需要時間成本,所以高速運行的列車的距離檢測滯后。在實際生活中,即使是當前軌道交通最大速度,也可以以速度 600 km·h-1,運算時間 0.04 s進行粗略估算。依據此數據可得距離檢測的滯后距離<7 m(600 km·h-1×0.04 s =6.7 m)。計算期間產生的滯后距離所造成的誤差同樣滿足列車安全運行的要求。
綜上分析可知,產生測量誤差的主要原因在于兩個軌道的中心點位置 、兩點的像素坐標檢測。由圖 7 所示誤差率所呈現的變化趨勢可得,在前方列車距離自身列車距離小時,所采集到的軌道圖片中軌道更為清晰,但是對于檢測兩條軌道的中心點則產生了更大的偏差,導致距離測量誤差率較高;在前方列車距離自身列車距離大時,雖然圖像的分辨率會隨著距離的增加而降低,但定位 、 兩點的精度卻隨之變高,使得誤差率略微減小;再向更遠的距離進行檢測時,圖像的分辨率對實驗結果的影響成為主要因素,導致誤差率不斷升高。
因此,圖像分辨率和軌道中心位置 、兩點的檢測所產生的誤差組合帶來了誤差波動。當測量過程中相機的角度全程固定在一個合理范圍內的值時,對測距結果的輕微影響可以忽略不計。單目測距的實驗是通過靜態攝影來獲取的數據集,但即使是在視頻數據中,也仍然能夠從中提取出清晰圖像作為關鍵幀。因此,在該測距系統中使用的靜態圖像也可以有效證明此方法能夠實現避免列車碰撞的效果。實驗證明,實驗的結論不受相機角度和位置的影響,只要相機在數據采集過程中是固定的,該測距系統至少可以在 200 m 范圍內達到標準。
5 結束語
本文提出了一種基于單目視覺的軌道交通距離測量方法,滿足了智能車輛控制的實時性要求。該系統可以有效檢測出軌道上運行的前后列車之間的距離,將距離轉化成可視化信息呈現給駕駛員,為駕駛員提供報警信號。試驗結果表明該系統能夠滿足軌道交通的需要,保證列車在適宜的氣候條件下安全運行。在軌道交通系統中,可以方便地將已知固定軌道空間(1 435 mm)的距離測量與其他圖像信息集成在一起進行障礙物檢測,實現多功能融合。同時,該方法也是激光或雷達測量距離以外的一種冗余檢測。
參考文獻
[1] Jung H G,Cho Y H,Yoon P J,et al.Scanning laserradar-based target position designation for parking aidsystem[J].IEEE Transactions on IntelligentTransportation Systems,2008,9(3):406-424.
[2] Ibisch A,Stefan S,Harald A,et al.Towards autonomousdriving in a parking garage: Vehicle localization andtracking using environment-embedded LIDARsensors[C].Gold Coast:Proceedings of IEEE IntelligentVehicles Symposium,2013.
[3] Kenue S K.Selection of range and azimuth angleparameters for a forward looking collision warning radarsensor[C]Detroit:Proceedings of the Intelligent Vehicles'95,Symposium,1995.
[4] Sugimoto S,Tateda H,Takahashi H,et al.Obstacle detectionusing millimeter-wave radar and its visualization onimage sequence[C].Cambridge:Proceedings of theSeventeenth International Conference on PatternRecognition,2004.
作者:畢嘉楨 1,沈 拓 1,2,張軒雄 1
級別:CSSCI南大期刊,北大期刊,統計源期刊
ISSN:1001-4233
刊期:進入查看
格式:咨詢顧問
級別:北大期刊,CSSCI南大期刊
ISSN:1671-7465
刊期:進入查看
格式:咨詢顧問
級別:CSSCI南大期刊,北大期刊,統計源期刊
ISSN:1005-9245
刊期:進入查看
格式:咨詢顧問
級別:北大期刊,統計源期刊,CSSCI南大期刊
ISSN:1000-5560
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:2045-2322
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:0284-1851
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:2352-4928
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:0169-4332
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:0960-7412
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:0048-9697
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:0191-2917
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:1741-7007
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:2238-7854
刊期:進入查看
格式:咨詢顧問
數據庫:SCI
ISSN:2214-7144
刊期:進入查看
格式:咨詢顧問