《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > 人工智能深度學(xué)習(xí)在智能交通領(lǐng)域的應(yīng)用

人工智能深度學(xué)習(xí)在智能交通領(lǐng)域的應(yīng)用

2017-07-21

隨著交通卡口的大規(guī)模聯(lián)網(wǎng),匯集的海量車輛通行記錄信息,對(duì)于城市交通管理有著重要的作用,利用人工智能技術(shù),可實(shí)時(shí)分析城市交通流量,調(diào)整紅綠燈間隔,縮短車輛等待時(shí)間,提升城市道路的通行效率。城市級(jí)的人工智能大腦,實(shí)時(shí)掌握著城市道路上通行車輛的軌跡信息,停車場(chǎng)的車輛信息以及小區(qū)的停車信息,能提前半個(gè)小時(shí)預(yù)測(cè)交通流量變化和停車位數(shù)量變化,合理調(diào)配資源、疏導(dǎo)交通,實(shí)現(xiàn)機(jī)場(chǎng)、火車站、汽車站、商圈的大規(guī)模交通聯(lián)動(dòng)調(diào)度,提升整個(gè)城市的運(yùn)行效率,為居民的出行暢通提供保障。

目前在智能交通領(lǐng)域,人工智能分析及深度學(xué)習(xí)比較成熟的應(yīng)用技術(shù)以車牌識(shí)別算法最為理想,雖然目前很多廠商都宣稱自己的車牌識(shí)別率已經(jīng)達(dá)到了99%,但這也只是在標(biāo)準(zhǔn)卡口的視頻條件下再加上一些預(yù)設(shè)條件來(lái)達(dá)到的。在針對(duì)很多簡(jiǎn)易卡口和卡口圖片進(jìn)行車牌定位識(shí)別時(shí),較好的車牌識(shí)別也很難達(dá)到90%。不過(guò)隨著采用人工智能、深度學(xué)習(xí)的應(yīng)用,這一情況將會(huì)得到很大的改善。

在傳統(tǒng)的圖像處理和機(jī)器學(xué)習(xí)算法研發(fā)中,很多特征都是人為制定的,比如hog、sift特征,在目標(biāo)檢測(cè)和特征匹配中占有重要的地位,安防領(lǐng)域中的很多具體算法所使用的特征大多是這兩種特征的變種。人為設(shè)計(jì)特征和機(jī)器學(xué)習(xí)算法,從以往的經(jīng)驗(yàn)來(lái)看,由于理論分析的難度大,訓(xùn)練方法又需要很多經(jīng)驗(yàn)和技巧,一般需要5到10年的時(shí)間才會(huì)有一次突破性的發(fā)展,而且對(duì)算法工程師的知識(shí)要求也一直在提高。深度學(xué)習(xí)則不然,在進(jìn)行圖像檢測(cè)和識(shí)別時(shí),無(wú)需人為設(shè)定具體的特征,只需要準(zhǔn)備好足夠多的圖進(jìn)行訓(xùn)練即可,通過(guò)逐層的迭代就可以獲得較好的結(jié)果。從目前的應(yīng)用情況來(lái)看,只要加入新數(shù)據(jù),并且有充足的時(shí)間和計(jì)算資源,隨著深度學(xué)習(xí)網(wǎng)絡(luò)層次的增加,識(shí)別率就會(huì)相應(yīng)提升,比傳統(tǒng)方法表現(xiàn)更好。

另外在車輛顏色、車輛廠商標(biāo)志識(shí)別、無(wú)牌車檢測(cè)、非機(jī)動(dòng)車檢測(cè)與分類、車頭車尾判斷、車輛檢索、人臉識(shí)別等相關(guān)的技術(shù)方面也比較成熟。

在車輛顏色識(shí)別方面,基本上克服了由于光照條件變化、相機(jī)硬件誤差所帶來(lái)的顏色不穩(wěn)定、過(guò)曝光等一系列問(wèn)題,因此解決了圖像顏色變化導(dǎo)致的識(shí)別錯(cuò)誤問(wèn)題,卡口車輛顏色識(shí)別率從80%提升到85%,電警車輛主顏色識(shí)別率到從75%提升到80%以上。

在車輛廠商標(biāo)志識(shí)別方面,使用傳統(tǒng)的HOG、LBP、SIFT、SURF等特征,采用SVM機(jī)器學(xué)習(xí)技術(shù)訓(xùn)練一個(gè)多級(jí)聯(lián)的分類器來(lái)識(shí)別廠商標(biāo)志很容易出現(xiàn)誤判,采用大數(shù)據(jù)加深度學(xué)習(xí)技術(shù)后,車輛車標(biāo)的過(guò)曝光或者車標(biāo)被人為去掉等引起的局部特征會(huì)隨之消失,其識(shí)別率可以從89%提升到93%以上。

在車輛檢索方面,車輛的圖片在不同場(chǎng)景下會(huì)出現(xiàn)曝光過(guò)度或者曝光不足,或者車輛的尺度發(fā)生很大變化,導(dǎo)致傳統(tǒng)方法提取的特征會(huì)發(fā)生變化,因此檢索率很不穩(wěn)定。深度學(xué)習(xí)能夠很好地獲取較為較穩(wěn)定的特征,搜索的相似目標(biāo)更精確,Top5的搜索率在95%以上。在人臉識(shí)別項(xiàng)目中,由于光線、姿態(tài)和表情等因素引起人臉變化,目前很多應(yīng)用都是固定場(chǎng)景、固定姿態(tài),采用深度學(xué)習(xí)算法后,不僅固定場(chǎng)景的人臉識(shí)別率從89%提升到99%,而且對(duì)姿態(tài)和光線也有了一定的放松。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。