《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 設(shè)計應(yīng)用 > 基于機器視覺的監(jiān)控視頻移動目標輪廓提取算法
基于機器視覺的監(jiān)控視頻移動目標輪廓提取算法
電子技術(shù)應(yīng)用
馬方遠,任杰夫,黃靜,張正初
北京國電通網(wǎng)絡(luò)技術(shù)有限公司
摘要: 在監(jiān)控視頻中,移動目標易受到邊緣模糊和背景噪聲干擾等影響,使得目標輪廓提取結(jié)果不準確。為此,提出基于機器視覺的監(jiān)控視頻移動目標輪廓提取算法。采用機器視覺技術(shù)處理圖像,結(jié)合圖像背景模型建立像素高斯分布,并計算各個像素值與背景模型中高斯分布的匹配度,將匹配度低于閾值的像素視為前景像素,由此完成前景分割,結(jié)合鏈碼對前景目標邊緣進行編碼,標識與預(yù)設(shè)閾值最接近的閉合邊緣,以此作為目標輪廓粗定位結(jié)果,基于此,將目標區(qū)域的統(tǒng)計分布參數(shù)融合到灰度光流圖像中,得到灰度差分圖像,進而提取移動目標輪廓。實驗結(jié)果表明,在所提方法的應(yīng)用下,目標輪廓毛刺數(shù)始終控制在50以下,輪廓提取精度較高。
中圖分類號:TP202 文獻標志碼:A DOI: 10.16157/j.issn.0258-7998.245833
中文引用格式: 馬方遠,任杰夫,黃靜,等. 基于機器視覺的監(jiān)控視頻移動目標輪廓提取算法[J]. 電子技術(shù)應(yīng)用,2025,51(7):78-82.
英文引用格式: Ma Fangyuan,Ren Jiefu,Huang Jing,et al. A machine vision based algorithm for extracting the contour of moving targets in surveillance videos[J]. Application of Electronic Technique,2025,51(7):78-82.
A machine vision based algorithm for extracting the contour of moving targets in surveillance videos
Ma Fangyuan,Ren Jiefu,Huang Jing,Zhang Zhengchu
Beijing Guodiantong Network Technology Co.,Ltd.
Abstract: In surveillance videos, moving targets are easily affected by edge blurring and background noise interference, resulting in inaccurate contour extraction results. Therefore, a machine vision based algorithm for extracting the contour of moving targets in surveillance videos is proposed. Using machine vision technology to process images, combining with the image background model to establish pixel Gaussian distribution, and calculating the matching degree between each pixel value and the Gaussian distribution in the background model, pixels with matching degree below the threshold are regarded as foreground pixels, thus completing foreground segmentation. Combining chain code to encode the foreground target edge, identify the closed edge closest to the preset threshold, and use it as the rough positioning result of the target contour. Based on this, the statistical distribution parameters of the target area are fused into the grayscale optical flow image to obtain a grayscale differential image, and then extract the contour of the moving target. The experimental results show that under the application of the proposed method, the number of burrs on the target contour is always controlled below 50, and the contour extraction accuracy is high.
Key words : machine vision technology;surveillance video;moving targets;contour extraction;background model

引言

在處理監(jiān)控視頻時,傳統(tǒng)方法通常依賴于固定閾值分割和背景減除算法。這些方法在簡單場景中雖然可以達到一定的效果,但在面對復(fù)雜多變的監(jiān)控環(huán)境時,其性能會大大降低,導(dǎo)致目標輪廓提取不準確,進而影響后續(xù)的目標識別和跟蹤。因此,研究開發(fā)一種高精度的移動目標輪廓提取算法具有重要的實際價值。

周華平等人使用Gabor小波對原始圖像進行濾波[1],結(jié)合模糊局部二元模式定位目標的邊緣和輪廓,最后,基于FLBP處理的特征圖,提取目標的輪廓。該方法可以有效抑制圖像噪聲,使算法能夠在復(fù)雜環(huán)境中穩(wěn)定工作,提高了算法對圖像邊緣的敏感性。然而,該算法的性能受波長、方向、帶寬等參數(shù)的影響很大,無法保證輪廓提取精度。韋德鵬等人將傳統(tǒng)的索貝爾算子方向模板從兩個方向擴展到八個方向[2],并從各種方向模板中提取的梯度圖像進行加權(quán)融合,以獲得多個方向的邊緣信息,結(jié)合邊緣細化技術(shù)對融合的梯度圖像進行細化,以獲得更清晰的輪廓線。該方法對圖像噪聲具有很強的抑制效果,可以在一定程度上降低噪聲對邊緣檢測的影響。但此算法在光照的劇烈變化和嚴重的目標遮擋等極端或特定場景下,檢測性能比較受限。Wang等人[3]使用U-Net作為基本網(wǎng)絡(luò)結(jié)構(gòu),并在U-Net的跳過連接階段引入雙注意力機制,構(gòu)建目標輪廓模型,從而采用包括目標輪廓注釋的圖像數(shù)據(jù)集進行訓(xùn)練,輸出目標輪廓線。該算法通過捕獲多尺度編碼器特征的通道和空間依賴性,增強了特征的表示能力,提高了模型對復(fù)雜圖像的理解。然而,引入雙注意力機制將增加模型的計算負荷,進而導(dǎo)致更長的訓(xùn)練和推理時間。汪強等人[4]在設(shè)定初始輪廓線和改進的GVF(Gradient Vector Flow)模型基礎(chǔ)上,通過迭代優(yōu)化過程,不斷調(diào)整輪廓線的形狀和位置,并將連續(xù)性處理和平滑性處理后的輪廓線作為感興趣區(qū)域的邊界輸出。該方法中,部分擴散和插值方法的結(jié)合加快了GVF場的求解速度,從而縮短了輪廓提取的整體時間。但在某些極端情況下,初始輪廓線的選擇可能對最終提取結(jié)果產(chǎn)生一定的影響,導(dǎo)致輪廓提取精度較低。

鑒于此,本研究重點開發(fā)了一種基于機器視覺的算法,用于提取監(jiān)控視頻中運動目標的輪廓。該算法通過機器視覺和圖像處理等先進技術(shù),對存在復(fù)雜光照變化和噪聲條件下的目標邊緣輪廓進行識別與提取,以期為安全監(jiān)控和交通管理等領(lǐng)域提供更可靠的技術(shù)支持。


本文詳細內(nèi)容請下載:

http://ihrv.cn/resource/share/2000006599


作者信息:

馬方遠,任杰夫,黃靜,張正初

(北京國電通網(wǎng)絡(luò)技術(shù)有限公司,北京 100000)


Magazine.Subscription.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。