人工智能(Artificial Intelligence),英文縮寫為AI。它是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。
人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理和專家系統(tǒng)等。人工智能從誕生以來(lái),理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大,可以設(shè)想,未來(lái)人工智能帶來(lái)的科技產(chǎn)品,將會(huì)是人類智慧的“容器”。人工智能可以對(duì)人的意識(shí)、思維的信息過(guò)程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過(guò)人的智能。
人工智能之父 John McCarthy說(shuō):人工智能就是制造智能的機(jī)器,更特指制作人工智能的程序。人工智能模仿人類的思考方式使計(jì)算機(jī)能智能的思考問(wèn)題,人工智能通過(guò)研究人類大腦的思考、學(xué)習(xí)和工作方式,然后將研究結(jié)果作為開(kāi)發(fā)智能軟件和系統(tǒng)的基礎(chǔ)。
小編整理了《電子技術(shù)應(yīng)用》近年刊登的與人工智能相關(guān)的最新研究成果及其應(yīng)用實(shí)例,歡迎相關(guān)領(lǐng)域研究者參考借鑒!
1.基于深度學(xué)習(xí)的美國(guó)媒體“一帶一路”輿情的情感分析
摘要: 分析美國(guó)主流新聞媒體針對(duì)“一帶一路”倡議的關(guān)注熱點(diǎn),研究相關(guān)輿情的情感傾向。用網(wǎng)絡(luò)爬蟲(chóng)自動(dòng)采集相關(guān)新聞,篩選高頻詞獲得媒體關(guān)注熱點(diǎn)。提出一種自動(dòng)摘要-卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的集成式模型進(jìn)行文檔級(jí)情感分析。該模型首先提取摘要去除原始文檔中非重要數(shù)據(jù)的干擾,再利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子級(jí)情感分析,通過(guò)基于語(yǔ)義指向的方法獲得文檔級(jí)的情感分?jǐn)?shù),并對(duì)情感波動(dòng)異常文章二次分析。在真實(shí)數(shù)據(jù)上的對(duì)比實(shí)驗(yàn)表明,自動(dòng)摘要-CNN的集成式文檔級(jí)情感分析模型在情感分析方面優(yōu)于單一CNN的方法。
全文鏈接: http://ihrv.cn/article/3000094112
中文引用格式: 王潔,喬藝璇,彭巖,等. 基于深度學(xué)習(xí)的美國(guó)媒體“一帶一路”輿情的情感分析[J].電子技術(shù)應(yīng)用,2018,44(11):102-106,110.
英文引用格式: Wang Jie,Qiao Yixuan,Peng Yan,et al. Sentiment analysis about “One Belt, One Road” public opinion of American media based on deep learning[J]. Application of Electronic Technique,2018,44(11):102-106,110.
2.基于深度學(xué)習(xí)的人體行為識(shí)別算法
摘要: 為改善人體行為識(shí)別任務(wù)中準(zhǔn)確率低的問(wèn)題,提出了一種基于批歸一化的卷積神經(jīng)網(wǎng)絡(luò)(CNN)與長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)結(jié)合的神經(jīng)網(wǎng)絡(luò)。CNN部分引入批歸一化思想,將輸入網(wǎng)絡(luò)的訓(xùn)練樣本進(jìn)行小批量歸一化處理,經(jīng)過(guò)全連接之后,送入長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)中。該算法采用時(shí)空雙流網(wǎng)絡(luò)模型結(jié)構(gòu),視頻數(shù)據(jù)的RGB圖像作為空間流網(wǎng)絡(luò)輸入,光流場(chǎng)圖像作為時(shí)間流網(wǎng)絡(luò)輸入,再將時(shí)空雙流網(wǎng)絡(luò)各自得到的識(shí)別結(jié)果進(jìn)行加權(quán)融合得到最終的行為識(shí)別結(jié)果。實(shí)驗(yàn)結(jié)果表明,本文設(shè)計(jì)的時(shí)空雙流神經(jīng)網(wǎng)絡(luò)算法在人體行為識(shí)別任務(wù)上具有較高的識(shí)別準(zhǔn)確率。
全文鏈接:http://ihrv.cn/article/3000091469
中文引用格式:黃友文,萬(wàn)超倫. 基于深度學(xué)習(xí)的人體行為識(shí)別算法[J].電子技術(shù)應(yīng)用,2018,44(10):1-5,10.
英文引用格式: Huang Youwen,Wan Chaolun. Human behavior recognition algorithm based on deep learning[J]. Application of Electronic Technique,2018,44(10):1-5,10.
3.基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識(shí)別及應(yīng)用
摘要:手寫體數(shù)字的識(shí)別是人工智能識(shí)別系統(tǒng)中的重要組成部分。因個(gè)體手寫數(shù)字的差異,現(xiàn)有識(shí)別系統(tǒng)準(zhǔn)確率較低。基于TensorFlow深度學(xué)習(xí)框架完成手寫體數(shù)字的識(shí)別及應(yīng)用,首先建立TensorFlow深度學(xué)習(xí)框架,并分析了Softmax、卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型結(jié)構(gòu),再對(duì)手寫體數(shù)據(jù)集MNIST的60 000個(gè)樣本進(jìn)行深度學(xué)習(xí),然后進(jìn)行10 000個(gè)樣本的測(cè)試對(duì)比,最后移植最優(yōu)模型到Android平臺(tái)進(jìn)行應(yīng)用。實(shí)測(cè)數(shù)據(jù)驗(yàn)證,相對(duì)于傳統(tǒng)的Softmax模型,基于TensorFlow深度學(xué)習(xí)CNN模型識(shí)別率高達(dá)99.17%,提升了7.6%,為人工智能識(shí)別系統(tǒng)的發(fā)展提供了一定的科研價(jià)值。
全文鏈接:http://ihrv.cn/article/3000091470
中文引用格式:黃睿,陸許明,鄔依林. 基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識(shí)別及應(yīng)用[J].電子技術(shù)應(yīng)用,2018,44(10):6-10.
英文引用格式:Huang Rui,Lu Xuming,Wu Yilin. Handwriting digital recognition and application based on TensorFlow deep learning[J]. Application of Electronic Technique,2018,44(10):6-10.
4.基于深度學(xué)習(xí)的實(shí)時(shí)識(shí)別硬件系統(tǒng)框架設(shè)計(jì)
摘要:設(shè)計(jì)了一種基于深度學(xué)習(xí)的實(shí)時(shí)識(shí)別硬件系統(tǒng)框架。該系統(tǒng)框架使用Keras完成卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練并提取出網(wǎng)絡(luò)的參數(shù),利用ZYNQ器件的FPGA+ARM軟硬件協(xié)同的方式,使用ARM完成對(duì)實(shí)時(shí)圖像數(shù)據(jù)的采集、預(yù)處理及顯示,通過(guò)FPGA實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的硬化并對(duì)圖像進(jìn)行識(shí)別,再將識(shí)別結(jié)果發(fā)送至上位機(jī)進(jìn)行實(shí)時(shí)顯示。系統(tǒng)框架采用MNIST和Fashion MNIST數(shù)據(jù)集作為網(wǎng)絡(luò)模型硬化試驗(yàn)樣本,實(shí)驗(yàn)結(jié)果表明,在一般場(chǎng)景下該系統(tǒng)框架能夠?qū)崟r(shí)、準(zhǔn)確地完成圖像數(shù)據(jù)的獲取、顯示及識(shí)別,并且具有可移植性高、處理速度快、功耗低的特點(diǎn)。
全文鏈接:http://ihrv.cn/article/3000091553
中文引用格式:王昆,周驊. 基于深度學(xué)習(xí)的實(shí)時(shí)識(shí)別硬件系統(tǒng)框架設(shè)計(jì)[J].電子技術(shù)應(yīng)用,2018,44(10):11-14.
英文引用格式:Wang Kun,Zhou Hua. Design of real-time recognition hardware system framework based on deep learning[J]. Application of Electronic Technique,2018,44(10):11-14.
5.基于膠囊網(wǎng)絡(luò)的指靜脈識(shí)別研究
摘要:針對(duì)卷積神經(jīng)網(wǎng)絡(luò)(CNN)中空間上的指靜脈信息丟失的問(wèn)題,提出了一種基于膠囊網(wǎng)絡(luò)(Capsule Network,CapsNets)的指靜脈識(shí)別算法。CapsNets在整個(gè)學(xué)習(xí)過(guò)程中以“膠囊”的形式從底層傳遞至高層,如此以向量的形式封裝指靜脈的多維特征,特征會(huì)在網(wǎng)絡(luò)中被保存,而不是丟失后進(jìn)行恢復(fù)。采用60 000張圖像作為訓(xùn)練集,10 000張圖為測(cè)試集,通過(guò)對(duì)圖像增強(qiáng)、裁剪后進(jìn)行網(wǎng)絡(luò)學(xué)習(xí)。通過(guò)實(shí)驗(yàn)表明,CapsNets的網(wǎng)絡(luò)結(jié)構(gòu)特征相比CNN在處理脊線區(qū)域時(shí)效果更加明顯,對(duì)比VGG精確度增加了13.6%,loss值也收斂到0.01。
全文鏈接:http://ihrv.cn/article/3000091554
中文引用格式: 余成波,熊遞恩. 于膠囊網(wǎng)絡(luò)的指靜脈識(shí)別研究[J].電子技術(shù)應(yīng)用,2018,44(10):15-18.
英文引用格式:Yu Chengbo,Xiong Dien. Research on finger vein recognition based on capsule network[J]. Application of Electronic Technique,2018,44(10):15-18.
6.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像著色
摘要:圖像著色的目標(biāo)是為灰度圖像的每一個(gè)像素分配顏色,它是圖像處理領(lǐng)域的熱點(diǎn)問(wèn)題。以U-Net為主線網(wǎng)絡(luò),結(jié)合深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)了一個(gè)全自動(dòng)的著色網(wǎng)絡(luò)模型。在該模型中,支線使用卷積神經(jīng)網(wǎng)絡(luò)SE-Inception-ResNet-v2作為高水平的特征提取器,提取圖像的全局信息,同時(shí)在網(wǎng)絡(luò)中使用PoLU(Power Linear Unit)函數(shù)替代線性整流函數(shù)(ReLU)。實(shí)驗(yàn)結(jié)果證明此著色網(wǎng)絡(luò)模型能夠?qū)叶葓D像進(jìn)行有效的著色。
全文鏈接: http://ihrv.cn/article/3000091637
中文引用格式:徐中輝,呂維帥. 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像著色[J].電子技術(shù)應(yīng)用,2018,44(10):19-22.
英文引用格式:Xu Zhonghui,Lv Weishuai. Image coloring based on convolution neural network[J]. Application of Electronic Technique,2018,44(10):19-22.
7.深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)及硬件實(shí)現(xiàn)
摘要:針對(duì)目前深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(CNN)在CPU平臺(tái)下訓(xùn)練速度慢、耗時(shí)長(zhǎng)的問(wèn)題,采用現(xiàn)場(chǎng)可編程門陣列(FPGA)硬件平臺(tái)設(shè)計(jì)并實(shí)現(xiàn)了一種深度卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)。該系統(tǒng)采用修正線性單元(ReLU)作為特征輸出的激活函數(shù)并使用Softmax函數(shù)作為輸出分類器。利用流水線技術(shù)并針對(duì)每一層的特征運(yùn)算進(jìn)行了并行處理,從而能夠在1個(gè)系統(tǒng)時(shí)鐘周期內(nèi)完成整個(gè)CNN中的295次卷積運(yùn)算。系統(tǒng)最后采用MNIST數(shù)據(jù)集作為實(shí)驗(yàn)樣本,實(shí)驗(yàn)結(jié)果表明,在50 MHz的工作頻率下,F(xiàn)PGA的訓(xùn)練用時(shí)相較于通用CPU的訓(xùn)練用時(shí)提升了8.7倍,經(jīng)過(guò)2 000次迭代后系統(tǒng)識(shí)別的準(zhǔn)確率為92.42%。
全文鏈接:http://ihrv.cn/article/3000082399
中文引用格式:王昆,周驊. 深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)及硬件實(shí)現(xiàn)[J].電子技術(shù)應(yīng)用,2018,44(5):56-59.
英文引用格式:Wang Kun,Zhou Hua. System design and hardware realization of convolution neural network system in deep learning[J]. Application of Electronic Technique,2018,44(5):56-59.
8.基于PSO-BP神經(jīng)網(wǎng)絡(luò)的人體穴位定位系統(tǒng)設(shè)計(jì)
摘要: 穴位的位置是否找準(zhǔn)會(huì)直接影響治療效果,因此設(shè)計(jì)了一種基于粒子群算法優(yōu)化神經(jīng)網(wǎng)絡(luò)(PSO-BP)的穴位相對(duì)坐標(biāo)預(yù)測(cè)模型,然后與ARM結(jié)合構(gòu)成一個(gè)可以用于人體穴位定位的系統(tǒng)。首先采用PC進(jìn)行MATLAB仿真訓(xùn)練學(xué)習(xí),然后將最優(yōu)權(quán)值及閾值保存下來(lái)并簡(jiǎn)化算法嵌入ARM內(nèi),將在線預(yù)測(cè)轉(zhuǎn)變?yōu)殡x線過(guò)程。實(shí)驗(yàn)結(jié)果表明:經(jīng)粒子群優(yōu)化過(guò)的BP神經(jīng)網(wǎng)絡(luò)有效地改善了局部極值缺陷,可應(yīng)用于定位端預(yù)測(cè)穴位的位置,并在LCD中顯示穴位相關(guān)信息,控制端收到位置數(shù)據(jù)后可執(zhí)行電機(jī)上的運(yùn)動(dòng)操作。
全文鏈接:http://ihrv.cn/article/3000090355
中文引用格式:楊向萍,吳玉丹. 基于PSO-BP神經(jīng)網(wǎng)絡(luò)的人體穴位定位系統(tǒng)設(shè)計(jì)[J].電子技術(shù)應(yīng)用,2018,44(9):75-78.
英文引用格式:Yang Xiangping,Wu Yudan. Acupoint positioning system based on PSO-BP neural network[J]. Application of Electronic Technique,2018,44(9):75-78.
9.基于深度學(xué)習(xí)的煙霧識(shí)別研究
摘要:基于Google第二代人工智能學(xué)習(xí)系統(tǒng)TensorFlow構(gòu)建神經(jīng)網(wǎng)絡(luò)對(duì)煙霧圖像進(jìn)行識(shí)別檢測(cè),通過(guò)改進(jìn)的運(yùn)動(dòng)檢測(cè)算法截取疑似煙霧區(qū)域圖像,并結(jié)合PCA降維算法和Inception Resnet v2網(wǎng)絡(luò)模型在TensorFlow平臺(tái)下進(jìn)行煙霧特征的訓(xùn)練識(shí)別。該算法實(shí)現(xiàn)了較大范圍的火災(zāi)實(shí)時(shí)檢測(cè)報(bào)警,經(jīng)過(guò)實(shí)驗(yàn)證明整個(gè)檢測(cè)過(guò)程準(zhǔn)確地識(shí)別了視頻流中的煙霧區(qū)域,相比于傳統(tǒng)煙霧識(shí)別方法具有更高的準(zhǔn)確率和自適應(yīng)性,為大范圍的火災(zāi)煙霧報(bào)警提供了一種有效方案。
全文鏈接:http://ihrv.cn/article/3000092836
中文引用格式: 王濤,宮寧生,蔣貴祥. 基于深度學(xué)習(xí)的煙霧識(shí)別研究[J].電子技術(shù)應(yīng)用,2018,44(10):131-135.
英文引用格式:Wang Tao,Gong Ningsheng,Jiang Guixiang. Smoke recognition based on the depth learning[J]. Application of Electronic Technique,2018,44(10):131-135.
10.基于深度學(xué)習(xí)的胸部X光影像分析系統(tǒng)
摘要:提出一種應(yīng)用嵌入式技術(shù)和深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)對(duì)胸部X光影像分析的設(shè)計(jì)方案。采用NIVIDIA公司生產(chǎn)的Jetson TX2作為核心板,配備以太網(wǎng)模塊、WiFi模塊等功能模塊搭建該分析系統(tǒng)的硬件平臺(tái)。在GPU服務(wù)器上利用MobileNets卷積神經(jīng)網(wǎng)絡(luò)對(duì)標(biāo)注的胸部X光影像數(shù)據(jù)集進(jìn)行訓(xùn)練,將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型移植到Jetson TX2核心板,在嵌入式平臺(tái)下完成對(duì)胸腔積液、浸潤(rùn)、肺氣腫、氣胸以及肺不張癥狀的檢測(cè)。利用美國(guó)國(guó)立衛(wèi)生研究院提供的胸部X光影像數(shù)據(jù)進(jìn)行測(cè)試,通過(guò)實(shí)驗(yàn)證明,該方法在識(shí)別準(zhǔn)確率上優(yōu)于其他的檢測(cè)方法,同時(shí)識(shí)別所需時(shí)間比其他方法短。
全文鏈接:http://ihrv.cn/article/3000093435
中文引用格式:周進(jìn)凡,張榮芬,馬治楠,等. 基于深度學(xué)習(xí)的胸部X光影像分析系統(tǒng)[J].電子技術(shù)應(yīng)用,2018,44(11):29-32.
英文引用格式:Zhou Jinfan,Zhang Rongfen,Ma Zhinan,et al. Chest X-ray image analysis system based on deep learning[J]. Application of Electronic Technique,2018,44(11):29-32.
11.基于深度學(xué)習(xí)的圖像分類方法
摘要:提出了一種用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò),將不同池化方式對(duì)圖像分類的影響進(jìn)行了分析對(duì)比,采用重疊池化和dropout技術(shù),較好地解決過(guò)擬合問(wèn)題。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,該方法在CIFAR-10數(shù)據(jù)集上獲得了較好的結(jié)果,在測(cè)試集上準(zhǔn)確率比訓(xùn)練集上準(zhǔn)確率高9%左右。
全文鏈接:http://ihrv.cn/article/3000084504
中文引用格式: 許少尉,陳思宇. 基于深度學(xué)習(xí)的圖像分類方法[J].電子技術(shù)應(yīng)用,2018,44(6):116-119.
英文引用格式: Xu Shaowei,Chen Siyu. Image classification method based on deep learning[J]. Application of Electronic Technique,2018,44(6):116-119.
12.基于機(jī)器視覺(jué)的智能導(dǎo)盲眼鏡設(shè)計(jì)
摘要:提出一種基于機(jī)器視覺(jué)的智能導(dǎo)盲眼鏡系統(tǒng)的設(shè)計(jì)方案。采用三星公司Cortex-A8架構(gòu)的 S5PV210作為中央處理器,搭載Linux系統(tǒng),配備雙目采集、GPS定位、語(yǔ)音播報(bào)、GSM短信、語(yǔ)音通話、無(wú)線傳輸六大核心功能模塊搭建智能導(dǎo)盲眼鏡系統(tǒng)的硬件平臺(tái),結(jié)合深度學(xué)習(xí)算法在遠(yuǎn)程云服務(wù)器上完成了對(duì)目標(biāo)場(chǎng)景的智能識(shí)別,最后以語(yǔ)音的形式實(shí)時(shí)對(duì)盲人的行走作出準(zhǔn)確引導(dǎo)。系統(tǒng)測(cè)試結(jié)果表明,該智能導(dǎo)盲眼鏡系統(tǒng)在測(cè)試環(huán)境下不僅能對(duì)盲人出行正確導(dǎo)航,還具有一定的目標(biāo)識(shí)別能力,能幫助盲人進(jìn)行簡(jiǎn)易物品歸類。該系統(tǒng)還兼有GPS定位、語(yǔ)音通話、GSM短信等多項(xiàng)輔助功能。
全文鏈接:http://ihrv.cn/article/3000064090
中文引用格式: 何騰鵬,張榮芬,劉超,等. 基于機(jī)器視覺(jué)的智能導(dǎo)盲眼鏡設(shè)計(jì)[J].電子技術(shù)應(yīng)用,2017,43(4):58-61.
英文引用格式: He Tengpeng,Zhang Rongfen,Liu Chao,et al. Design of smart seeing glasses based on machine vision[J].Application of Electronic Technique,2017,43(4):58-61.
13.基于深度學(xué)習(xí)的無(wú)人機(jī)識(shí)別算法研究
摘要:無(wú)人機(jī)的廣泛運(yùn)用,在給人們帶來(lái)便利的同時(shí),也引發(fā)了不良影響。比如,無(wú)人機(jī)飛入禁飛區(qū)引發(fā)安全問(wèn)題,由于不正當(dāng)?shù)氖褂们址腹竦碾[私等,因此需要構(gòu)建一個(gè)無(wú)人機(jī)警察系統(tǒng),對(duì)無(wú)人機(jī)實(shí)施監(jiān)控,遏制亂飛現(xiàn)象。采用傳統(tǒng)的識(shí)別方法,靈活性不足,精度也不夠高。為此提出一種基于深度學(xué)習(xí)的無(wú)人機(jī)識(shí)別算法,通過(guò)訓(xùn)練一個(gè)基于卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的學(xué)習(xí)網(wǎng)絡(luò),得出一個(gè)高效的識(shí)別模型,實(shí)現(xiàn)無(wú)人機(jī)和非無(wú)人機(jī)間的分類。模型的測(cè)試結(jié)果表明,該方法具有較高的識(shí)別率。
全文鏈接:http://ihrv.cn/article/3000068878
中文引用格式:蔣兆軍,成孝剛,彭雅琴,等. 基于深度學(xué)習(xí)的無(wú)人機(jī)識(shí)別算法研究[J].電子技術(shù)應(yīng)用,2017,43(7):84-87.
英文引用格式: Jiang Zhaojun,Cheng Xiaogang,Peng Yaqin,et al. A novel UAV recognition algorithm based on deep learning approach[J].Application of Electronic Technique,2017,43(7):84-87.
14.基于視覺(jué)引導(dǎo)的SCARA機(jī)器人自動(dòng)裝配系統(tǒng)
摘要:現(xiàn)有生產(chǎn)線工業(yè)機(jī)器人抓取點(diǎn)固定,工件只能以固定的姿態(tài)提前擺放在固定的位置,這種裝配模式很難滿足復(fù)雜的工業(yè)生產(chǎn)要求且效率低下。設(shè)計(jì)了基于視覺(jué)引導(dǎo)的機(jī)器人裝配系統(tǒng)改進(jìn)原有系統(tǒng)。設(shè)計(jì)了機(jī)器視覺(jué)系統(tǒng),實(shí)現(xiàn)了工件的快速識(shí)別、定位以及姿態(tài)確定功能;設(shè)計(jì)了抓放系統(tǒng),實(shí)現(xiàn)了工件的精確抓取和安裝功能;采用Visual Studio的MFC開(kāi)發(fā),實(shí)現(xiàn)圖像處理算法,并利用Socket通信將坐標(biāo)和姿態(tài)數(shù)據(jù)發(fā)送給機(jī)器人。通過(guò)實(shí)驗(yàn)驗(yàn)證本系統(tǒng)具有良好的穩(wěn)定性和快速性,可以滿足生產(chǎn)的要求,大幅提高生產(chǎn)效率。
全文鏈接: http://ihrv.cn/article/3000065381
中文引用格式:黨宏社,候金良,強(qiáng)華,等. 基于視覺(jué)引導(dǎo)的SCARA機(jī)器人自動(dòng)裝配系統(tǒng)[J].電子技術(shù)應(yīng)用,2017,43(5):21-24.
英文引用格式: Dang Hongshe,Hou Jinliang,Qiang Hua,et al. SCARA automatic assembly system based on vision guided[J].Application of Electronic Technique,2017,43(5):21-24.