《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > 繁榮的汽車CIS生態(tài)能否拯救蕭條的車市

繁榮的汽車CIS生態(tài)能否拯救蕭條的車市

2019-06-18
關(guān)鍵詞: CIS 傳感器

 

fa04af00d05468e0b72efa8b0fb303ea.jpg

 汽車和工業(yè)是安森美最為看重的兩大市場,2019年第1季度分別貢獻(xiàn)了公司全部收入的34%和26%。而為了提供更寬廣的汽車傳感器陣容,2017年,安森美收購了IBM海法研究小組(IBM Research Haifa Lab)在以色列的毫米波研發(fā)中心,用以提供毫米波雷達(dá)方案;2018年5月,又收購了愛爾蘭SensL Technologies公司,其核心技術(shù)之一是單一雪崩光電二極管(SPAD),具有極強(qiáng)的感光效應(yīng)。

  “作為全球唯一一家擁有超聲波、成像、毫米波雷達(dá)、激光雷達(dá)和傳感器融合等全部感知技術(shù)的公司,安森美的戰(zhàn)略布局是考慮如何提升綜合能力,以寬廣的產(chǎn)品陣容滿足客戶全方位的需求,而不是滿足于在某一個領(lǐng)域做到極致?!币桌^輝說,與傳統(tǒng)手機(jī)圖像傳感技術(shù)過度追求像素不同,以汽車、機(jī)器視覺、邊緣人工智能為代表的新興應(yīng)用對像素的分辨、理解和判斷能力在不斷提升,創(chuàng)造“超越人眼的新視覺”,成為了公司的新目標(biāo)。

  為自動駕駛鋪平道路

  按照易繼輝給出的數(shù)據(jù),目前用于自動駕駛的車輛通常擁有9個圖像傳感器,下一代將超過12個甚至接近20個,先進(jìn)駕駛輔助系統(tǒng)ADAS、車艙內(nèi)攝像機(jī)、視覺攝像機(jī)和攝像機(jī)監(jiān)控系統(tǒng)(CMS)和自動駕駛是其主要推動力,2018-2022年行業(yè)收入復(fù)合年增長率將高達(dá)21%,成為CMOS圖像傳感器最大的增長動力所在。相比之下,用于智能手機(jī)的CMOS圖像傳感器在未來幾年內(nèi)的成長率僅為2%。同時,車輛還將配備至少10個雷達(dá)傳感器、2個超聲波和1個激光雷達(dá),從而具備360度的智能感知能力,實現(xiàn)全天候的跟蹤、檢測和計算。

  

c97b48cd72369b8fe26b0a040b1f0fef.jpg

  第三方市場調(diào)研公司的數(shù)據(jù)顯示,安森美在汽車成像領(lǐng)域的份額2016年為49%,2018年增長至62%;感知攝像機(jī)(ADAS、自動駕駛)領(lǐng)域,2016年市場份額為63%,2018年則達(dá)到了81%,超過了豪威科技、索尼等競爭對手的總和。

  

d5105e1db765e14f8b83c4cfe4cf14ba.jpg

  ·圖像傳感器

  多晶圓堆棧(multi-wafer stacking)、寬動態(tài)范圍、近紅外+(NIR+)像素、LED防抖(LFM)和全局快門,既是安森美目前在圖像傳感器中采用的主要關(guān)鍵技術(shù),其實也是那些試圖進(jìn)入汽車領(lǐng)域的CIS廠商必須具備的能力。而在此前的采訪中,易繼輝還曾表示,AI將會極大影響當(dāng)前設(shè)計和制造圖像傳感器的方式,改變設(shè)計和構(gòu)建成像方案的方法,使得智能成像和自適應(yīng)成像方案成為創(chuàng)新的一個新前沿,例如在自適應(yīng)成像中,圖像傳感器將能夠采集并提供只對AI算法有用和重要的圖像信息。

  多晶圓堆棧將把圖像采集、信號處理、圖像感知和物體識別等多種性能高度集成在智能終端設(shè)備中成為可能,安森美目前已經(jīng)可以實現(xiàn)并量產(chǎn)兩顆芯片堆棧,下一步是將處理器和存儲器也加入其中,實現(xiàn)三顆堆棧芯片的量產(chǎn)。

  寬動態(tài)范圍則對夜間行車極為關(guān)鍵。在夜間行車時,如果遇到相向而行的車開啟大燈時,在寬動態(tài)102dB的情況下,圖像傳感器可以看到路邊行人的輪廓,人工智能算法就可以加以判斷。但如果寬動態(tài)在80-90dB之間,人工智能算法就無法判斷這是行人還是物體,甚至根本看不到實體的存在。

  近紅外+(NIR+)像素、LED防抖(LFM)技術(shù)和全局快門則構(gòu)成了汽車智能感知陣營。近紅外+(NIR+)像素技術(shù)增加了約4倍NIR敏感度,不必再采用大功率LED補(bǔ)光,大幅提升低照度下圖像清晰度的同時還降低了功耗;另一方面,由于LED在閃爍的時候頻率并不一樣,目前還沒有統(tǒng)一的業(yè)界標(biāo)準(zhǔn),所以如果攝像機(jī)和紅綠燈的頻率不吻合,就會難以捕捉信號,這對整車廠挑戰(zhàn)極大。安森美的做法是在獲取信號后通過軟件分析延遲和功耗,在傳感器硬件上直接加以解決。

  除了車外人工視覺(環(huán)視/后視)、車外機(jī)器視覺(ADAS/自動駕駛),易繼輝還特別提到了迅速擴(kuò)展的車艙內(nèi)應(yīng)用給圖像傳感器帶來的新機(jī)會。駕駛員監(jiān)控方面,除了傳統(tǒng)的疲勞檢測,還新增了疾病檢測、情緒/生理測量、安全氣囊精準(zhǔn)調(diào)整、人機(jī)互動、虹膜識別和面部識別等。乘員監(jiān)控,比如安全帶提醒、兒童在場檢測、物體和寵物檢測、視頻電話會議、出租車錄像等,都是未來自動駕駛都要涉及到的應(yīng)用。

  自動駕駛另外一個需要保障的是功能安全。如果將整個自動駕駛系統(tǒng)的故障率單位標(biāo)準(zhǔn)設(shè)定為100FIT(Failure in Time),那么子系統(tǒng)就是10FIT,傳感器就是1FIT,這是非常高的要求。盡管可以通過工程判斷和路測來避免風(fēng)險,但終究不能保證100%的可靠性。安森美聯(lián)合整車廠,將目前已知的8000+種失效模式植入芯片中以鑒別芯片的可信度。此外,考慮到網(wǎng)絡(luò)安全標(biāo)準(zhǔn)ISO 21434將于2019年底出臺,安森美在2018年底已經(jīng)推出了具備網(wǎng)絡(luò)安全功能的800萬像素圖像傳感器。

  ·毫米波雷達(dá)與激光雷達(dá)

  NR4401是安森美開發(fā)的一款自動駕駛毫米波雷達(dá)融合方案,具備4個同步收發(fā)器Tx,考慮到未來L3-L5級自動駕駛對長距、中距和短距毫米波雷達(dá)的需求量會越來越多,NR4401采取了可擴(kuò)展設(shè)計的級聯(lián)和靈活配置,在單芯片上就可以支持短/長距雷達(dá)。

  得益于對愛爾蘭SensL公司的收購,安森美在首款200萬像素車規(guī)級激光雷達(dá)FuseOne中第一次實現(xiàn)了圖像傳感技術(shù)與激光雷達(dá)的融合。按照易繼輝的說法,傳統(tǒng)激光雷達(dá)采用的是特殊材料和雪崩光電二極管(APD)技術(shù),感光率普遍偏低,且成本動輒上萬美元。而安森美的目標(biāo)則是將傳統(tǒng)上萬美元的激光雷達(dá)降至幾百美元,從而實現(xiàn)商品化、大眾化。

  當(dāng)然,激光雷達(dá)和圖像傳感器只能看見物體,無法識別速度,且有著類似的缺陷,即容易受到天氣和周邊環(huán)境的影響。而毫米波雷達(dá)則沒有上述顧慮,對金屬敏感,能偵測感知移動物體的速度。所以,每種傳感器在智能化設(shè)備中都有其獨特作用,傳感器融合將成為必然趨勢。

  很顯然,把不同傳感器獲得的數(shù)據(jù)進(jìn)行融合,繼而產(chǎn)生最終的判斷和決策,這是實現(xiàn)自動駕駛必須解決的問題。傳統(tǒng)CIS提供商如果能夠向整車廠提供包括CIS產(chǎn)品、毫米波雷達(dá)、激光雷達(dá),甚至融合性算法在內(nèi)的一攬子解決方案,汽車廠商開發(fā)自動駕駛的難度就會顯著降低,他們對CIS供應(yīng)商的接受度就會大幅提升。

  機(jī)器看圖的時代正在到來

  一般來說,今天的成像產(chǎn)品有兩大類的應(yīng)用:視覺(viewing)和感測(sensing)。視覺是指人眼視覺,即拍攝的圖像(圖片和視頻)主要用于為人眼所看并領(lǐng)會;感測是指機(jī)器視覺,即用于算法或機(jī)器學(xué)習(xí)理解而拍攝的圖像。也就是說,在人眼視覺中,圖像是為人眼所見并欣賞的,因此圖像通常需要做到清晰、細(xì)致、色彩豐富且美觀。而在機(jī)器視覺中,圖像則需提供足夠的信息,例如邊緣、形狀、大小等,用于算法讀取并理解。

  機(jī)器視覺應(yīng)用非常廣泛且多樣化,除了工廠自動化、智能化工廠的發(fā)展,機(jī)器視覺還在智能交通、新零售、智能樓宇/家居、機(jī)器人/無人機(jī)、安防/監(jiān)控、AR/VR/可穿戴設(shè)備等領(lǐng)域不斷發(fā)展。

  安森美半導(dǎo)體在CCD和CMOS兩種圖像傳感器技術(shù)領(lǐng)域均有布局。在易繼輝看來,CMOS事實上已取代CCD成為用于中低分辨率和大體量應(yīng)用的主流技術(shù)。但他也同時提醒行業(yè)說,目前市場上有誤解,認(rèn)為CMOS技術(shù)適用于所有應(yīng)用,并人為地去開發(fā)并不適合CMOS技術(shù)的產(chǎn)品和應(yīng)用,這種做法是絕對錯誤的。

  根據(jù)他的介紹,為了能夠捕捉移動物體的清晰圖像,全局快門技術(shù)已成為機(jī)器視覺市場的基本要求,其效率高低是關(guān)鍵的性能指標(biāo)之一。例如在平板檢測應(yīng)用中,對更高分辨率、更佳圖像均勻性和更高快門速度的需求在不斷提升,其驅(qū)動力主要來自于面板材質(zhì)的轉(zhuǎn)變(由LED過渡至OLED)和更高分辨率(4K和8K)與生產(chǎn)力的提升,為支持這些需求,高性能小像素技術(shù)至關(guān)重要。

  具有4K超高清(4096x2180)分辨率的XGS 8000和具有1200萬像素(4096x3072)分辨率的XGS 12000是兩款具有代表性的產(chǎn)品,均采用3.2?m全局快門CMOS設(shè)計,能夠完全兼容緊湊的29x29 mm2攝像機(jī)設(shè)計。而最新的產(chǎn)品則包括功耗3瓦,支持每秒60幀8K視頻的XGS 45000系列,以及專為現(xiàn)代智能手機(jī)顯示屏檢測而設(shè)計的5000萬像素CCD圖像傳感器KAI-50140。

  而在機(jī)器人和電子制造應(yīng)用中,智能相機(jī)和智能視覺也正成為重要的推動因素。如何通過一個攝像頭和一顆芯片,在不需要任何補(bǔ)光的前提下,就能實現(xiàn)對五種深度映射技術(shù):立體視覺、結(jié)構(gòu)光、飛行時間(TOF)、Super Depth和雷達(dá)的支持,并不是一件簡單的事情。

  Pandion是安森美最新推出的SPAD陣列激光雷達(dá),采用了400×100矩陣型感光點,通過將傳統(tǒng)的LiDAR點云(point cloud)變?yōu)長iDAR圖像(Image),使得Pandion在Flash LiDAR時可感知3米內(nèi)的深度,而當(dāng)切換至掃描式波速控制(Beam Steering)時,則可以感知100米左右的深度。

  “人眼視覺和機(jī)器視覺并無孰優(yōu)孰劣之分,因為兩者服務(wù)于不同的目的和應(yīng)用。過去人眼視覺主導(dǎo)著成像應(yīng)用和開發(fā),隨著人工智能的發(fā)展和對智能邊緣設(shè)備的強(qiáng)勁需求,我們預(yù)期會有更多機(jī)器視覺應(yīng)用的技術(shù)和產(chǎn)品創(chuàng)新。”易繼輝說。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。