美國英特爾首席技術官(ChiefTechnologyOfficer)賈斯汀·萊特納(JustinRattner)訪問日本,并以“我們對未來的四個預測”為題,介紹了英特爾實驗室(IntelLabs)推進的技術研發(fā)。
第一個預測是“通過將供電電壓(Vcc)和閾值電壓(Vt)設定在相同水平,大幅降低功耗”。“使產(chǎn)品以數(shù)百MHz左右的速度進行工作,從而可將功耗降至目前的1/10”(萊特納)。萊特納還指出,可在需要確保性能時提高供電電壓,以全功率進行工作。在日常使用時,可通過降低供電電壓來抑制功耗等。
接下來萊特納提到了“將基于硅光子學(SiliconPhotonics)的光互聯(lián)”。除了在2009年9月舉行的“IDF”上發(fā)布的“LightPeak”外(<參閱ahref="/news/mobi/48102-20090925.html"TARGET=_blank>本站報道),還將在內(nèi)存接口中使用光互聯(lián)“RemoteOpticalMemory”以及實現(xiàn)太比特/秒級的網(wǎng)絡等。RemoteOpticalMemory“可將內(nèi)存集成在服務器一方,適當改變分配給客戶端的內(nèi)存容量”(萊特納)。
第三個預測是“由基于軟件的渲染來推進視覺計算”。英特爾實驗室正在開發(fā)的圖形處理器(GPU)“Larrabee”,通過提高編程的通用度,“可輕松封裝此前的GPU難以實現(xiàn)的算法。例如,陰影貼圖(ShadowMap)和無規(guī)則透明度(OrderIndependentTransparency)等”(萊特納)。
最后萊特納提到的是“利用虛擬內(nèi)存技術,通過多個不同的內(nèi)核有效共享內(nèi)存”。例如,在目前的架構中,GPU就連接了輸入輸出總線。要想將GPU作為通用計算引擎使用,就需要進行如下作業(yè):將主處理器中擁有的數(shù)據(jù)一次性串行化(Serialize)后傳輸至GPU,收到計算結果后,將其轉換為編程擁有的形狀。“如果在內(nèi)核之間共享相同的虛擬內(nèi)存空間,則無需此類數(shù)據(jù)轉換過程,可大幅減少開銷”