《電子技術(shù)應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 蘋果研究人員稱其設備端模型ReALM性能優(yōu)于GPT-4

蘋果研究人員稱其設備端模型ReALM性能優(yōu)于GPT-4

2024-04-02
來源:IT之家
關(guān)鍵詞: 蘋果 realm Siri

4 月 2 日消息,雖然目前 Siri 可以嘗試描述信息中的圖像,但效果并不穩(wěn)定。不過,蘋果公司并沒有放棄人工智能領域的探索。在最近的一篇研究論文中,蘋果的人工智能團隊描述了一種可以顯著提升 Siri 智能的模型,而且他們認為這個名為 ReALM 的模型在測試中優(yōu)于 OpenAI 的知名語言模型 GPT-4.0。

1.jpg

ReALM 的特別之處在于,它可以同時理解用戶屏幕上的內(nèi)容和正在進行的操作。論文將信息分為以下三種類型:

屏幕實體:指的是當前顯示在用戶屏幕上的內(nèi)容。

對話實體:指的是與對話相關(guān)的內(nèi)容。例如,用戶說 " 打電話給媽媽 ",那么媽媽的聯(lián)系人信息就是對話實體。

背景實體:指的是與用戶當下操作或屏幕顯示內(nèi)容可能并不直接相關(guān)的實體,比如正在播放的音樂或即將響起的鬧鈴。

如果能夠完美運行,ReALM 將使 Siri 變得更加智能和實用。他們將 ReALM 與 OpenAI 的 GPT-3.5 和 GPT-4.0 進行了性能對比:

" 我們同時測試了 OpenAI 提供的 GPT-3.5 和 GPT-4.0 模型,并為它們提供了上下文信息,讓它們預測一系列可能的實體。GPT-3.5 只接受文本輸入,因此我們只提供了文字提示。而 GPT-4 能夠理解圖像信息,因此我們?yōu)樗峁┝似聊唤貓D,這顯著提升了它的屏幕實體識別性能。"

那么蘋果的 ReALM 表現(xiàn)如何呢?

" 我們的模型在識別不同類型實體方面均取得了顯著進步,即使是最小的模型,在屏幕實體識別上的準確率也比原有系統(tǒng)提升了 5% 以上。與 GPT-3.5 和 GPT-4.0 的對比中,我們最小的模型與 GPT-4.0 的性能相當,而更大的模型則明顯優(yōu)于它。"

論文的結(jié)論之一是,ReALM 即使擁有比 GPT-4 少得多的參數(shù),也能在性能上與之匹敵,并且在處理特定領域的用戶指令時表現(xiàn)更加出色,這使得 ReALM 成為一種可以在設備端運行的、實用高效的實體識別系統(tǒng)。

對于蘋果而言,如何在不影響性能的情況下將這項技術(shù)應用于設備似乎是關(guān)鍵所在,隨著 WWDC 2024 開發(fā)者大會即將于 6 月 10 日召開,外界普遍期待蘋果將在 iOS 18 等新系統(tǒng)中展示更多的人工智能技術(shù)成果。


雜志訂閱.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。