4 月 2 日消息,雖然目前 Siri 可以嘗試描述信息中的圖像,但效果并不穩(wěn)定。不過,蘋果公司并沒有放棄人工智能領(lǐng)域的探索。在最近的一篇研究論文中,蘋果的人工智能團(tuán)隊(duì)描述了一種可以顯著提升 Siri 智能的模型,而且他們認(rèn)為這個(gè)名為 ReALM 的模型在測(cè)試中優(yōu)于 OpenAI 的知名語(yǔ)言模型 GPT-4.0。
ReALM 的特別之處在于,它可以同時(shí)理解用戶屏幕上的內(nèi)容和正在進(jìn)行的操作。論文將信息分為以下三種類型:
屏幕實(shí)體:指的是當(dāng)前顯示在用戶屏幕上的內(nèi)容。
對(duì)話實(shí)體:指的是與對(duì)話相關(guān)的內(nèi)容。例如,用戶說(shuō) " 打電話給媽媽 ",那么媽媽的聯(lián)系人信息就是對(duì)話實(shí)體。
背景實(shí)體:指的是與用戶當(dāng)下操作或屏幕顯示內(nèi)容可能并不直接相關(guān)的實(shí)體,比如正在播放的音樂或即將響起的鬧鈴。
如果能夠完美運(yùn)行,ReALM 將使 Siri 變得更加智能和實(shí)用。他們將 ReALM 與 OpenAI 的 GPT-3.5 和 GPT-4.0 進(jìn)行了性能對(duì)比:
" 我們同時(shí)測(cè)試了 OpenAI 提供的 GPT-3.5 和 GPT-4.0 模型,并為它們提供了上下文信息,讓它們預(yù)測(cè)一系列可能的實(shí)體。GPT-3.5 只接受文本輸入,因此我們只提供了文字提示。而 GPT-4 能夠理解圖像信息,因此我們?yōu)樗峁┝似聊唤貓D,這顯著提升了它的屏幕實(shí)體識(shí)別性能。"
那么蘋果的 ReALM 表現(xiàn)如何呢?
" 我們的模型在識(shí)別不同類型實(shí)體方面均取得了顯著進(jìn)步,即使是最小的模型,在屏幕實(shí)體識(shí)別上的準(zhǔn)確率也比原有系統(tǒng)提升了 5% 以上。與 GPT-3.5 和 GPT-4.0 的對(duì)比中,我們最小的模型與 GPT-4.0 的性能相當(dāng),而更大的模型則明顯優(yōu)于它。"
論文的結(jié)論之一是,ReALM 即使擁有比 GPT-4 少得多的參數(shù),也能在性能上與之匹敵,并且在處理特定領(lǐng)域的用戶指令時(shí)表現(xiàn)更加出色,這使得 ReALM 成為一種可以在設(shè)備端運(yùn)行的、實(shí)用高效的實(shí)體識(shí)別系統(tǒng)。
對(duì)于蘋果而言,如何在不影響性能的情況下將這項(xiàng)技術(shù)應(yīng)用于設(shè)備似乎是關(guān)鍵所在,隨著 WWDC 2024 開發(fā)者大會(huì)即將于 6 月 10 日召開,外界普遍期待蘋果將在 iOS 18 等新系統(tǒng)中展示更多的人工智能技術(shù)成果。