《電子技術(shù)應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 蘋果披露Apple Foundation Model AI模型細節(jié)

蘋果披露Apple Foundation Model AI模型細節(jié)

文本總結(jié)等方面超過 GPT-4 谷歌 TPU 芯片訓練
2024-07-31
來源:IT之家
關(guān)鍵詞: 蘋果 AppleIntelligence AFM

7 月 31 日消息,蘋果公司最新發(fā)布論文 [PDF],分享了關(guān)于 Apple Intelligence 模型的相關(guān)細節(jié),部分性能已經(jīng)超過 OpenAI 的 GPT-4。

模型簡介

蘋果在論文中介紹了 Apple Foundation Model(下文簡稱 AFM)模型,共有以下兩款:

· AFM-on-device:本地運行,30 億參數(shù),可以在 iPhone、iPad 等設(shè)備上高效運行;

· AFM-server:蘋果尚未公布參數(shù)等細節(jié)。

訓練數(shù)據(jù)來源

蘋果表示訓練數(shù)據(jù)集包括從出版商處獲得授權(quán)的數(shù)據(jù)、經(jīng)過策劃的公開或開源數(shù)據(jù)集以及我們的網(wǎng)絡爬蟲 Applebot 抓取的公開信息組成。

蘋果強調(diào)注重保護用戶隱私,數(shù)據(jù)混合物中不包括蘋果用戶的私人數(shù)據(jù)。

據(jù)《紐約時報》報道,蘋果公司在 2023 年底與 NBC、Condé Nast 和 IAC 等多家出版商達成了價值至少 5000 萬美元的多年期協(xié)議,在出版商的新聞檔案中訓練模型。

蘋果的 AFM 模型還在 GitHub 上托管的開源代碼上進行了訓練,特別是 Swift、Python、C、Objective-C、C++、JavaScript、Java 和 Go 代碼。

論文稱,為了提高 AFM 模型的數(shù)學技能,蘋果公司特別在訓練集中加入了來自網(wǎng)頁、數(shù)學論壇、博客、教程和研討會的數(shù)學問題和答案。

蘋果利用了高質(zhì)量、可公開獲得的數(shù)據(jù)集(論文中未提及名稱),這些數(shù)據(jù)集“擁有允許用于訓練...... 模型的許可證”,并經(jīng)過過濾以去除敏感信息。

AFM 模型的訓練數(shù)據(jù)集約有 6.3 萬億個 token(token 是小塊數(shù)據(jù),通常更容易被生成式人工智能模型吸收)。相比之下,這還不到 Meta 用來訓練其旗艦文本生成模型 Llama 3.1 405B 的 token 數(shù)量(15 萬億)的一半。

訓練硬件

根據(jù)論文描述,蘋果公司使用 8192 片 TPUv4 芯片訓練 AFM-server 模型;2048 片 TPUv5p 芯片訓練 AFM-on-device 模型。

0.png

每個 v5p pod 由 8960 個芯片組成,每秒的浮點運算(FLOPS)和內(nèi)存分別是 TPU v4 的兩倍和三倍,訓練模型的速度快了近三倍。

0.png

模型性能

根據(jù)論文描述,蘋果自研大模型在指令遵循、文本總結(jié)方面測試超 GPT-4。

蘋果公司的數(shù)據(jù)顯示,AFM-server 有害輸出違規(guī)率為 6.3%,明顯低于 GPT-4 的 28.8%。同樣,在設(shè)備上,AFM 7.5% 的違規(guī)率低于 Llama-3-8B(由 Facebook 母公司 Meta 訓練)21.8% 的得分。

在電子郵件、信息和通知匯總方面,設(shè)備上的 AFM 的滿意度分別為 71.3%、63% 和 74.9%。研究論文還指出,這三個模型分別領(lǐng)先于 Llama、Gemma 和 Phi-3 模型。附上相關(guān)性能結(jié)果如下:

1.png


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。