《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 剛剛曝光的 Claude3直擊 OpenAI 最大弱點(diǎn)

剛剛曝光的 Claude3直擊 OpenAI 最大弱點(diǎn)

2024-03-05
來源:極客公園
關(guān)鍵詞: Anthropic Claude3 大模型 GPT-4

作為 OpenAI GPT3 研發(fā)負(fù)責(zé)人的創(chuàng)業(yè)項(xiàng)目,Anthropic 被視為最能與 OpenAI 抗衡的一家創(chuàng)業(yè)公司。

當(dāng)?shù)貢r間周一,Anthropic 發(fā)布了一組 Claude 3 系列大模型,稱其功能最強(qiáng)大的模型在各種基準(zhǔn)測試中均優(yōu)于 OpenAI 的 GPT-4 和 Google 的 Gemini 1.0 Ultra。

但是,能處理更復(fù)雜的推理任務(wù)、更智能、更快響應(yīng),這些躋身大模型 Top3 的綜合能力只是 Claude3 的基本功。

Anthropic 致力于成為企業(yè)客戶的最佳拍檔。

這是首先體現(xiàn)在 Claude3 是一組模型:Haiku、Sonnet 和 Opus,讓企業(yè)客戶根據(jù)自身場景選擇不同性能、不同成本的版本。

其次,Anthropic 強(qiáng)調(diào)自家模型是最安全的。Anthropic 總裁 Daniela Amodei 介紹,在 Claude3 的訓(xùn)練中引入了一種叫做「憲法人工智能」的技術(shù),增強(qiáng)其安全、可信、可靠。

在看完 Claude3 的技術(shù)報(bào)告后,愛丁堡大學(xué)大模型和推理博士生符堯稱,Claude3 在一些復(fù)雜推理的基準(zhǔn)測試上表現(xiàn)尤其顯著,尤其在金融和醫(yī)療領(lǐng)域,作為一家 ToB 公司,Anthropic 選擇優(yōu)化最掙錢的領(lǐng)域。

現(xiàn)在,Anthropic 在 159 個國家開放使用 Claude3 系列的兩款模型(Opus 和 Sonnet),最強(qiáng)版本 Haiku 也即將推出。同時,Anthropic 也通過亞馬遜和谷歌的云平臺提供服務(wù),后者曾分別向 Anthropic 注資 40 億美元和 20 億美元。

更智能、響應(yīng)更快的 Claude3 家族:Opus、Sonnet 和 Haiku

據(jù) Anthropic 官網(wǎng),Claude3 是一系列模型,包含三種最先進(jìn)的模型:Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus,允許用戶為其特定應(yīng)用選擇智能、速度和成本的最佳平衡。

在模型的通用能力上,Anthropic 稱 Claude 3 系列「為廣泛的認(rèn)知任務(wù)樹立了新的行業(yè)基準(zhǔn)」,在分析和預(yù)測、細(xì)致內(nèi)容的生成、代碼生成以及西班牙語、日語和法語等非英語語言對話方面,現(xiàn)實(shí)出更強(qiáng)大的能力,在任務(wù)響應(yīng)上也更及時。

其中,Claude 3 Opus 是這組模型中最智能的模型,尤其在高度復(fù)雜的任務(wù)處理上。Opus 在大多數(shù)常見的評測基準(zhǔn)中都優(yōu)于同行,包括本科水平專家知識 ( MMLU ) 、研究生水平專家推理 ( GPQA ) 、基礎(chǔ)數(shù)學(xué) ( GSM8K ) 等。它在復(fù)雜任務(wù)上表現(xiàn)出接近人類水平的理解力和流暢性,是目前 Anthropic 對于通用智能最前沿的探索,「展示了生成式人工智能的外部極限」。

1.jpg

Claude3 模型家族|圖片來源:Anthropic

Claude 3 Sonnet 在智能水平和響應(yīng)速度之間實(shí)現(xiàn)了理想的平衡,尤其對于企業(yè)場景下的任務(wù)。與同類產(chǎn)品相比,它以更低的成本提供了強(qiáng)大的性能,并且專為大規(guī)模人工智能部署中的高耐用性(high endurance)而設(shè)計(jì)。對于絕大多數(shù)工作負(fù)載,Sonnet 的速度比 Claude 2 和 Claude 2.1 快 2 倍,且智能水平更高。它擅長執(zhí)行需要快速響應(yīng)的任務(wù),例如知識檢索或銷售自動化。 

Claude 3 Haiku 是最緊湊的模型,并且也最具成本效益。并且,它的響應(yīng)速度也很快,可以在不到三秒的時間內(nèi)閱讀 arXiv 上包含圖表、圖形的信息以及數(shù)據(jù)密集的研究論文(約 10k token)。

瞄準(zhǔn)企業(yè)客戶的迭代

聯(lián)合創(chuàng)始人 Daniela Amodei 介紹,除了通用智能的進(jìn)步,Anthropic 特別關(guān)注企業(yè)客戶把生成式 AI 集成到他們的業(yè)務(wù)時,所面臨的許多挑戰(zhàn)。針對企業(yè)客戶,Claude3 家族在視覺能力、準(zhǔn)確性、長文本輸入和安全方面,都有進(jìn)步。

很多企業(yè)客戶的知識庫擁有多種格式,PDF、流程圖或演示幻燈片?,F(xiàn)在,Claude 3 系列模型可以處理各種視覺格式的內(nèi)容,包括照片、圖表、圖形和技術(shù)圖表。

Claude3 還優(yōu)化了準(zhǔn)確性和長文本窗口的能力。

在準(zhǔn)確性上,Anthropic 使用了大量復(fù)雜的事實(shí)問題來針對當(dāng)前模型中已知的弱點(diǎn),將答案分為正確答案、錯誤答案(或幻覺)和承認(rèn)不確定性。相應(yīng)地,Claude3 模型表示它不知道答案,而不是提供不正確的信息。其中最強(qiáng)的版本 Claude 3 Opus 在具有挑戰(zhàn)性的開放式問題上的準(zhǔn)確性(或正確答案)上,比 Claude 2.1 提高了一倍,同時也減少了錯誤答案的水平。

2.jpg

相比 Claude2.1 版本,Claude3 系列全面提升了響應(yīng)的準(zhǔn)確性。|圖片來源:Anthropic

同時,由于語境理解能力的提升,Claude3 家族相比之前的版本,在響應(yīng)用戶任務(wù)上會作出更少的拒絕回答。

除了更準(zhǔn)確的回復(fù),Anthropic 稱將在 Claude 3 帶來「引用」功能,可以指向參考材料中的精確句子來驗(yàn)證他們的答案。

當(dāng)前,Claude 3 系列模型將提供 200K token 的上下文窗口。后續(xù),所有這三種模型都能夠接受超過 100 萬 token 的輸入,這部分能力會提供給需要增強(qiáng)處理能力的精選客戶。Anthropic 在技術(shù)報(bào)告中簡單闡述了 Claude3 的上文本窗口能力,包括有效處理更長的上下文提示詞,以及回憶能力。

「憲法人工智能」,應(yīng)對「不精確的科學(xué)」

值得注意的是,Claude3 作為多模態(tài)模型,可以輸入圖像,但無法輸出圖像內(nèi)容。聯(lián)合創(chuàng)始人 Daniela Amodei 稱,這是因?yàn)椤肝覀儼l(fā)現(xiàn)企業(yè)對圖像的需求要少得多」。

Claude3 的發(fā)布是在谷歌 Gemini 生成圖片引發(fā)爭議后發(fā)布的,面向企業(yè)客戶的 Claude 也免不了在 AI 所引發(fā)的價值觀偏見等問題上的控制與平衡。

對此,Dario Amodei 強(qiáng)調(diào)了控制人工智能模型的難度,稱其為「不精確的科學(xué)」。他表示,該公司有專門的團(tuán)隊(duì)致力于評估和減輕模型帶來的各種風(fēng)險(xiǎn)。

另一位聯(lián)合創(chuàng)始人 Daniela Amodei 也承認(rèn),用目前的方法可能無法實(shí)現(xiàn)完全無偏見的人工智能?!竸?chuàng)建一個完全中立的生成式人工智能工具幾乎是不可能的,不僅在技術(shù)上,而且還因?yàn)椴⒉皇敲總€人都同意什么是中立?!顾f。

3.jpg

此前,Anthropic 公布了用來對齊大模型的「憲法人工智能」|圖片來源:Anthropic

盡管如此,Anthropic 用一種稱為「憲法人工智能」方法來盡可能使模型和人類廣泛的價值觀一致,模型遵循「憲法」中定義的原則來調(diào)整優(yōu)化。

作為 OpenAI 曾經(jīng)的核心人發(fā)人員,Amodei 兄妹的出走跟近日馬斯克對 OpenAI 的一紙?jiān)V狀有相同點(diǎn),認(rèn)為 OpenAI 不再是一個非贏利組織,不再遵循最初使命造福人類。有記者問 Amodei,Anthropic 符合你出走創(chuàng)業(yè)的愿景嗎?

Amodei 說:「處于人工智能發(fā)展的前沿,是引導(dǎo)人工智能發(fā)展軌跡為社會帶來積極成果的最有效方式。」


weidian.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。