《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 華為版ChatGPT將于7月初發(fā)布:“盤古Chat”

華為版ChatGPT將于7月初發(fā)布:“盤古Chat”

2023-06-05
作者:林志佳
來源:鈦媒體
關(guān)鍵詞: 華為 ChatGPT 盤古Chat

來源:鈦媒體
鏈接:https://www.tmtpost.com/6557978.html
(本文首發(fā)鈦媒體App,作者|林志佳)

6月3日消息,鈦媒體App近日從華為內(nèi)部獨(dú)家獲悉,華為公司將發(fā)布一款直接對標(biāo)ChatGPT的多模態(tài)千億級大模型產(chǎn)品,名為“盤古Chat”。

預(yù)計(jì)華為盤古Chat將于今年7月7日舉行的華為云開發(fā)者大會 (HDC.Cloud 2023) 上對外發(fā)布以及內(nèi)測,產(chǎn)品主要面向To B/G政企端客戶。

這意味著,在國產(chǎn)大模型軍備競賽中,繼阿里、百度之后,又一重要科技巨頭入局?;谌A為的技術(shù)能力,盤古Chat有望成為國內(nèi)技術(shù)能力最強(qiáng)的ChatGPT產(chǎn)品,同時華為生態(tài)產(chǎn)業(yè)鏈企業(yè)也將因此受益。

據(jù)悉,盤古大模型于2020年11月在華為云內(nèi)部立項(xiàng)成功。對于盤古大模型定位,華為內(nèi)部團(tuán)隊(duì)確立了三項(xiàng)最關(guān)鍵的核心設(shè)計(jì)原則:一是模型要大,可以吸收海量數(shù)據(jù);二是網(wǎng)絡(luò)結(jié)構(gòu)要強(qiáng),能夠真正發(fā)揮出模型的性能;三是要具有優(yōu)秀的泛化能力,可以真正落地到各行各業(yè)的工作場景。

2021年4月,盤古大模型正式對外發(fā)布。其中,盤古NLP大模型是首個干億參數(shù)中文預(yù)訓(xùn)練大模型,CV大模型則首次達(dá)到30億參數(shù)。2022年4月,華為盤古升級到2.0,發(fā)布層次化開發(fā)方案 (LO, L1,L2) ,打造工業(yè)級盤古大模型。

根據(jù)華為云高管的演講PPT信息,目前華為“盤古系列 AI 大模型”基礎(chǔ)層主要包括NLP大模型、CV大模型、以及科學(xué)計(jì)算大模型等,上層則是與合作伙伴開發(fā)的華為行業(yè)大模型。

華為云人工智能領(lǐng)域首席科學(xué)家田奇今年4月稱,盤古NLP大模型覆蓋的智能文檔檢索、智能 ERP、小語種大模型等落地領(lǐng)域,2022年華為剛交付了一個阿拉伯語的千億參數(shù)大模型。在應(yīng)用方面,盤古大模型可以應(yīng)用于智能客服、機(jī)器翻譯、語音識別等多個領(lǐng)域,提供AI技術(shù)支持。

去年華為將盤古大模型在垂直產(chǎn)業(yè)領(lǐng)域落地應(yīng)用。一個例子是,基于盤古 AI 大模型,華為在礦山領(lǐng)域打造了首個“基于大模型的人工智能訓(xùn)練中心”,實(shí)現(xiàn) Al 應(yīng)用“工業(yè)化” 開發(fā),不僅降低成本——比人工核查節(jié)省80%+、每噸成本降低8元 (年產(chǎn)能260萬噸),而且增加效益——防沖御壓比人工核查節(jié)省80%+,提升效率——智能客戶效率提升30%。

與其他廠商相比,華為的優(yōu)勢或在于擁有完整的產(chǎn)業(yè)鏈和較強(qiáng)的算力調(diào)配能力。據(jù)浙商證券此前披露,在訓(xùn)練千億參數(shù)的盤古大模型時,華為團(tuán)隊(duì)調(diào)用了超過2000塊的昇騰910芯片,進(jìn)行了超2個月的數(shù)據(jù)訓(xùn)練能力。華為內(nèi)部稱,每年大模型訓(xùn)練調(diào)用GPU/TPU卡超過4000片,3年的大模型算力成本高達(dá)9.6億元人民幣。

東吳證券3月27日公布的研報(bào)中稱,華為盤古大模型的優(yōu)勢在于人才儲備和算力自主可控,有望成為國內(nèi)領(lǐng)先的大模型,其生態(tài)產(chǎn)業(yè)鏈標(biāo)的有望迎來加速發(fā)展,包括拓維信息、四川長虹、麒麟軟件(中國軟件)、統(tǒng)信軟件(誠邁科技)、麒麟信安等華為生態(tài)公司。國盛證券則認(rèn)為,華為盤古為首個多模態(tài)千億級大模型,有望賦能百業(yè)。

微信截圖_20230605105932.png


根據(jù)華為公布的一份論文數(shù)據(jù)顯示,華為盤古PanGu-Σ大模型參數(shù)最多為1.085萬億,基于華為自研的MindSpore框架開發(fā)。整體來看,PanGu-Σ大模型在對話方面可能已接近GPT-3.5的水平。

值得注意的是,由于盤古大模型擁有超大規(guī)模的參數(shù),因此訓(xùn)練成本較高。盡管盤古大模型在中文語言的處理方面具有很高的準(zhǔn)確度和質(zhì)量,但在語義理解方面仍存在一定的局限性,尤其是在處理復(fù)雜的語言結(jié)構(gòu)和語義推理方面。同時,盤古Chat大模型也將面臨著行業(yè)激烈的競爭壓力,需要不斷優(yōu)化和提高模型的性能和質(zhì)量,才能以保持在市場中的領(lǐng)先地位。

  更多精彩內(nèi)容歡迎點(diǎn)擊==>>電子技術(shù)應(yīng)用-AET<<

微信圖片_20210517164139.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。