7 月 18 日消息,科大訊飛今日宣布,訊飛星火 API 正式開放長(zhǎng)上下文版本 —— Spark Pro-128K 大模型,價(jià)格最低 0.21 元 / 萬(wàn) tokens。
據(jù)介紹,用戶與大模型之間的對(duì)話交流,通常被認(rèn)為是短期記憶。一旦對(duì)話長(zhǎng)度超過了其上下文承載能力,超出的部分就可能會(huì)被模型遺忘。
區(qū)別于傳統(tǒng)的文本處理模型,長(zhǎng)文本模型具備更準(zhǔn)確的文本理解和生成能力以及更強(qiáng)大的跨領(lǐng)域遷移能力,可以一次性理解和生成更多的信息,適用于復(fù)雜的對(duì)話、長(zhǎng)篇內(nèi)容創(chuàng)作和詳細(xì)的數(shù)據(jù)分析等任務(wù),能提升模型解決問題的邊界。
6 月 27 日,訊飛星火 V4.0 發(fā)布,長(zhǎng)文本能力全新升級(jí),并針對(duì)長(zhǎng)文檔知識(shí)問答的幻覺問題,業(yè)界首發(fā)內(nèi)容溯源功能。當(dāng)用戶向星火提問,它回答完,會(huì)告訴你為什么這么回答,是參考了哪一段內(nèi)容,這樣當(dāng)用戶沒有時(shí)間看全文的時(shí)候又擔(dān)心回答可信度時(shí),只要去核實(shí)它的溯源就行了。
現(xiàn)在,支持最長(zhǎng)上下文的星火大模型 Spark Pro -128k 面向開發(fā)者開放 API 調(diào)用,價(jià)格為 0.21~ 0.30 元 / 萬(wàn) tokens,個(gè)人用戶可免費(fèi)領(lǐng)取 200 萬(wàn) tokens 的服務(wù)量。