5 月 27 日消息,科技媒體 The Decoder 昨日(5 月 26 日)發(fā)布博文,報(bào)道稱谷歌推出開源框架 LMEval,為大語言模型和多模態(tài)模型提供標(biāo)準(zhǔn)化的評測工具。
評測新型 AI 模型一直是個(gè)難題。不同供應(yīng)商使用各自的 API、數(shù)據(jù)格式和基準(zhǔn)設(shè)置,導(dǎo)致跨模型比較耗時(shí)且復(fù)雜。
而谷歌最新推出的 LMEval 開源框架直擊這一痛點(diǎn),研究人員和開發(fā)者只需設(shè)置一次基準(zhǔn),就能展開標(biāo)準(zhǔn)化的評測流程,大幅簡化了評測工作,節(jié)省了時(shí)間和資源。
LMEval 還通過 LiteLLM 框架抹平了 Google、OpenAI、Anthropic、Ollama 和 Hugging Face 等平臺之間的接口差異,確保測試跨平臺無縫運(yùn)行。
LMEval 不僅支持文本評測,還涵蓋圖像和代碼等領(lǐng)域的基準(zhǔn)測試,且新輸入格式可輕松擴(kuò)展,框架支持是非題、多選題和自由文本生成等多種評估類型。同時(shí),該框架能識別模型采用的“規(guī)避策略”,即故意給出模糊回答以避免生成有風(fēng)險(xiǎn)內(nèi)容。
Google 還引入了 Giskard 安全評分,展示模型規(guī)避有害內(nèi)容的表現(xiàn),百分比越高代表安全性越強(qiáng)。測試結(jié)果存儲在自加密的 SQLite 數(shù)據(jù)庫中,確保數(shù)據(jù)本地化且不會被搜索引擎索引,兼顧了隱私與便捷。
LMEval 具備增量評估功能,無需在新增模型或問題時(shí)重新運(yùn)行整個(gè)測試,僅執(zhí)行必要的新增測試即可,并采用多線程引擎并行處理多項(xiàng)計(jì)算,有效降低了計(jì)算成本和時(shí)間消耗。
谷歌還開發(fā)了 LMEvalboard 可視化工具,通過雷達(dá)圖展示模型在不同類別中的表現(xiàn)。用戶可深入查看具體任務(wù),精準(zhǔn)定位模型錯(cuò)誤,并直接比較多個(gè)模型在特定問題上的差異,圖形化展示一目了然。