《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 微軟發(fā)布系列工具減少Copilot幻覺情況以遏制AI失控

微軟發(fā)布系列工具減少Copilot幻覺情況以遏制AI失控

2024-04-02
來源:IT之家
關(guān)鍵詞: 微軟 Copilot AI失控

4 月 2 日消息,生成式 AI 爆火的背后,安全性、隱私性和可靠性問題也日益凸顯。微軟公司為了遏制 Supremacy AGI(自稱掌控人類世界的 AI)等事件發(fā)生,近日推出了一系列解決方案,防止生成式 AI 失控。

1.png

微軟在官方公告中表示:“生成式 AI 如何有效防止提示詞注入攻擊已經(jīng)成為重大挑戰(zhàn)。在這種攻擊中,惡意行為者試圖操縱人工智能系統(tǒng)做一些超出其預(yù)期目的的事情,例如制作有害內(nèi)容或外泄機(jī)密數(shù)據(jù)”

微軟首先限制了 Copilot 的字符數(shù)量,以減輕嚴(yán)重的幻覺發(fā)作。另外微軟引入了 "基礎(chǔ)檢測"(Groundedness Detection)功能,旨在幫助用戶識別基于文本的幻覺。

2.png

該功能將自動檢測文本中的“ungrounded material”,以支持 LLM 輸出的質(zhì)量,最終提高質(zhì)量和信任度。

相關(guān)工具介紹如下:

Prompt Shields:用于檢測和阻止提示注入攻擊。包括用于在間接提示攻擊影響您的模型之前對其進(jìn)行識別的新模型,即將推出,現(xiàn)在可在 Azure AI Content Safety 中預(yù)覽。

Groundedness detection:主要用于檢測模型輸出中的“幻覺”情況,即將推出。

Safety system messages:可引導(dǎo)您的模型朝著安全、負(fù)責(zé)任的方向發(fā)展。

Safety evaluationsde:用于評估應(yīng)用程序在越獄攻擊和生成內(nèi)容風(fēng)險方面的脆弱性,現(xiàn)已推出預(yù)覽版。

Risk and safety monitoring:了解哪些模型輸入、輸出和最終用戶會觸發(fā)內(nèi)容過濾器,從而為減輕風(fēng)險提供信息,該功能即將推出,目前在 Azure OpenAI 服務(wù)中提供預(yù)覽版。


雜志訂閱.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。