派拓網(wǎng)絡(luò):挖掘AI潛力,在確保安全的前提下增加AI使用
2025-06-11
作者:派拓網(wǎng)絡(luò)網(wǎng)絡(luò)安全高級(jí)副總裁Rich Campagna
來源:派拓網(wǎng)絡(luò)
AI應(yīng)用與企業(yè)的快速融合為企業(yè)創(chuàng)造了巨大的機(jī)遇。這些智能系統(tǒng)具有徹底改變運(yùn)營(yíng)方式、推動(dòng)創(chuàng)新和提高生產(chǎn)力的潛力。雖然企業(yè)愈發(fā)積極地采用AI,但要充分發(fā)揮AI的潛力,關(guān)鍵在于落實(shí)強(qiáng)大的安全措施。如果企業(yè)能夠積極主動(dòng)地解決安全問題,就能營(yíng)造一個(gè)推動(dòng)AI技術(shù)安全與普及的可信環(huán)境。
在這種環(huán)境下,企業(yè)需要對(duì)AI工具在執(zhí)行訓(xùn)練、推理等功能時(shí)訪問的海量數(shù)據(jù)實(shí)施管控。應(yīng)對(duì)這些威脅的最好方法是使用AI驅(qū)動(dòng)的解決方案,這樣采用AI的企業(yè)將脫穎而出。
AI的普及以及隨之產(chǎn)生的風(fēng)險(xiǎn)
生成和分析工具等AI應(yīng)用的快速普及給各個(gè)行業(yè)帶來了一場(chǎng)巨變。麥肯錫最新調(diào)查顯示,超過75%的企業(yè)已將AI應(yīng)用于各種業(yè)務(wù)功能。這一快速發(fā)展證明了AI所帶來的巨大價(jià)值。
但同其他強(qiáng)大技術(shù)一樣,負(fù)責(zé)任地使用AI非常重要。雖然AI的普及速度驚人,但企業(yè)仍需密切關(guān)注底層數(shù)據(jù)以及AI系統(tǒng)的安全性。如果能夠?qū)踩谌氲紸I開發(fā)和部署的每一個(gè)環(huán)節(jié),企業(yè)就可以放心地發(fā)揮AI的優(yōu)勢(shì)并減輕潛在風(fēng)險(xiǎn)。
底層數(shù)據(jù)面臨的挑戰(zhàn)
企業(yè)在整合AI的過程中,需要采取擁有前瞻性的數(shù)據(jù)管理方法。Hugging Face等平臺(tái)提供了海量模型和數(shù)據(jù)集(截至目前已有超過150萬個(gè)模型和40萬個(gè)數(shù)據(jù)集)且其中大部分為開源,而企業(yè)應(yīng)確保以負(fù)責(zé)任且道德的方式使用這些信息,例如使用醫(yī)療數(shù)據(jù)集時(shí)應(yīng)嚴(yán)格遵守隱私法規(guī)。企業(yè)可通過落實(shí)強(qiáng)有力的數(shù)據(jù)治理實(shí)踐,更好地應(yīng)對(duì)這些復(fù)雜性。
同樣,有關(guān)大語言模型(LLM)訓(xùn)練數(shù)據(jù)的持續(xù)討論突出了尊重知識(shí)產(chǎn)權(quán)的重要性。如果能夠積極主動(dòng)地解決這些問題,AI生態(tài)系統(tǒng)將變得更加可持續(xù)且合法。此外,派拓網(wǎng)絡(luò)研究人員發(fā)現(xiàn)的惡意AI模型不僅證明了保持警惕的必要性,同時(shí)也促使企業(yè)開發(fā)出專門用于識(shí)別和緩解此類威脅的安全解決方案。
需要更多的控制措施
那么企業(yè)應(yīng)采取什么樣的措施?無論如何停止使用AI絕非明智之舉,而且對(duì)于希望保持競(jìng)爭(zhēng)力的現(xiàn)代企業(yè)而言并不現(xiàn)實(shí)。
關(guān)鍵在于采用“安全設(shè)計(jì)”理念,即將安全因素融入到AI應(yīng)用開發(fā)生命周期的各個(gè)階段,幫助開發(fā)者和數(shù)據(jù)專家構(gòu)建強(qiáng)大、可信的模型。一個(gè)綜合全面的AI安全平臺(tái)應(yīng)涵蓋多個(gè)關(guān)鍵領(lǐng)域:
· AI智能體安全:防止智能體受到新型代理威脅,例如工具濫用、身份冒充和內(nèi)存操控。
· AI模型掃描:通過主動(dòng)掃描AI模型發(fā)現(xiàn)漏洞,確保模型的使用安全。這能夠保護(hù)AI生態(tài)系統(tǒng)免受反序列化攻擊、模型篡改、惡意腳本等風(fēng)險(xiǎn)。
· 安全態(tài)勢(shì)管理:通過監(jiān)視與AI生態(tài)系統(tǒng)相關(guān)的安全態(tài)勢(shì)風(fēng)險(xiǎn),幫助企業(yè)避免因訪問或平臺(tái)配置錯(cuò)誤、敏感數(shù)據(jù)泄露,及過度授權(quán)導(dǎo)致的安全態(tài)勢(shì)風(fēng)險(xiǎn)。
· 運(yùn)行時(shí)安全:防止大語言模型(LLM)驅(qū)動(dòng)的數(shù)據(jù)、AI應(yīng)用和模型受到幻覺、有毒內(nèi)容、資源過載、提示注入、敏感數(shù)據(jù)泄露、惡意代碼等運(yùn)行時(shí)境威脅。
防御基于AI的數(shù)據(jù)泄露
在AI這片“無人區(qū)”,機(jī)遇與挑戰(zhàn)并存。一旦AI模型和數(shù)據(jù)集缺乏保護(hù),隨時(shí)可能發(fā)生大規(guī)模數(shù)據(jù)泄露。鑒于AI伴隨的風(fēng)險(xiǎn),企業(yè)似乎既離不開AI,又對(duì)其有所忌憚。但當(dāng)競(jìng)爭(zhēng)對(duì)手和攻擊者都在應(yīng)用AI時(shí),企業(yè)別無選擇。
AI能夠給企業(yè)帶來明顯的優(yōu)勢(shì),如加快應(yīng)用開發(fā)速度、提高流程自動(dòng)化程度、大幅提升生產(chǎn)力等。而要充分發(fā)揮這些優(yōu)勢(shì),企業(yè)從一開始就參考最佳實(shí)踐打下強(qiáng)大、安全的牢固基礎(chǔ),以保障AI應(yīng)用開發(fā)生命周期每個(gè)階段的安全,追蹤和監(jiān)控每位員工的AI使用情況,并時(shí)刻防止AI應(yīng)用中的數(shù)據(jù)遭到泄露和未經(jīng)授權(quán)的訪問。