4月16日,世界數(shù)字技術(shù)院(WDTA)發(fā)布了《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》兩項國際標準。這也是國際組織首次就大模型安全領(lǐng)域發(fā)布國際標準,代表全球人工智能安全評估和測試進入新的基準。
據(jù)了解,這兩項國際標準是由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數(shù)十家單位的多名專家學者共同編制而成。
圖:WDTA發(fā)布大模型安全國際標準,OpenAI、螞蟻集團、科大訊飛等參編
與會的WDTA人工智能安全可信負責任工作組組長黃連金表示,隨著人工智能系統(tǒng),特別是大語言模型繼續(xù)成為社會各方面不可或缺的一部分,以一個全面的標準來解決它們的安全挑戰(zhàn)變得至關(guān)重要。
此次發(fā)布的標準匯集了全球AI安全領(lǐng)域的專家智慧,填補了大語言模型和生成式AI應用方面安全測試領(lǐng)域的空白,為業(yè)界提供了統(tǒng)一的測試框架和明確的測試方法,有助于提高AI系統(tǒng)安全性,促進AI技術(shù)負責任發(fā)展,增強公眾信任。
其中,《生成式人工智能應用安全測試標準》由WDTA作為牽頭單位。該標準為測試和驗證生成式AI應用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構(gòu)建的應用程序。
它定義了人工智能應用程序架構(gòu)每一層的測試和驗證范圍,包括基礎(chǔ)模型選擇、嵌入和矢量數(shù)據(jù)庫、RAG或檢索增強生成、AI應用運行時安全等等,確保AI應用各個方面都經(jīng)過嚴格的安全性和合規(guī)性評估,保障其在整個生命周期內(nèi)免受威脅和漏洞侵害。
《大語言模型安全測試方法》由螞蟻集團作為牽頭單位。該標準則為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結(jié)構(gòu)性方案。
它提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,并率先給出了四種不同攻擊強度的攻擊手法分類標準,提供了嚴格的評估指標和測試程序等,可解決大語言模型固有的復雜性,全面測試其抵御敵對攻擊的能力,使開發(fā)人員和組織能夠識別和緩解潛在漏洞,并最終提高使用大語言模型構(gòu)建的人工智能系統(tǒng)的安全性和可靠性。
據(jù)了解,世界數(shù)字技術(shù)院(WDTA)是在日內(nèi)瓦注冊的國際非政府組織,遵從聯(lián)合國指導框架,致力于在全球范圍內(nèi)推進數(shù)字技術(shù),促進國際合作。AI STR(安全、可信、負責任)計劃是WDTA的核心倡議,旨在確保人工智能系統(tǒng)的安全性、可信性和責任性。螞蟻集團、華為、科大訊飛、國際數(shù)據(jù)空間協(xié)會(IDSA)、弗勞恩霍夫研究所、中國電子等均為其成員單位。
近年來,世界各國都在加強對于大模型安全的研究和管控。我國先后發(fā)布了《全球人工智能治理倡議》《生成式人工智能服務管理暫行辦法》《生成式人工智能服務安全基本要求》等,旨在促進生成式人工智能安全可信發(fā)展,推進全球人工智能治理領(lǐng)域合作共識。
作為標準參與單位代表,螞蟻集團機器智能部總經(jīng)理、螞蟻安全實驗室首席科學家王維強受邀參會并進行了發(fā)言。他表示,生成式AI將釋放巨大的生產(chǎn)力,但也要對它帶來的新風險高度警惕。
大型科技公司應在促進生成式AI安全和負責任的發(fā)展中發(fā)揮關(guān)鍵作用,利用其資源、專業(yè)知識和影響力推動最佳實踐,構(gòu)建一個優(yōu)先考慮安全、隱私和道德考量的生態(tài)系統(tǒng)。例如,通過制定行業(yè)標準與指南,為開發(fā)和部署生成式AI系統(tǒng)的開發(fā)者和機構(gòu)提供清晰指導;投入研發(fā)并開放保障生成式AI安全的工具,形成產(chǎn)業(yè)共治。