5月3日消息,據(jù)外電報(bào)道,微軟的一份新報(bào)告概述了該公司去年為發(fā)布負(fù)責(zé)任的人工智能平臺(tái)所采取的步驟。
在主要涵蓋 2023 年的《負(fù)責(zé)任的人工智能透明度報(bào)告》中,微軟宣揚(yáng)了其在安全部署人工智能產(chǎn)品方面取得的成就。
年度人工智能透明度報(bào)告是該公司去年7月與白宮簽署自愿協(xié)議后做出的承諾之一。微軟和其他公司承諾建立負(fù)責(zé)任的人工智能系統(tǒng)并致力于安全。
微軟在報(bào)告中表示,它在過去一年中創(chuàng)建了 30 個(gè)負(fù)責(zé)任的人工智能工具,擴(kuò)大了負(fù)責(zé)任的人工智能團(tuán)隊(duì),并要求開發(fā)生成式人工智能應(yīng)用程序的團(tuán)隊(duì)在整個(gè)開發(fā)周期中衡量和繪制風(fēng)險(xiǎn)。
該公司指出,它在其圖像生成平臺(tái)中添加了內(nèi)容憑證,該平臺(tái)在照片上添加水印,將其標(biāo)記為由人工智能模型制作。
該公司表示,它為 Azure AI 客戶提供了檢測(cè)仇恨言論、性內(nèi)容和自殘等問題內(nèi)容的工具,以及評(píng)估安全風(fēng)險(xiǎn)的工具。這包括新的越獄檢測(cè)方法,該方法于今年 3 月進(jìn)行了擴(kuò)展,包括間接提示注入,其中惡意指令是人工智能模型攝取的數(shù)據(jù)的一部分。
它還正在擴(kuò)大其紅隊(duì)工作,包括故意嘗試?yán)@過其人工智能模型中的安全功能的內(nèi)部紅隊(duì),以及紅隊(duì)?wèi)?yīng)用程序,以允許在發(fā)布新模型之前進(jìn)行第三方測(cè)試。
然而,其紅隊(duì)部隊(duì)的工作卻很艱巨。該公司的人工智能推出也未能幸免于爭(zhēng)議。
當(dāng) Bing AI 于 2023 年 2 月首次推出時(shí),用戶發(fā)現(xiàn)該聊天機(jī)器人自信地陳述了不正確的事實(shí),并一度教會(huì)人們種族歧視。 10 月份,Bing 圖像生成器的用戶發(fā)現(xiàn)他們可以使用該平臺(tái)生成馬里奧(或其他流行角色)駕駛飛機(jī)飛往雙子塔的照片。泰勒·斯威夫特 (Taylor Swift) 等名人的 Deepfake 裸照在一月份在 X 上流傳。
據(jù)報(bào)道,這些圖片來自一個(gè)分享使用 Microsoft Designer 制作的圖像的小組。微軟最終堵住了生成這些圖片的漏洞。
當(dāng)時(shí),微軟首席執(zhí)行官薩蒂亞·納德拉 (Satya Nadella)表示,這些圖像令人震驚且可怕。
微軟首席人工智能官娜塔莎·克蘭普頓 (Natasha Crampton) 在電子郵件中表示,該公司明白人工智能仍是一項(xiàng)正在進(jìn)行的工作,負(fù)責(zé)任的人工智能也是如此。
「負(fù)責(zé)任的人工智能沒有終點(diǎn)線,所以我們永遠(yuǎn)不會(huì)考慮我們?cè)谧栽溉斯ぶ悄艹兄Z下的工作。但自簽署以來我們已經(jīng)取得了巨大進(jìn)展,并期待今年繼續(xù)保持我們的勢(shì)頭。」克蘭普頓說。