世界數(shù)字技術院發(fā)布大模型安全標準 推動AI安全評估新進程
最近,世界數(shù)字技術院(WDTA)發(fā)布了兩項國際標準,即《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》,這標志著國際組織首次就大模型安全領域發(fā)布了國際標準,為全球人工智能安全評估和測試樹立了新的基準。
這兩項標準的發(fā)布是多家知名單位的多名專家學者共同編制的成果,包括OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等。《生成式人工智能應用安全測試標準》由WDTA牽頭制定,為測試和驗證生成式AI應用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構建的應用程序。該標準定義了人工智能應用程序架構每一層的測試和驗證范圍,確保AI應用各個方面都經(jīng)過嚴格的安全性和合規(guī)性評估,保障其在整個生命周期內免受威脅和漏洞侵害。
《大語言模型安全測試方法》由螞蟻集團牽頭制定,為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結構性方案。該標準提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,并給出了四種不同攻擊強度的分類標準,可解決大語言模型固有的復雜性,全面測試其抵御敵對攻擊的能力。
WDTA人工智能安全可信負責任工作組組長黃連金表示,隨著人工智能系統(tǒng),特別是大語言模型的廣泛應用,制定全面的安全標準變得至關重要。這些標準匯集了全球AI安全領域的專家智慧,填補了安全測試領域的空白,為業(yè)界提供了統(tǒng)一的測試框架和明確的測試方法,有助于提高AI系統(tǒng)安全性,促進AI技術負責任發(fā)展,增強公眾信任。