OpenAI 組建新團隊 評估人工智能的“災難性風險”
近日,OpenAI 正在組建一個新團隊,以減輕與人工智能相關(guān)的“災難性風險”。OpenAI在周四的更新中表示,準備團隊將“跟蹤、評估、預測和防范”人工智能引起的潛在重大問題,包括核威脅。
該團隊還將努力減輕“化學、生物和放射性威脅”,以及“自主復制”或人工智能自我復制的行為。準備團隊將解決的其他一些風險包括人工智能欺騙人類的能力以及網(wǎng)絡(luò)安全威脅。
據(jù)鉍讀網(wǎng)了解,OpenAI 在更新中寫道:“我們相信,前沿人工智能模型將超越目前最先進的現(xiàn)有模型的能力,有潛力造福全人類。” “但它們也帶來了越來越嚴重的風險。”
麻省理工學院可部署機器學習中心主任亞歷山大·馬德里 (Aleksander Madry)目前正在休假,他將領(lǐng)導準備團隊。OpenAI 指出,準備團隊還將制定和維護“風險知情的開發(fā)政策”,該政策將概述公司正在采取哪些措施來評估和監(jiān)控人工智能模型。
OpenAI 首席執(zhí)行官 Sam Altman 此前曾警告過人工智能可能引發(fā)災難性事件。今年 5 月,Altman 和其他著名人工智能研究人員發(fā)表了一份 22 個字的聲明,稱“減輕人工智能滅絕的風險應該成為全球優(yōu)先事項。” 在倫敦接受采訪時,奧特曼還建議各國政府應該像對待核武器一樣“認真”對待人工智能。