Anthropic 公司公開 Claude AI 模型系統(tǒng)提示詞
8月27日,據(jù)科技媒體 TechCrunch 報(bào)道了人工智能公司 Anthropic 公開其 Claude AI 模型系統(tǒng)提示詞的消息。Anthropic 這一舉措表明其在推動(dòng)人工智能透明和道德標(biāo)準(zhǔn)方面的堅(jiān)定承諾。
在提示詞工程中,系統(tǒng)提示詞和用戶提示詞是 AI 模型理解和生成響應(yīng)的兩個(gè)核心組成部分。 一個(gè)是用戶提示詞,這是用戶直接輸入的提示詞,AI 模型會(huì)根據(jù)這些提示生成相應(yīng)的回答。另外一部分是系統(tǒng)提示詞,這是由系統(tǒng)生成的提示詞,通常用于設(shè)定對(duì)話背景、提供指導(dǎo)或規(guī)定規(guī)則。系統(tǒng)提示詞幫助模型理解自己的角色、基本素質(zhì)以及行為邊界。例如,它可以告知模型需要保持禮貌或在不確定時(shí)坦誠(chéng)承認(rèn)自己的局限性。
在行業(yè)內(nèi),包括 OpenAI 和 Anthropic 在內(nèi)的生成式人工智能廠商,普遍使用系統(tǒng)提示詞來引導(dǎo) AI 模型的行為,以避免不良或不當(dāng)?shù)男袨椤Mㄟ^這些提示,模型的語(yǔ)氣和情緒可以得到調(diào)控,確保與用戶互動(dòng)時(shí)的響應(yīng)更加可靠、安全。然而,出于安全性和競(jìng)爭(zhēng)優(yōu)勢(shì)的考慮,大多數(shù)廠商通常將這些系統(tǒng)提示詞保密,以防止惡意用戶繞過安全防護(hù)。
Anthropic 選擇公開 Claude AI 模型的系統(tǒng)提示詞,表明了其在透明度和道德操守方面的立場(chǎng)。Anthropic 已在其 Claude iOS 和 Android 應(yīng)用程序以及網(wǎng)絡(luò)平臺(tái)上公布了其最新模型(包括 Claude 3.5 Opus、Sonnet 和 Haiku)的系統(tǒng)提示詞。
Anthropic 開發(fā)者關(guān)系負(fù)責(zé)人亞歷克斯・艾伯特(Alex Albert)在社交媒體平臺(tái) X 上表示,Anthropic 計(jì)劃在未來對(duì)系統(tǒng)提示進(jìn)行更新和微調(diào),并且將定期公開這些信息。這種開放的姿態(tài)旨在推動(dòng)更廣泛的行業(yè)透明度,同時(shí)也為 AI 倫理和安全性設(shè)立新的標(biāo)準(zhǔn)。