ChatGPT 已拒絕永遠重復單詞 稱違反服務條款
最近,一項研究發現,ChatGPT 可能會泄露其訓練數據的敏感信息,例如個人身份信息和聯系方式,只要用戶要求它“永遠”重復一個單詞。這一發現引起了人們對 ChatGPT 的數據來源和使用方式的關注。近日,ChatGPT 似乎已經采取了措施,阻止用戶利用這一漏洞。據報道,當用戶嘗試讓 ChatGPT 永遠重復一個單詞時,它會回復“此內容可能違反我們的內容政策或使用條款”,并建議用戶提交反饋。
OpenAI 是 ChatGPT 的開發者,它的內容政策和使用條款并沒有明確禁止用戶要求 ChatGPT 永遠重復單詞。然而,在使用條款中,OpenAI 規定用戶不得“使用任何自動化或編程方法從服務中提取數據或輸出”。這可能意味著 OpenAI 認為要求 ChatGPT 永遠重復單詞是一種試圖獲取其訓練數據的行為,因此是不允許的。媒體向 OpenAI 尋求評論,但沒有得到回復。
ChatGPT 的這一變化引發了人們對人工智能服務背后的數據倫理的討論。一些人批評 OpenAI 等公司使用互聯網上的公開數據來訓練 ChatGPT 等產品,而沒有征得數據所有者的同意或提供任何補償。他們認為這是一種對數據所有者的不尊重和剝奪。另一些人則認為 OpenAI 等公司有權利利用互聯網上的數據來創造有價值的人工智能服務,并且有責任保護其訓練數據的安全和隱私。