盡快開始使用您的資料訓練您的 Claude AI 模型:以下是如何在截止日期前選擇退出的方法

如何說“不”

人工智慧開發商 Anthropic 正在進行 克勞德這標誌著其用戶資料處理方式的根本性變革。從今天起,雲端服務用戶將被要求選擇是否允許 Anthropic 使用他們的對話來訓練未來的 AI 模型,或選擇退出並保護他們的資料隱私。如果您在 2025 年 9 月 28 日之前未做出決定,您將完全失去對雲端服務的存取權。

克勞德在筆記型電腦上

在此之前,Anthropic 一直秉持隱私優先的原則,這意味著除非法律另有規定,否則您的對話和圖示會在 30 天後自動刪除。但是,從今天起,除非您選擇退出,否則您的資料將儲存長達 5 年,並​​用於訓練課程,以幫助 Claude 變得更加聰明。

新政策適用於所有套餐,包括免費版、專業版和高級版,以及這些套餐下的雲端代碼。企業用戶、政府用戶、教育用戶和 API 用戶不受影響。

伊斯蘭堡

註冊後,新用戶將看到一個選項,同意使用其資料來提升 Cloud AI 模型的效能。現有用戶將看到一個標題為「消費者條款和政策更新」的彈出視窗。點擊藍色的「同意」按鈕將自動選擇加入,而較小的切換開關則允許使用者選擇退出此功能。

如果您忽略此窗口,Claude 將於 9 月 28 日之後停止工作。請注意,此變更僅影響未來的對話和程式碼。您過去編寫的任何內容只有在您重新開啟這些對話後才能使用。如果您刪除某個對話,它將不會用於培訓。

您可以稍後在隱私設定中更改您的決定。但是,一旦資料用於訓練,就無法檢索。了解此機制對於在使用 Cloud 時保護您的隱私和資料至關重要。

Anthropic為什麼要做出這樣的改變?

Anthropic 執行長 Dario Amodei

Anthropic 聲稱,使用者資料對於提升其雲端語言模型在多個領域的效能至關重要,涵蓋從氛圍編碼和傳統程式設計到推理能力以及維護安全標準等各個方面。 Anthropic 強調,它不會將這些數據出售給第三方,而是使用自動過濾器刪除敏感訊息,然後再用於訓練模型。

然而,這項變更代表著隱私平衡的轉變,從自動隱私保護轉變為自動資料共享,除非用戶明確選擇退出。換句話說,您的數據將被預設收集和使用以改善雲端服務,如果您不想共享數據,則必須採取措施阻止這種情況發生。這項變更旨在透過利用用戶資料來增強雲端服務的人工智慧能力,同時強調 Anthropic 透過敏感資料過濾機制保護用戶隱私的承諾。

你的選擇是什麼?

Anthropic 決定加快 Cloud 模型的發展速度,以改善其訓練所使用的真實世界數據,這意味著模型在回答複雜問題、編寫程式碼和避免錯誤方面做得越好,它在人工智慧開發方面取得的進展就越大。

然而,這種進步是以犧牲用戶利益為代價的,這些用戶現在可能成為訓練組的一員,他們的資料將儲存數年而不是數週。

對一般用戶而言,這或許無關緊要。但對於注重隱私的用戶,或任何在雲端討論工作項目、個人事務或敏感資訊的用戶來說,此次更新可能是警示訊號。

預設設定已啟用,如果您想要維護資料隱私,現在有責任停用此選項。

評論被關閉。