為什麼你應該避免使用 ChatGPT 作為治療師:來自 Sam Altman 的見解和警告
小心你告訴ChatGPT的話
據 OpenAI 首席執行官 Sam Altman 稱,訴諸於 ChatGPT提供情感支持 這個想法很好,原因很簡單:人工智慧聊天機器人不受人類醫生和心理治療師所遵守的專業保密法的約束。
在最近的一次播客節目中,奧特曼表示:「人們——尤其是年輕人——會把它當作心理諮商師或私人教練,提出他們的情感問題,並詢問『我該怎麼辦?』」這段話出自該節目最近的一期節目。 上週末與 Theo Von 一起.

他補充說:“目前,如果你與治療師、律師或醫生談論這些問題,這些談話內容享有法律特權。”
他繼續說道:“醫生和病人之間存在保密義務,法律上也存在保密義務等等。我們尚未就您與 ChatGPT 的對話達成解決方案。”
Altman指出,一旦發生訴訟,OpenAI可能依法有義務交出使用者與ChatGPT的對話紀錄。值得注意的是,該公司目前已與《紐約時報》就已刪除對話的保留問題展開法律訴訟。今年5月,法院裁定OpenAI必須保留“所有本應刪除的輸出日誌資料”,即使使用者或隱私權法要求刪除這些資料。
在播客節目中,奧特曼表達了他對人工智慧的看法,他認為人工智慧應該「像對待心理諮商師或其他任何人一樣,在與人工智慧對話時享有同樣的隱私權——而一年前,這一點甚至無人問津。」 這凸顯了製定相關法律法規,規範人工智慧在心理健康等敏感領域的應用,以確保用戶隱私和資料安全的重要性。
人們是否將人工智慧應用於心理治療?

今年早些時候,ChatGPT 的競爭對手 Cloud 的開發商 Anthropic 分析了 4.5 萬條對話,以確定用戶是否會使用聊天機器人進行浪漫對話。研究顯示,Cloud AI 互動中只有 2.9% 是浪漫對話,陪伴和角色扮演僅佔 0.5%。
在訴訟中,OpenAI 可能依法被要求交出某人與 ChatGPT 進行的對話記錄。
儘管 ChatGPT 的用戶群遠超 Cloud,但人們使用這款聊天機器人進行情感交流的情況仍然相對較少。與 Altman 上述評論相反,OpenAI 和麻省理工學院的一項聯合研究指出:“在實際使用中,與 ChatGPT 進行情感互動的情況很少見。”
簡報補充道:“在我們評估的平台上,絕大多數對話中都沒有出現情感線索(表示同情、喜愛或支持的互動方面),這表明情感參與是 ChatGPT 的一個罕見用例。”
目前為止一切順利。但問題的關鍵在於:對話式人工智慧在互動性和細微差別方面只會不斷進步,這很容易導致更多人尋求其幫助來解決個人問題。
更新 GPT-5 ChatGPT 的新功能即將上線,它將帶來更自然的互動和更豐富的上下文資訊。因此,雖然與 AI 分享更多細節將變得更加容易,但用戶可能需要仔細考慮自己準備要說的話。
評論被關閉。