研究:過度使用 ChatGPT 可能導致情感依附

OpenAI似乎每週都在發布新的AI模型,以改進其針對400億用戶的ChatGPT聊天機器人。然而,這款AI工具的易用性也表明,好事過頭可能會適得其反。

這家人工智慧公司目前正在深入研究 ChatGPT 可能對其用戶產生的潛在心理影響。該公司已發布相關報告。 OpenAI 結果 兩部分研究 這項與麻省理工學院媒體實驗室合作進行的研究揭示了 ChatGPT 聊天機器人使用量的增加與使用者孤獨感的增加之間的關聯。

每個機構都進行了獨立研究,然後將結果匯總成一個統一的結論。 OpenAI 的研究在一個月內分析了“超過 40 萬次與 ChatGPT 的交互”,為了保護用戶隱私,整個過程沒有人工幹預。同時,麻省理工學院監測了近 1000 名使用該平台的參與者。 ChatGPT 歷時28天。這些研究尚未經過同行評審。

麻省理工學院的研究深入探討了使用者在使用ChatGPT時可能影響其情緒體驗的各種使用功能,包括使用文字和語音。研究結果表明,這兩種方式都有可能引發使用者的孤獨感,或影響使用者在研究期間的社交互動。語音語調和話題選擇是比較的關鍵點。

在ChatGPT的語音模式下使用中性語氣,可以降低參與者產生負面情緒的可能性。同時,研究發現,參與者與ChatGPT進行面對面對話會增加孤獨感;然而,這種影響是短暫的。即使是那些使用文字聊天討論一般主題的人,也更容易對聊天機器人產生情感依賴。

研究還指出,那些表示將 ChatGPT 視為朋友的人,以及那些在人際關係中本身就傾向於建立強烈情感聯繫的人,在參與研究期間更有可能感到孤獨,並在情感上依賴聊天機器人。

OpenAI 的研究進一步補充了相關背景信息,其研究結果總體表明,使用者與 ChatGPT 之間出於情感動機的互動非常罕見。此外,研究還發現,即使是那些經常使用聊天機器人高級語音模式功能、更有可能將 ChatGPT 視為朋友的重度用戶,在與聊天機器人互動時也表現出較低的情緒反應。

OpenAI 總結說,這些研究的目標是了解其技術可能帶來的挑戰,以及能夠識別其模型可能被使用的預測和範例。

雖然 OpenAI 聲稱其基於互動的研究模擬了真人的行為,但不少真人已經在公開論壇上承認, 像Reddit一樣透過使用 ChatGPT 來傾訴他們的感受,而不是去看心理醫生。

評論被關閉。