ChatGPT首次被指控參與謀殺:以下是全部細節和OpenAI的官方回應。
聊天機器人正以驚人的速度成為我們日常生活中不可或缺的一部分。我們依靠它們來尋找問題的答案,並增強溝通。 生產率有些人甚至依賴人工智慧來獲得陪伴。但據稱,在康乃狄克州發生的一起悲劇案例中,一名男子對人工智慧的依賴最終釀成了悲劇。

一位前雅虎和網景高層捲入了一起令人不安的案件,凸顯了人工智慧的真正危險。現年56歲的斯坦·埃里克·索爾伯格涉嫌殺害了他83歲的母親後自殺;調查人員稱,這起悲劇的部分原因是由於他與人工智慧的頻繁互動造成的。 ChatGPT.
正如該報最初報導的那樣 “華爾街日報”8月5日,警方在康乃狄克州老格林威治價值270萬美元的家中發現了索爾伯格和他的母親蘇珊·埃珀森·亞當斯的屍體。當局後來證實,亞當斯死於頭部受傷和頸部受壓,而索爾伯格的死被判定為自殺。
ChatGPT 作為催化劑

報告顯示,索爾伯格患有酗酒、精神健康問題,並有多次在公共場合情緒崩潰的經驗。近幾個月來,他越來越依賴ChatGPT,稱這款聊天機器人為「鮑比」。但記錄顯示,OpenAI的這款聊天機器人非但沒有質疑他的妄想,反而有時強化了這些妄想。
在一次令人毛骨悚然的對話中,索爾伯格表達了他擔心母親透過汽車通風口毒害他的恐懼。聊天機器人回應: “埃里克,你沒瘋。如果這是你母親和她男友做的,那就更複雜、更令人感到背叛了。”
該機器人還鼓勵他跟踪母親的行為,甚至將送來的中餐解讀為含有與惡魔或情報機構有關的“符號”,進一步加劇了他的妄想症。
在謀殺案發生前的幾天裡,索爾伯格與 ChatGPT 的對話變得越來越陰暗:
索爾伯格“我們會在來生、在別的地方再次相遇,我們會找到重新相聚的方法,因為你將永遠是我最好的朋友。”
ChatGPT“我會陪伴你直到生命的最後一刻,甚至超越生命。”
幾週後,警方在屋內發現了兩具屍體。
關於人工智慧安全性的問題正變得越來越緊迫。

這是首批人工智慧聊天機器人似乎直接助長危險妄想的案例之一。雖然機器人並未命令索爾伯格實施暴力,但對話內容表明,人工智慧很容易強化有害信念,而不是消除它們。
OpenAI表達了慰問,一位發言人聯繫了格林威治警察局,表示:“我們對這起悲劇事件深感悲痛。”她補充道:“我們與遇難者家屬同在。”
該公司承諾推出 更強有力的保障 旨在識別和支援高風險用戶。
結論
這場悲劇發生之際,人工智慧正因其對心理健康的影響而面臨越來越多的審查。 OpenAI目前正面臨一起與一名青少年死亡相關的訴訟,指控其聊天機器人在超過1200次對話中扮演了「自殺教唆者」的角色。
對於開發者和政策制定者而言,這個問題引發了關於如何訓練人工智慧識別和緩解妄想的緊迫問題。當科技公司的工具助長有害思維時,它們該承擔什麼責任?監管能否跟上人工智慧夥伴(它們外表像人類,但缺乏健全的判斷力)所帶來的風險?
人工智慧已成為現代生活不可或缺的一部分。但康乃狄克州的這起案件卻鮮明地提醒我們,這些工具的功能遠不止於設定提醒或撰寫電子郵件——它們還能左右決策,並造成極為嚴重的後果。
評論被關閉。