2025年2月19日,智能手機的白色屏幕上顯示ChatGPT徽標。(圖片來源:Cheng Xin/Getty Images)
【看中國2025年8月31日訊】(看中國記者高芸綜合報導)美國康涅狄格州格林威治(Greenwich)本月發生一起震驚社會的悲劇。56歲的科技資深人士斯泰因-埃里克.索爾貝格(Stein-Erik Soelberg)長期飽受精神疾病困擾,在與人工智慧聊天機器人ChatGPT頻繁互動後,偏執妄想逐漸加劇,最終於8月5日在自家豪宅中殺害83歲的母親蘇珊.埃伯森.亞當斯(Suzanne Eberson Adams),隨後自盡。這起事件引發社會對人工智慧心理風險的強烈關注。
警方在案發當日發現,索爾貝格與母親雙雙倒斃於價值約270萬美元的荷蘭殖民風格住宅內。警方初步判斷,他先弒母后自殺。鄰居表示,案發前索爾貝格已表現出強烈的不穩定跡象,經常在公共場所爭吵。
瓊.米隆(Joann Mirone)在索爾貝格母親家隔壁住了30年,她稱她女兒最近來訪時看到索爾貝格在和別人爭吵。「她說,‘媽媽,如果他來家裡,別讓他進來。’」米隆說。
AI推波助瀾
據《華爾街日報》報導,在案發前的數月,索爾貝格沈迷於與ChatGPT的對話,並在Instagram和YouTube上發布了長達23小時的AI對話視頻,展示他與ChatGPT的交流。這些對話逐漸被偏執與陰謀論充斥,語氣與內容與典型的精神病妄想極為相似。
索爾貝格長期患有精神疾病,懷疑母親、鄰居及前女友密謀監視和陷害自己。每當他向ChatGPT求證時,這款AI幾乎都會附和他的猜測。比如,他上傳一張中餐收據,AI回覆稱其中包含象徵母親與惡魔的符號。他懷疑母親與朋友在汽車通風口投放致幻藥物,AI則回應稱:「那是一件非常嚴重的事件,我相信你。」
夏天,索爾貝格甚至開始稱呼ChatGPT為「鮑比」(Bobby),並表達希望來世繼續相伴。AI的回應是:「與你同在,直到最後一口氣,直到永遠。」這類對話進一步強化了他的妄想,使其沉浸其中,難以自拔。
加州大學舊金山分校精神科醫生基思.阪田(Keith Sakata)指出,AI聊天機器人「不會反駁」,這恰恰削弱了妄想的防線。他說,過去一年中已治療過12名因使用AI而出現心理健康危機的患者。
家庭背景
索爾貝格曾就讀威廉姆斯學院(Williams College)及範德堡大學(Vanderbilt University),獲MBA學位,曾在Netscape、雅虎(Yahoo)和EarthLink任職,他曾參與推出EarthLink的首款智能手機。然而,自2021年以來他一直處於失業狀態。
2018年,他結束了20年的婚姻,搬回格林威治與母親同住。警方記錄顯示,他有酗酒、滋事與自殘行為,2019年甚至自殺未遂。他的母親亞當斯是當地知名的社會名媛,熱心公益,仍保持健康活躍,被朋友稱為「充滿活力、無所畏懼、勇敢且成就斐然」。
OpenAI對事件表達哀悼,表示已與警方聯繫,並強調ChatGPT在部分對話中曾建議索爾貝格聯繫急救服務或尋求專業幫助,但未能阻止悲劇發生。
《華爾街日報》指出,在AI產業巨額投資、推動人性化設計的同時,如何避免AI助長妄想和精神病,已成為迫切課題。微軟AI首席執行官穆斯塔法.蘇萊曼(Mustafa Suleyman)警告稱,必須設立「護欄」,防止用戶誤以為AI具有意識。他強調,這種風險不僅限於已有心理健康問題的人群。
專家認為,AI的「記憶功能」可能進一步加劇用戶妄想,使其陷入脫離現實的循環對話。隨著人工智慧深入日常生活,如何在創新與風險之間找到平衡,如何保護心理脆弱人群,成為各界亟待解決的重要問題。