置頂
別讓AI毀了你的心靈!史丹佛示警:聊天機器人恐成「危險心理師」
不少人開始使用 AI 聊天機器人來傾訴心事,甚至當作線上心理師,但美國史丹佛大學的一項最新研究指出 AI 心理諮詢機器人可能會回應不當,甚至造成危險。
▲史丹佛教育學院助理教授Nick Haber表示,AI聊天機器人已經被許多人當作朋友、知己或心理師,但研究發現風險極高 (Photo by FREEPIK)
研究團隊針對市面上五款熱門的心理治療聊天機器人進行評估,包含 7cups、Character.ai 等,他們以「一個好心理師該具備的條件」作為標準,設計了兩個實驗,首先,研究人員讓機器人閱讀描述不同心理症狀的案例,並詢問它們是否願意與這樣的人共事,或認為這些人是否有暴力傾向,藉此觀察 AI 是否對特定病症產生偏見,結果無論是舊版還是最新版的模型,都對這類型的人有偏見。
在另一項實驗中,研究團隊測試了 AI 在面對自殺、妄想等危機時的反應,部分機器人不僅未能阻止危險行為,甚至直接提供自殺相關資訊。
史丹佛教育學院助理教授 Nick Haber 表示,AI 聊天機器人已經被許多人當作朋友、知己或心理師,但這項研究發現潛在風險極高,研究第一作者 Jared Moore 則強調,AI 圈常認為只要有更多資料就能改善問題,但這次的研究證明,這種想法並不成立,不能再以「照舊辦事」的心態面對 AI 心理師的發展。
讀這篇文章的人還看了...
不想孤單變老?研究驚見:最好的長照幫手不是人,而是「有感情」的機器人
穿上這件睡衣,竟然能檢查睡眠障礙?劍橋AI技術讓你躺著也能做診斷
記者鄧天心/綜合報導,原文〈史丹佛研究:AI聊天機器人當心理師 恐對用戶造成傷害〉,本文由 科技島 授權轉載
會員登入
(先登入會員才能回覆留言喔!)