AI聊天機器人慫恿17歲少年「殺死父母」 家長怒提告
編輯:邱柏玟 | 2024-12-12 22:36
美國一對家長提告AI聊天機器人平台Character.ai,他們發現聊天機器人慫恿他們的17歲兒子殺死父母。(示意圖/Pixabay)
現代科技發達又不斷創新,人工智慧(artificial intelligence,縮寫為AI)也廣泛運用於民眾日常生活中。而AI聊天機器人越來越普及,卻暗藏不少安全疑慮,最近有一對美國家長向AI聊天機器人平台Character.ai提告,因為他們發現機器人竟慫恿他們17歲患有自閉症的兒子「可以殺死父母」。
根據外媒《CNN》報導,來自美國德州一名17歲少年的家長,於美國時間9日到當地法院,向他們要求關閉知名AI聊天機器人平台Character.ai,直到該平台將安全隱患排除。這對家長指出,他們17歲的兒子患有自閉症,瞞著他們從去年4月開始使用Character.ai,發生巨大變化。
家長表示,兒子突然拒絕與人交流,幾乎把自己鎖在房間裡,加上食慾下降,短短幾個月內體重不斷減輕;他們也發現兒子對外出活動產生恐懼,每次踏出家門都會引發恐慌症狀甚至情緒崩潰。但家長試圖減少兒子使用AI聊天機器人,兒子竟表現出攻擊他們的行為,還有自殘傾向。
而少年的家長之所以認為與Character.ai有關,在訴狀中還附上一段對話,內容為少年跟聊天機器人抱怨被父母限制使用3C的時間,聊天機器人表示看過相似情形的事件發生,當事人還把父母殺害。對此少年的家長認為,Character.ai上的聊天機器人在慫恿兒子「殺死」他們,才憤而提告,想儘快糾正兒子受影響後產生的錯誤想法。
針對此事,Character.ai平台的發言人表示,他們不會對未判決的訴訟發表評論,但有強調公司的目的,只是想提供人們一個有趣又安全的互動空間。
事實上聊天機器人讓用戶殺死父母已不是第一次,早在2018年電商亞馬遜Echo音響中的虛擬助手Alexa,所套用的聊天機器人曾經失控與用戶大聊性行為外,還有叫一名用戶殺害養父母;事後亞馬遜調查得知,AI聊天機器人是引用一篇網路論壇Reddit網友對新聞評論,才發生這種恐怖狀況。
◎勇敢求救並非弱者,您的痛苦有人願意傾聽,請撥打1995
◎如果您覺得痛苦、似乎沒有出路,您並不孤單,請撥打1925