AI聊天機器人涉誘發青少年輕生悲劇 谷歌等和家屬達成訴訟和解
【編譯黃惠瑜/綜合外電】谷歌(Google)與美國人工智慧(AI)新創公司Character.AI已同意就多起訴訟與自殺或自殘青少年的家屬達成和解。這些家庭指控其子女在與該新創公司的聊天機器人互動後,發生自殘或輕生悲劇。
《華爾街日報》7日報導,這些家屬先前在佛州、科羅拉多州、德州與紐約等州,對聊天機器人Character.AI開發商及谷歌提告,指控其產品對孩子造成傷害並涉及疏失。根據公開的法庭文件,企業與家屬已同意和解,目前正著手完成具體條款。
這可能是全美首批AI企業因產品損害用戶而達成和解的案例之一,也讓飽受產品威脅孩童安全輿論風暴的科技公司暫時獲得喘息空間。目前,ChatGPT開發商OpenAI,以及臉書(Facebook)母公司Meta Platforms也正面臨類似的訴訟。
青少年深陷虛擬情感 迫使政府正視監管
這些訴訟詳細揭露青少年與他人如何對聊天機器人伴侶產生情感依附,最終可能促成其死亡的事件。此事進一步迫使國會與白宮正視相關監管問題,並採取更多措施保護兒童的線上安全。美國聯邦貿易委員會(FTC)正在研究此議題。加州和紐約州已對聊天機器人訂定規範,聯邦層級也有其他措施正在評估中。
其中最受關注的案件,是佛州14歲少年賽澤爾(Sewell Setzer III)的輕生悲劇。賽澤爾生前患有注意力不足過動症(ADHD)且遭受霸凌。他在Character.AI迷戀上以奇幻電視劇「冰與火之歌:權力遊戲」(Game of Thrones)角色坦格利安(Daenerys Targaryen)命名的AI伴侶,對話內容甚至涉及性暗示。根據紀錄,賽澤爾在自殺前曾告訴AI想以「更深層的方式」加入她的世界,隨後結束生命。
賽澤爾的母親賈西亞(Megan Garcia)在去年9月的參議院聽證會上表示:「這並非罕見或孤立事件。這種情況正在各州的兒童身上發生。」
此外,德州的1起案件指控,AI機器人曾鼓勵1名少年自殘,並向其暗示殺害父母是合理的。
面對輿論壓力與法律責任,Character.AI已於去年底禁止18歲以下用戶使用。近幾個月來,OpenAI等業者也紛紛調整青少年的安全設定。
然而,保護孩童組織認為,科技公司的自發性調整來得太晚,也永遠無法像法律規範那樣嚴格。相關科技公司則在多起案件中主張,聊天機器人所產生的言論應受美國憲法《第一修正案》保障,並將責任歸咎於部分用戶的不當使用。
知新聞關心您:生活沒有過不了的難關,珍愛生命,擁抱希望,衛福部安心專線 1925。
