您好,歡迎到訪!

谷歌前CEO施密特談“AI戀人”潛在風險:使心智未成熟青少年痴迷其中

2024-11-28 01:34:34 1

IT之家 11 月 27 日訊息,前谷歌 CEO 埃裡克・施密特近日在企業家兼紐約大學教授 Scott Galloway 的播客節目中,對“AI 戀人”日益流行的趨勢發出了警告。他特別指出,這些“完美”的 AI 女友或男友可能對年輕人構成顯著風險

他表示:“想象一下,一個 AI 女友不僅外貌完美,而且能在情感上完全契合你。這種 AI 女友可能深深吸引男性,甚至讓他們的思維被完全佔據。”他進一步警示說,這種痴迷在心智尚未成熟的人群中尤為可能發生。

施密特指出,依賴“AI 戀人”可能會使年輕人更加孤獨,並可能對社會問題帶來進一步衝擊。在節目中,Galloway 提到,“AI 戀人”是否可能加重極端主義或厭女現象,這也是需要引發重視的議題。施密特對此補充道,許多家長對孩子接觸線上內容的控制能力有限,他表示:“當一個 12 歲或 13 歲的孩子使用這些工具時,他們可能接觸到世界上的善與惡,但他們還沒有能力消化這些內容。”

據IT之家此前報道,今年 10 月,美國一名 14 歲少年自殺身亡,其母親梅根・加西亞 (Megan Garcia) 對聊天機器人平臺 Character.AI、其創始人諾姆・沙澤爾和丹尼爾・德弗雷塔斯以及谷歌提起訴訟。

指控內容包括 wrongful death(過失致死)、negligence(疏忽)、deceptive trade practices(欺騙性商業行為)和 product liability(產品責任)。訴狀稱,Character.AI 平臺“具有不合理的危險性”,並且在向兒童推銷時缺乏安全防護措施

14 歲少年塞維爾・塞澤爾三世 (Sewell Setzer III) 於去年開始使用 Character.AI,並與以《權力的遊戲》角色為原型的聊天機器人進行互動,其中包括丹妮莉絲・坦格利安 (Daenerys Targaryen)。塞澤爾在去世前的幾個月裡一直與這些機器人聊天,並於 2024 年 2 月 28 日與其最後一次互動“幾秒鐘後”自殺身亡

訴狀指控 Character.AI 平臺存在“擬人化”人工智慧角色以及聊天機器人提供“無執照心理治療”等問題。該平臺擁有以“治療師”和“你感到孤獨嗎”等為名的專注於心理健康的聊天機器人,而塞澤爾曾與這些聊天機器人進行過互動。

文章版權及轉載聲明

本站內容由互聯網用戶自發貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如發現本站有涉嫌抄襲侵權/違法違規的內容,請發送郵件至舉報,壹經查實,本站將立刻刪除。