11年前的美國電影《她》講述社恐男愛上AI薩曼莎的故事,如今電影場景已成為現實。在社交平臺搜索“AI伴侶”,很多網友分享了自己與AI伴侶的日常。近期舉辦的2024年世界互聯網大會熱議了今年發生的“全球首例AI機器人致死案”。AI技術延伸更多領域的同時也帶來更複雜的潛在風險。
“AI伴侶”有市場需求,因其基於用戶行為數據進行分析,精準迎合了用戶情緒需要。但不得不承認的是,AI的本質是數據和算法,其背後的應用邏輯必然潛藏著多重風險。今年2月,美國一名14歲男孩長期癡迷和AI機器人聊天,在某天進行最後一次對話後自殺身亡。此案被媒體認為是“全球首例AI機器人致死案”,這起悲劇暴露出了AI技術失范的危害。
一方面,支持“AI伴侶”的模型需接受大量數據訓練,以便模倣回應,如浪漫小説和愛情故事等,這些信息來源廣泛且缺乏足夠的篩選和審核機制,導致“AI伴侶”可能傳播不良信息,並且一旦程序出現漏洞或被不法分子惡意利用,其後果更是不堪設想。
另一方面,AI伴侶在與用戶的交互過程中還會通過收集大量的個人信息。與“AI伴侶”交流互動越頻繁、越密切,“AI伴侶”獲取的個人隱私也就越精準豐富。而這些用戶數據,若被不當使用或洩露,將對用戶的隱私安全構成嚴重威脅。
此外,AI伴侶産品並非免費的午餐,用戶很容易陷入無盡的充值陷阱中。從一些網友反饋來看,當前不少AI伴侶産品可免費使用基礎功能,但“沉浸式體驗”比如語音通話、音樂電臺、照片等特色功能,則需按月或按年付費訂購。部分産品還設計了“記憶提升卡”等付費道具,讓AI伴侶能更好地針對使用者的習慣、愛好等作出回應。同時,定制劇本、多重劇情、及時反饋等遊戲化設置,也不斷刺激用戶對AI戀人的消費慾望和情感期待。
不少案例顯示,伴隨著AI伴侶擬人化程度的提高,用戶可能會對其産生過度的情感依賴,無法辨別現實與虛擬的界限,繼而受到情感傷害,尤其是心理脆弱群體,所受到的衝擊可能更大。而且長期依賴AI伴侶交流和獲得情感需求,還會導致社交技能退化。
説到底,“AI伴侶”是一種數字關係,是人類互動的補充之一,在鼓勵和支持AI技術創新應用於情感交流、心理健康等領域的同時,也應該明確“AI伴侶”在數據保護、內容審核、商業行為規範等方面的法律責任與義務,防止傳播違背公序良俗的信息。另外,當前國內外發佈的AI倫理準則大多較為宏觀,建議細分領域,構建AI情感溝通防沉迷機制,根據用戶年齡、適用場景等進一步細化,讓“AI伴侶”在合法合規的框架內,才能為人們創造更加智慧、便捷、安全的陪伴體驗,助力構建和諧美好的數字社會。
揚子晚報/紫牛新聞記者 孔小平