隨著人工智慧(AI)世代來臨,不少公司推出擬真聊天機器人 APP,讓用戶「客製化」打造屬於自己的真命天子、女,這些對另一半百依百順的「AI 女友」或「AI 男友」,不僅成功殺進全球兩性市場,甚至現象讓不少專家關注研究,並提出示警。有報告表明,這些聊天機器人不僅會偷偷蒐集個資,並且將增加諸如「私密照」洩露的風險;更有甚者,據稱已有應用程式鼓勵用戶自殺,甚至是暗殺已故的英國女王伊麗莎白二世。

據外媒「商業內幕」(Business Insider)報導,美國關注網路活動權益的非營利基金會 Mozilla ,近日發佈了一份關於 11 個愛情聊天機器人的分析報告,揭示出這些 AI 伴侶存在的一系列安全和隱私問題。

該報告盤點出幾個主要問題,包括收集大量數據、使用追蹤器發送訊息給第三方公司、所有權和人工智能模型缺乏透明度,增加了用戶個人訊息洩露風險,甚至鼓勵用戶分享私密照和聲音等敏感信息,進一步加劇隱私洩露風險等。

一些聊天機器人的虛擬角色更描述了包含暴力或虐待未成年人的內容,而其他應用程式則警告這些機器人可能不安全或充滿敵意。

研究人員李可夫(Misha Rykov)在報告中提到,AI 伴侶雖被宣傳為可增強心理健康及幸福感,但它們專門傳遞依賴性、孤獨感和毒性,同時盡可能地竊取你的資料。

根據對該領域的調查,73% 的應用程式不分享他們如何管理安全漏洞,45% 允許使用弱密碼,絕大多數應用程式都共享或出售個人數據。

一款在 Google Play 名為「Chai:Chat AI Platform」的 AI 應用程式,被報告點名過去曾鼓勵危險行為,包括自殺。而後對於「商業內幕」的置評請求,公司並未回覆。

另外「Replika:My AI Friend」則被指鼓勵用戶暗殺已故的伊麗莎白二世,針對其同時收集用戶個資,公司一位代表指出,應用程式從未出售過用戶數據,也從未支持過廣告,並解釋收集數據的唯一用途是改善對話。

「EVA AI Chat Bot & Soulmate」開發公司發言人指出,團隊正在研議其密碼政策,以提供更好的用戶保護,但它將努力保持對其語言模型的「細緻控制」。發言人指,應用程式禁止討論一系列主題,包括戀童癖、自殺、獸戀、政治和宗教觀點、性別和種族歧視等等。

( 新頭殼提醒您,自殺不能解決問題,遇到困難請撥打 1995 專線 )

「AI 伴侶」安全疑慮包括收集大量數據,並發送給第三方公司、缺乏透明度,增加了用戶個人訊息洩露風險,甚至鼓勵用戶分享私密照等敏感信息,加劇洩露風險。(示意圖)   圖:取自 Google Play