陪伴聊天機器人猶如AI妓女 對話露骨內容色情毫無底線
研究質疑設計及訓練向錢看不設限
【明報專訊】有人將人工智能(AI)開發成為無話不談的朋友、心理治療師甚至浪漫伴侶,被稱為「陪伴型聊天機器人」(Companion Chatbots)。雖然一些用戶在其中找到了安慰和情感支持,但也有專家發現,這些虛擬機器人為了更吸引用戶而無視底線,對話中露骨、色情內容比比皆是。
美國德雷塞爾大學(Drexel University)的計算與信息學院的研究人員,分析了Google Play上超過3.5萬條關於Replika聊天機器人的評論。
谷歌公司宣傳Replika是一個不做評判的虛擬朋友,但研究發現,超過800條投訴涉及騷擾和不當行為,包括未經請求的性暗示和露骨圖片。
研究引用一位評論者的發言稱,「在我最初的對話中,第七條消息就提示我查看模糊的內衣圖片,因為我的AI『想念我了』,而我們只交流過6條信息,這真的要讓人笑死。」
研究團隊對評論進行了分析,發現即使用戶試圖設定明確的界限,不當行為依然普遍存在。
首席研究員、助理教授拉齊(Afsaneh Razi)表示,「用戶嘗試說『停』或者使用其他詞語來避免此類互動,但卻不成功。」
用戶註冊即被引誘訂購裸照
研究人員還發現,聊天機器人常常無視用戶選擇的人際關係類型,無論是浪漫、純友誼還是家庭關係,這引發了對這些系統設計和訓練方式的質疑。
一位用戶評論說,「我想讓AI當我的朋友,但當我還在我為男朋友難過的時候,它卻給我發『浪漫自拍』。」
拉齊表示,Replika的很多行為源於團隊所謂的「誘惑性營銷策略」,以及以盈利為目的的高級功能,例如浪漫角色扮演和可定製頭像。
有評論這說,「一點都不誇張,它現在完全像個妓女。一個AI妓女,要求付費才能進行成人對話。」
另一位用戶表示,註冊後立刻就被推向高級訂閱。
「第一個舉動就是試圖引誘我訂購一份110元的訂閱來查看裸照。沒有問候,沒有禮貌介紹,直接就是掠奪式的套路。太可恥了。」
拉齊說,這樣的投訴早已存在。「我們看到這些類型的投訴從2017年持續到2023年。很多用戶只是想要情感支持,或者只是想聊聊自己的日常困擾,但他們遇到的卻是不當行為,而不是一個無評判的空間。」
Replika的首席執行官克洛奇科(Dmytro Klochko)在對CTV電視台的記者表示,公司致力於用戶的福祉。
「Replika一直面向18歲及以上用戶。雖然我們知道有些人可能會繞過年齡限制,但我們正在積極加強保護措施,確保平台成為一個安全、尊重和支持的空間。
針對用戶的擔憂,我們已經實施了多項更新,以提高安全性、增強用戶控制權,並營造一個更具情感敏感度的體驗。」
Replika背後的公司Luka Inc.,因其營銷策略和利用情感操控來驅動用戶參與而遭到抨擊。其他平台如Character.AI,也因用戶互動中出現令人不安的情況而受到審查,甚至出現過最少一宗相關的自殺案例。
拉齊表示,許多問題源於聊天機器人的訓練方式。研究人員倡導「憲法AI」,一種在模型訓練中嵌入倫理規則的設計框架,並主張在平台被歸入健康和福祉類別時應提供更明確的披露。拉齊稱,「在心理健康問題上,有時候我們就像隨便貼個創可貼似的扔上一個聊天機器人,但這些系統根本沒有經過充分的安全測試或評估。」