AI配音門檻低 易遭電騙濫用
AI合成人聲技術成熟,現在有很多應用程式能輕易「複製」一個普通人的聲音,僅需上載一段數十秒聲音主人的錄音,稍等片刻即可。這種「聲音複製」技術近年遭到電訊詐騙團伙濫用,全球各地有多名受害者表示,電話對面的聲音和熟人一模一樣。
年初的內地演員王星綁架案令東南亞電騙產業進入輿論焦點,泰國總理佩通坦1月表示,接到自稱某國政要的語音信息,對方使用AI技術模仿該政要聲線,起初並未讓佩通坦起疑。據共同社報道,騙徒用AI合成人聲冒充一間企業的社長,並偽造來電號碼,電話指示下屬向指定戶口匯款。中國、美國、加拿大等多國均有報道稱,不少長者接到聲稱孫輩索要錢財的電話,指向相同的作案手法。
專家倡預判AI影響
據新華社報道,網上有大量手機應用程式能AI合成聲音,下載量超千萬。清華大學新聞與傳播學院教授沈陽表示,AI技術的普及讓普通人也能「複製聲音」。中國科學院科技戰略諮詢研究院院長潘教峰認為,需要提前預判AI技術應用可能帶來的社會影響。