近年來,隨著生成式人工智能的飛速發(fā)展,語音克隆、圖片克隆甚至視頻克隆(數(shù)字人)等深度偽造技術(shù)不斷成熟,已經(jīng)成為電信詐騙、“殺豬盤”網(wǎng)絡(luò)詐騙等網(wǎng)絡(luò)犯罪團伙的熱門工具。如何識別和防范足可以假亂真的語音克隆已經(jīng)成為提高民眾安全意識的迫切議題。
近日,美國聯(lián)邦調(diào)查局(FBI)發(fā)布了一項重要建議:與家人設(shè)置一個專屬“暗號”或“暗語”,以應對日益猖獗的AI語音克隆騙局。隨著越來越多的犯罪分子利用生成式AI技術(shù)模仿親友聲音實施詐騙,F(xiàn)BI提醒民眾,這種簡單的防護措施可以有效識別騙局,保護財產(chǎn)安全。
AI語音克隆騙局如何運作?
AI語音克隆技術(shù)已發(fā)展到令人驚嘆的地步,犯罪分子僅需一段(短至數(shù)秒鐘的)音頻樣本,就能生成逼真的合成語音,冒充親友,編造緊急情況,例如“遭遇綁架勒索”或“急需醫(yī)療費用”,誘騙受害者匯款。
這類騙局往往需要獲取目標人物的公開音頻樣本,例如播客、社交媒體視頻或公開演講。因此,如果你的聲音未廣泛傳播,被克隆的可能性相對較低。但對公眾人物、企業(yè)高管或常在網(wǎng)上分享內(nèi)容的普通用戶來說,這種風險較為突出。
暗號的力量
為了幫助公眾防范AI克隆騙局,F(xiàn)BI在最新發(fā)布的公共服務公告(I-120324-PSA)中提出了“暗號驗證”方法。其核心思路是:在家人和親密朋友之間設(shè)置一個獨特且秘密的詞組,作為“身份驗證密鑰”。當接到疑似詐騙的來電時,只需提出要求對方說出密語,便可輕松識別對方的真實身份。
例如,可以設(shè)置諸如“老鼠進洞,黃雀出籠”、“青山不改,綠水長流”之類的暗號。當然,這些例子只是示范,實際的暗號應高度私密、獨特,確保安全性。
此外,在接到異常來電時,需要留意對方的通話語氣和用詞。如果對方聲音雖與親友相似,但語氣或措辭異常,則有可能是AI語音克隆。
語音克隆騙局只是生成式AI被濫用的冰山一角。犯罪分子還利用AI生成逼真的個人照片、身份證明文件,甚至部署聊天機器人,在釣魚網(wǎng)站上引導受害者落入圈套。這些AI工具顯著減少了傳統(tǒng)詐騙中常見的破綻,例如低劣的語法和明顯的假照片,大大提高了詐騙的成功率。
為此,F(xiàn)BI建議公眾限制公開分享的個人音頻和圖像。例如,關(guān)閉社交媒體賬戶的公開訪問權(quán)限,僅允許熟人查看內(nèi)容,可以顯著減少成為目標的風險。
需要指出的是,“暗號驗證”的概念并非FBI首創(chuàng)。在AI語音合成和深度偽造領(lǐng)域,這一策略最早可追溯到2023年3月27日。AI開發(fā)者Asara Near在推特上首次提出:“或許建立一個‘人類驗證’暗號會很有用。你的聯(lián)系人可以在接到可疑來電時向你詢問這個暗號,以確認他們是在與你本人通話,而不是一個深度偽造的數(shù)字人。”
這一想法迅速傳播開來。到2024年2月,彭博社的一篇文章引用業(yè)內(nèi)人士的話指出:“這一理念已在AI研究界廣泛傳播,因為暗號簡單、免費且高效。”
AI克隆時代如何防騙
GoUpSec安全專家FunyG指出,暗號/密碼/符契自古以來就是驗證身份的工具。從秦漢的虎符,到現(xiàn)代的多因素身份驗證,這種方法經(jīng)久不衰。在當今高科技AI身份欺詐的時代,古老的“暗號”憑借其私密性和易操作性,依然展現(xiàn)出強大的實用價值。FunyG建議用戶采用以下方法管理個人“暴露面”并防御深度偽造詐騙:
AI時代的安全思考
隨著AI技術(shù)的普及與進步,詐騙手段也在快速升級。語音克隆和深度偽造技術(shù)的應用,揭示了技術(shù)的兩面性:一方面,它們推動了人類生活的便利與效率;另一方面,也為犯罪分子提供了更高效、更強大的工具。
“暗號驗證”方法提醒我們,在最具顛覆性的AI技術(shù)革命中,最古老的安全方法和智慧依然有用武之地。我們開發(fā)先進安全技術(shù)和防御工具的同時,不要忘記從傳統(tǒng)文化和智慧中汲取靈感和方法,提升人的安全意識和“免疫力”。