作者: 兆光科技 發(fā)布時間: 2024/08/08 點擊: 1135次
網友:“防火防盜防 AI !”
破防了,接到“女兒”的求救電話,竟不能(néng)相信自己的耳朵!
今年年初,美國(guó)亞利桑那州的 Jennifer DeStefano 就遇到了“耳聽爲虛”的騙局。
據《紐約郵報》報道(dào),這(zhè)通來自“女兒”的電話,實則是一起(qǐ)利用 AI 聲音克隆技術的勒索案。
那天下午,Jennifer DeStefano 收到了一個陌生電話号碼的來電。
原本沒(méi)在意,但想起(qǐ) 15 歲的女兒正在外地滑雪,出于擔心就選擇了接聽。
誰料,聽到電話那頭傳來了女兒的哭喊聲:“媽媽!救我!”
緊接著(zhe),一位陌生男子開(kāi)始發(fā)話:“你女兒在我這(zhè)裡(lǐ),如果打電話報警或通知任何人,就把你女兒帶到墨西哥去‘注射毒品’和‘強奸’。”
恐慌之中, Jennifer DeStefano 還(hái)聽到電話那頭女兒的呼救,聲音非常真實。
男子還(hái)馬上談起(qǐ)了條件 —— 需要 100 萬美元的贖金才能(néng)放人。但得知無法支付那麼(me)多贖金後(hòu),男子又改口稱:“拿 5 萬美元來換你的女兒。”
在頓感事(shì)情蹊跷之後(hòu), Jennifer DeStefano 選擇了迅速聯系丈夫,直到确認女兒正在安全地滑雪中,才幸免被(bèi)騙。
事(shì)後(hòu)回憶起(qǐ)通話細節時, Jennifer DeStefano 表示仍感到後(hòu)怕,雖然如今明确這(zhè)是電話詐騙,但想到“女兒的聲音”如此逼真,讓她細思極恐。
經(jīng)過(guò)多方證實,這(zhè)是一起(qǐ)利用 AI 聲音克隆技術進(jìn)行的詐騙案。
針對(duì)這(zhè)類基于 AI 的詐騙案,加州大學(xué)伯克利分校計算機科學(xué)教授、伯克利人工智能(néng)實驗室成(chéng)員 Hany Farid 對(duì) AI 克隆語音的生成(chéng)原理,做出了詳細解釋。
AI 語音生成(chéng)軟件,可以分析什麼(me)讓人的聲音與衆不同(包括年齡、性别和口音),并搜索龐大的聲音數據庫以找到相似的聲音,然後(hòu)重新創造出相似整體效果的聲音。
它通常從 YouTube、播客、商業廣告、TikTok、Instagram 或 Facebook 等地方獲取音頻樣(yàng)本。
此外,亞利桑那州立大學(xué)人工智能(néng)專業計算機科學(xué)教授 Subbarao Kambhampati 還(hái)認爲,AI 語音克隆技術正在迅速改進(jìn):“以前,克隆聲音需要從被(bèi)克隆人身上獲取大量樣(yàng)本。現在,隻需三秒鍾就可以克隆出一個接近你的聲音。”
該觀點也得到了 Hany Farid 的“證言”:“一個好(hǎo)的克隆可以用不到一分鍾的音頻創建,甚至幾秒鍾就足夠了。在 AI 軟件的幫助下,語音克隆隻需每月 5 美元,任何人都(dōu)可以使用。”
然而,由于目前這(zhè)類技術幾乎沒(méi)有受到監督,類似的“詐騙案”也不勝枚舉。
3 月,據《紐約郵報》報道(dào),居住在匹茲堡的 Beth Royce 接到了“姐姐”的求救電話後(hòu),給“綁匪”寄了 1000 美元贖金。事(shì)後(hòu), Beth Royce 表示:“很難描述電話中‘姐姐’的聲音多麼(me)真實。”
甚至,以往被(bèi)認爲安全的“聲紋”系統也存在明顯漏洞。
4 月 20 日,國(guó)内郭先生收到了利用 AI 技術換臉和換聲後(hòu)僞裝熟人的詐騙,“好(hǎo)友”稱自己在外投标需要高昂的保證金,請求郭先生過(guò)戶 430 萬元。
3 月,《衛報》澳大利亞版記者 Nick Evershed 表示,他使用人工智能(néng)做出自己的聲音,進(jìn)入了他的 Centrelink 自助服務賬戶。在《衛報》調查後(hòu)發(fā)現,Centrelink 和澳大利亞稅務局(ATO)使用的“聲紋”安全系統其實是可以“被(bèi)欺騙”的。
的确,在 ChatGPT、GPT-4 引領的浪潮之下, AI 提速科技變革帶來諸多便利,也難免讓衆人惶恐不安,例如:
谷歌 DeepMind 基于深度學(xué)習的原始音頻生成(chéng)模型 WaveNet,在語音合成(chéng)的聲學(xué)模型建模中,可直接學(xué)習到采樣(yàng)值序列的映射,能(néng)高度模仿人類聲音;
AI 語音克隆算法項目 MockingBird,号稱能(néng)“5 秒内克隆你的聲音并生成(chéng)任意語音内容”。
值得關注的是,當 AI 語音克隆技術用于正當目的時,能(néng)幫助語音合成(chéng)、語音翻譯、語音恢複等,但它用于非法目的時,將(jiāng)爲僞造證據、欺詐勒索等行爲提供可能(néng)。
知名安全機構 McAfee 對(duì)來自七個國(guó)家的 7054 人,針對(duì) AI 詐騙進(jìn)行了調查,結果顯示:近 1/4 的人遇到過(guò)某種(zhǒng)形式的 AI 語音詐騙。
據聯邦貿易委員會最新發(fā)布的數據顯示,在 2022 年因欺詐損失金額的案件中,“冒名頂替者詐騙”的數量排名第二,全年共損失了 26 億美元。此外,在 240 萬份欺詐報告中,最常見的是冒名頂替詐騙報告。
聯邦調查局專家表示,詐騙者經(jīng)常在社交媒體上尋找目标。
爲了避免成(chéng)爲此類騙局的受害者, FBI 鳳凰城辦公室的助理特工 Dan Mayo 敦促大家:社交平台的個人資料保持在私人模式,不要向(xiàng)公衆公開(kāi)。
Dan Mayo 認爲:“必須把那些東西鎖起(qǐ)來,一旦公開(kāi)將(jiāng)會面(miàn)臨被(bèi)騙的風險,因爲他們會尋找有關你的公開(kāi)信息,并随之深入了解你。”
與此同時,對(duì)于那些不熟悉的區号的電話号碼、國(guó)際号碼,需要格外警覺。
目前,雖然尚不清楚有多少人接聽到通過(guò) AI 語音克隆進(jìn)行假綁架的詐騙電話,但 Dan Mayo 表示這(zhè)種(zhǒng)情況“每天都(dōu)在發(fā)生”。
針對(duì)“ AI 語音克隆進(jìn)行假綁架”的相關新聞,許多網友也展開(kāi)了相關讨論。一些人認爲:“非常擔心家中的老人和小孩被(bèi)‘詐騙’”;“感覺如果真的用了完全逼真的聲音進(jìn)行‘勒索’,完全是防不勝防。”還(hái)有網友調侃道(dào):“現在是防火防盜,還(hái)要防 AI 了!”
标簽: AI
版權申明:本站文章部分自網絡,如有侵權,請聯系:hezuo@lyzg168.com
特别注意:本站所有轉載文章言論不代表本站觀點,本站所提供的攝影照片,插畫,設計作品,如需使用,請與原作者聯系,版權歸原作者所有
輸入您的聯系信息,我們將(jiāng)盡快和你取得聯系!
Tel:15137991270
企業QQ:210603461
Emile:hezuo@lyzg168.com
地址:洛陽市西工區王城大道(dào)221号富雅東方B座1711室
網站:https://www.lyzg168.com
我們的微信
關注兆光,了解我們的服務與最新資訊。
Copyright © 2018-2019 洛陽霆雲網絡科技有限公司