@JOYLI917頻道
1.29K subscribers
19K photos
4.58K videos
152 files
30.3K links
人民即國主
贊助:台北富邦012🙏411-168-221-207台灣境內轉帳夠用就好 https://t.me/JOYLI917 下載軟體
請點此連結,或將網址複製貼上至瀏覽器中:tg://setlanguage?lang=taiwan 點change即中文化
Download Telegram
接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標

2023-3-22世界日報新聞

如果你接聽一個陌生號碼的電話,一定要讓對方先說。電話另一端的人可能會錄下你的聲音片段,然後用它來模仿你。

這是美國聯邦貿易委員會(Federal Trade Commission)給大家的建議,該委員會警告消費者要當心騙子,這些騙子會偷偷錄下人們的聲音,然後偽裝成受害者的聲音,向受害者的親屬要錢。

在ChatGPT和微軟Vall-E等人工智能工具興起之際,美國聯邦貿易委員會描述了這樣一種情況。Vall-E是微軟今年1月展示的一種將文本轉換為語音的工具。Vall-E目前還沒有向公眾開放,但其他公司,如alike AI和ElevenLabs,已經推出了類似的工具。使用任何人的聲音樣本,這項技術可以準確地將書面句子轉換成令人信服的音頻。

聯邦貿易委員會消費者教育專家阿爾瓦羅·普伊格(Alvaro Puig)在該機構的網站上寫道:「你接到一個電話。電話里有人驚慌失措,說是你的孫子。他說他撞壞了車,進了監獄,有大麻煩了。需要你寄錢來幫忙。你深吸一口氣,然後思考可能是詐騙,但這聽起來就像他。」


只需3秒鐘

專家稱,犯罪分子正在利用廣泛使用的「語音克隆」工具來欺騙受害者,讓他們相信自己的親人遇到了麻煩,急需現金。它所需要的只是某人的一小段聲音,有時可以在互聯網上找到,如果沒有,也可以通過錄制垃圾電話來收集,再加上一個語音克隆應用程序,比如ElevenLabs的人工智能語音軟件VoiceLab。

加州大學伯克利分校的數字法醫學教授哈尼·法里德(Hany Farid)表示:「如果你在TikTok上錄制了一段聲音視頻,那就足夠了。」

他對此類騙局越來越多並不感到驚訝。「這是一個連續體的一部分。我們從垃圾電話開始,然後是電子郵件釣魚詐騙,然後是短信釣魚詐騙。所以這是這些騙局的自然演變。」


「不要相信聲音」

根據美國聯邦貿易委員會的說法,這在現實中意味著,你不能再相信那些聽起來與你朋友和家人的聲音完全相同的聲音。

「不要相信聲音,」聯邦貿易委員會警告說。「打電話給那個本該聯繫你的人,覈實一下這個故事。用一個你知道是他們的電話號碼。如果你聯繫不到你愛的人,試著通過其他家庭成員或他們的朋友與他們取得聯繫。」

Vall-E製造商微軟提到了這個問題,在一篇演示該技術的論文中,微軟發表了一份免責聲明,稱「濫用該模型可能會帶來潛在風險,比如欺騙語音識別或模仿特定的說話者。」該論文指出,如果該工具向公眾推出,它「應該包括一份協議,以確保說話者批准使用他們的聲音。」


今年1月,ElevenLabs在推特上寫道:「我們也看到了越來越多的語音克隆濫用案例。」

出於這個原因,該公司表示,身份驗證對於清除惡意內容至關重要,而且這項技術只需要付費才能使用。

如何保護自己

不法分子利用語音克隆軟件模仿聲音進行犯罪,提高警惕是很重要的。首先,如果你接聽一個未知號碼的電話,讓打電話的人先說話。如果你只說「你好?你是誰?」他們可以用那個音頻樣本來冒充你。

法里德說當他接到所謂的家庭成員(比如他的妻子)打來的電話時,他會問她一個他們已經知道的暗號。

這是對付高科技問題的低技術手段。美國聯邦貿易委員會還警告消費者不要相信來自未知方的來電,並建議人們以另一種方式覈實自稱來自朋友或家人的來電,例如撥打已知號碼的人或聯繫共同的朋友。

此外,當有人要求通過電匯、禮品卡或加密貨幣付款時,這些也可能是危險信號。

美國聯邦貿易委員會表示:「騙子要求你付款或匯款,讓你的錢很難拿回來。」
#北美 #詐騙 #AI