首頁>時事議題>即時新聞>AI仿聲裝置遭濫用 恐成詐騙集團利器

AI仿聲裝置遭濫用 恐成詐騙集團利器

    • 記者潘冠霖/綜合報導

    • 2023.11.01

AI仿聲裝置遭濫用 恐成詐騙集團利器

AI的便捷也帶來了一定的風險。示意圖:123RF

 

自2022年底開始,AI一時成為熱門話題,時至今日仍沒有退燒,而在AI技術逐漸成熟的現在,除了方便且豐富了大家的生活,卻也遭到一些有心人士的利用,當作行騙手段。日前國外有案例指出,有詐騙集團會利用AI仿聲技術,模仿家屬的聲音向被害人索取現金,雖然此詐騙手法並不少見,但若搭配AI仿聲使音色更接近真人,民眾將更容易掉入陷阱。

 

加州大學柏克萊分校數位鑑識科學教授法力德(Hany Farid)表示,從前要複製一個人的聲音需要大量音檔,現在只要你在臉書或TikTok裡講話講個30秒,別人就能複製你的聲音。透過AI的進步,現在只要短短幾句話,就有可能被歹徒從網路上擷取並製作仿聲,再自行輸入台詞加以利用。

 

法立德解釋,AI仿聲軟體可以分析出一個人的聲調中有何特點,例如年齡、性別和口音,然後從龐大資料庫裡搜出相似的聲音及可預測的語言模式,如此一來,AI就能重製一個人的音色、音調和個人發音習慣,創造出大致相近的聽覺效果。而原版聲音的來源可以從很短的音訊裡擷取,例如YouTube、podcasts、TikTok、Instagram或臉書上的任何影音。

 

《華盛頓郵報》於3月5日報導,加拿大薩斯喀徹溫省(Saskatchewan)的73歲卡德奶奶(Ruth Card)某天接到電話,對方的聲音聽起來極像她的孫子布蘭登(Brandon),這個「布蘭登」向奶奶哭訴說他被捕了,身上沒有手機或錢包,急需現金保釋。當她急著去銀行領錢時,銀行經理聽聞急忙和她解釋,此為最新流行的詐騙手法,以AI偽造的聲音索要金錢。

 

華郵指出,AI科技現在讓歹徒仿聲變得更簡單、成本更低,成為新的犯罪趨勢,民眾更容易上當。而因對科技的不熟悉及對家人的牽掛,受害者常是老人,眾多受害者說,聽見家人的聲音說著自己有難,當下就會心生恐懼。
 

 

 

延伸閱讀:
中高齡就業福音 中市府勞工局辦職場體驗課
ChatGPT人紅是非多?各種仿冒APP蹭流量盜個資
勞動部攜交通部 改善運輸業勞工現況
「ASML未來之星」計畫啟動 在台徵才育才無畏寒冬

 

 

1指點入看錢景:
找工作快上1111人力銀行 https://www.1111.com.tw/
想找更多兼職打工 https://parttime.1111.com.tw/
科技新知請上科技島https://www.technice.com.tw
youtube強檔影音 1111人力銀行一次滿足 https://www.1111.com.tw/162804/
1111產經新聞網 職場產業最核心 https://www.1111.com.tw/new

分享按鈕分享

讀者留言

使用者頭像