|
2023.07.14
AI(人工智慧)所生成聲音恐被不肖人士濫用,網路安全公司McAfee旗下的McAfee Labs威脅中心,日前針對7千名來自美國等全球主要9個國家的受訪者,調查後發現,竟有70%的受訪者認為自己無法辨別真人和AI聲音,更讓人擔憂若遇到詐騙集團藉AI模仿親人聲音進行誘騙,民眾是否有足夠能力應對?
McAfee Labs威脅中心表示,在今年5月公布調查中,對於美國等全球主要9個國家,共7000名受訪者,發現70%受訪者覺得自身無法分辨是真人或AI來電,更有25%受訪者曾親身經歷或知道有人曾遭遇AI聲音詐騙案。
現今市面上已有不少可生成聲音的AI模型,如微軟的「VALL-E」,微軟指出,用戶只要能提供3秒鐘的音訊,該模型便能模擬本人說話的聲音、語調及說話時情緒,就連音訊背景的「聲音環境」,也能如法炮製。
不過微軟對此也強調,由於VALL-E還可模擬音訊背景的「聲音環境」,如果用戶再添加來自不同場合,像講電話、搭乘交通工具、開車等背景音訊,接聽者會更加難以分辨,因此目前正開發檢測模型,區分該音訊是否經VALL-E合成,且制定相關AI原則,避免惡意濫用。
延伸閱讀:
1指點入看錢景:
找工作快上1111人力銀行 https://www.1111.com.tw/
想找更多兼職打工 https://parttime.1111.com.tw/
科技新知請上科技島https://www.technice.com.tw
youtube強檔影音 1111人力銀行一次滿足 https://www.1111.com.tw/162804/
1111產經新聞網 職場產業最核心 https://www.1111.com.tw/news
讀者留言