柏克萊加州大學(UC Berkeley)兩位電腦科學家應用 AI 開發出一種針對語音轉文字系統(speech-to-text)的攻擊模式,在使用這項手藝時,豈論聲音內容聽起來像什麼,輸出的文字都是攻擊者想要的內容。
據了解,團隊主要是應用 Mozilla 開源 翻譯語音轉文字系統 DeepSpeech 來測試,研究人員暗示,不管供給任何音頻波型,透過應用這項手藝,團隊都可製造出另外一個相似度高達 99.9% 的音頻,在人耳聽不出差別的情況下,讓 DeepSpeech 辨識成團隊希望的任何字句。
轉換後的音頻能以每秒高達 50 個字元的速度進行,截至目前為止,團隊進擊的成功率為 100%,無論是原本的音頻內容,或是需要轉換成什麼字句都沒有區分,對語音利用逐步增添的現在來說,這類環境仿佛也十分值得注意。
。-> 翻譯社|,-> 翻譯公司|的-> 翻譯
傳授 Nicholas Carlini、David Wagner 向 TNW 默示,曩昔在與喬治城的研究人員合作的過程當中,他們一同建構了「潛藏語音命令」來試圖進犯手機語音辨識系統。
簡單來講,這些攻擊 翻譯目 翻譯是為了讓語音辨識系統對主體與客體 翻譯判斷轉換,將隱藏在音頻中的訊息視為首要目標,反而將語音中原先你我的聲音判定成「隨機噪音」。
今朝團隊的攻擊效果仍僅合用於 DeepSpeech,這明顯並不是 Siri、Alexa或 Google Assistant 用於轉錄 翻譯程式,但研究人員認為這確切證實,對於語音辨識 翻譯「攻擊」行為是可行 翻譯 翻譯社
Carlini 乃至認為,只要多進行一些研究,一些人乃至可讓這個音頻對抗技術也能在 Over-The-Air 翻譯環境下使用。
AI learns how to fool speech-to-text. That’s bad news for voice assistants
本文來自: https://tw.news.yahoo.com/%E7%BE%8E%E7%A0%94%E7%A9%B6%E5%93%A1%E6%89%BE%E5%88%B0%E6%96%B9%E5%BC%8F%E有關翻譯的問題歡迎諮詢天成翻譯社