4月16日消息,據(jù)Ars Technica報道,谷歌研究人員開發(fā)出一種深度學(xué)習(xí)系統(tǒng),旨在幫助計算機(jī)更好地識別和分離出嘈雜環(huán)境中的個體聲音。
正如谷歌本周在Google Research Blog上所稱,該公司內(nèi)部團(tuán)隊正試圖復(fù)制“人類大腦專注于某個聲音來源同時可過濾掉其他聲音”這種能力,就像你在就會上只與某個朋友交談。谷歌的方法中使用了一個視聽模型,所以它主要集中于在視頻中隔離聲音。該公司發(fā)布了些YouTube視頻,展示了該技術(shù)的實際應(yīng)用情況。
谷歌表示,這項技術(shù)可以應(yīng)用與使用單一音軌的視頻,并能在視頻算法中隔離聲音,這取決于誰在說話,或者是讓用戶手動選擇他們想聽到的聲音的人臉。谷歌稱,這里的視覺組件是關(guān)鍵,因為當(dāng)某人的嘴在動時,這項技術(shù)會觀察到,以便能在特定時刻更好地識別在某人的聲音,并為視頻的長度創(chuàng)建更精確的個人語音軌跡。
這篇博客文章寫道,研究人員在YouTube上收集了10萬段“講座和談話”視頻,從這些視頻中提取了近2000小時的視頻片段,并將音頻與人工背景噪聲混合,創(chuàng)造了“合成雞尾酒派對”。然后谷歌通過閱讀人們在每個視頻框架中說話的“臉縮略圖”和該視頻原聲帶的譜圖,訓(xùn)練技術(shù)人員將混合音頻進(jìn)行拆分。該系統(tǒng)能夠分辨出哪個音頻源在給定的時間內(nèi)屬于哪張人臉,并為每個揚聲器創(chuàng)建單獨的語音軌跡。
谷歌特別指出,封閉字幕系統(tǒng)是該系統(tǒng)的一個優(yōu)勢,但該公司表示,它設(shè)想了“這一技術(shù)的廣泛應(yīng)用”,并且“目前正在探索將其納入各種谷歌產(chǎn)品的機(jī)會”。Hangouts和YouTube似乎是兩個容易起步的地方。當(dāng)應(yīng)用到智能眼鏡(比如谷歌眼鏡、語音放大耳塞)中時,不難看出該技術(shù)是如何工作的。
幫助像谷歌Home這樣的智能音箱識別個人聲音,這似乎是另一個用例,但是因為這個模型集中在視頻上,它可能與配有顯示器的智能音箱合作效果會更好,比如亞馬遜的Echo Show。今年早些時候,谷歌為“智能顯示設(shè)備”(如Echo Show)集成了Google Assistant,但該公司還沒有發(fā)布自己的類似硬件產(chǎn)品。
在任何情況下,這種技術(shù)的隱私后果似乎和潛在的用例同樣明顯。在上面的例子中,谷歌的聲音隔離遠(yuǎn)遠(yuǎn)不是安全無憂的,進(jìn)行更細(xì)微的調(diào)整后,它可以讓強(qiáng)大的竊聽和監(jiān)視工具落入壞人之手。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...