5月10日消息,據(jù)外媒報道,大約一個月前,有報道稱蘋果公司挖走了谷歌人工智能(AI)主管約翰·吉安德拉(John Giannandrea),但他很快被Google Brain研究部門負責(zé)人杰夫·迪恩(Jeff Dean)取代。
在AI繼續(xù)被集成到谷歌所有產(chǎn)品和服務(wù)的過程中,這位資深谷歌人接任了AI主管職位,而且AI已經(jīng)在谷歌形成獨立部門。Google Researc最近甚至更名為Google AI。
在最近舉行的開發(fā)者大會上,谷歌推出了很多新的功能和更新,包括為移動應(yīng)用程序開發(fā)人員推出的ML Kit,計劃發(fā)布第三代張量處理單元(TPU)芯片,Google Assistant中的AI甚至可以代表你打電話。迪恩日前接受采訪,分享了他的未來遠景。
在不久的將來,迪恩看到AI創(chuàng)造新產(chǎn)品的機會,并可找到人類從未考慮過的問題的解決方案。他還看到來自AutoML的挑戰(zhàn),這個AI模型可以構(gòu)建其他AI模型,同時他認為谷歌不應(yīng)該加入自動化武器研發(fā)行列。
通用智能AI崛起
在當(dāng)今世界上,大部分AI只能被用于單一的、狹窄的用例中,就像將一個句子從一種語言翻譯為另一種語言,但是迪恩希望谷歌創(chuàng)造更多的AI模型,它們可以執(zhí)行多個任務(wù),實現(xiàn)一種“對世界的常識推理。”
迪恩表示:“我認為將來你會看到能做很多事情的AI模型,并在此基礎(chǔ)上積累起更多經(jīng)驗。這樣,當(dāng)我們想要訓(xùn)練AI模型來做其他事情時,它就可以在已有技能和專業(yè)知識基礎(chǔ)上進行設(shè)置。”
舉例來說,如果一個機器人被要求撿起什么東西,它需要首先理解一些東西,比如手是如何工作的,重力原理,以及其它對這個世界的理解。迪恩稱:“我認為這將是未來幾年你會看到的一個重要趨勢。”
AutoML偏見和不透明挑戰(zhàn)
詢問不同的人,谷歌AutoML要么令人興奮,要么令人感到恐懼。機器訓(xùn)練機器肯定會嚇到AI的反對者。但Google Cloud首席科學(xué)家李飛飛(Fei-Fei Li)表示,AutoML降低了為所有人開發(fā)定制AI模型的門檻,無論對于高端開發(fā)人員還是東京的拉面店老板,都是如此。
迪恩認為,這令人非常興奮,因為它可幫助谷歌“自動解決問題”,但是AutoML的使用也帶來了一些獨特的問題。
他說:“與傳統(tǒng)的手工編碼軟件相比,我們使用的學(xué)習(xí)系統(tǒng)更多,所以我認為這給我們帶來了很多挑戰(zhàn)。其中之一是,如果你從數(shù)據(jù)中學(xué)習(xí),而數(shù)據(jù)中已經(jīng)存在有偏見的決定,那么機器學(xué)習(xí)模型就會使這些偏見延續(xù)下去。有鑒于此,我們與機器學(xué)習(xí)社區(qū)正在做很多工作,以便弄清楚我們怎樣才能訓(xùn)練出沒有偏見的機器學(xué)習(xí)模型。”
另一個挑戰(zhàn)是:如何利用AutoML設(shè)計出更注重安全的系統(tǒng),為醫(yī)療等行業(yè)開發(fā)專用AI。幾十年計算機科學(xué)的最佳實踐已經(jīng)為手工編碼建立了這樣的系統(tǒng),現(xiàn)在也需要為制造機器的機器建立同樣安全的系統(tǒng)。
迪恩指出:“我認為這是一個非常有趣和重要的應(yīng)用方向,特別是當(dāng)我們開始在更注重安全的系統(tǒng)中使用機器學(xué)習(xí)的時候,比如那些正在決定你的醫(yī)療保健或自動駕駛汽車的東西。”
注重安全AI需要更透明
伴隨著Google Assistant將很快可代表你接打電話,以及Android P測試版的發(fā)布,谷歌首席執(zhí)行官桑德爾·皮查伊(Sundar Pichai)談到谷歌如何將AI應(yīng)用到醫(yī)療保健領(lǐng)域,以根據(jù)電子健康記錄信息來預(yù)測患者是否需要重新入院。
谷歌研究人員在《數(shù)字醫(yī)學(xué)的本質(zhì)》(Nature of Digital Medicine)上發(fā)表了一篇文章,解釋了其AI為何會對病人做出某些決定,以便醫(yī)生能在醫(yī)療記錄中看到其推薦治療方案的理由。
將來,迪恩希望,那些想知道AI為何做出某個具體決定的開發(fā)人員或醫(yī)生,能夠通過簡單地詢問AI模型就能得到響應(yīng)。他說,如今谷歌產(chǎn)品中部署的AI經(jīng)歷了內(nèi)部審查過程。谷歌目前正在制定一套指導(dǎo)方針,以評估AI模型是否存在偏見。
迪恩稱:“在本質(zhì)上,就像對產(chǎn)品的新特性進行安全審查或隱私審查一樣,你想要的是對機器學(xué)習(xí)進行公平審查,這是將機器學(xué)習(xí)融入我們產(chǎn)品的一部分。”
迪恩表示,當(dāng)涉及到由開發(fā)人員通過諸如ML Kit或TensorFlow(已被下載超過1300萬次)等工具部署AI時,人類也應(yīng)該成為決策過程的一部分。
不該涉足AI武器化
迪恩說,他認為谷歌不應(yīng)該涉足自動化武器研發(fā)領(lǐng)域。今年3月份,有報道稱谷歌正在與美國國防部合作,幫助改進無人機收集的視頻的分析能力。
迪恩解釋稱:“我認為,隨著社會開始發(fā)展更強大的技術(shù),機器學(xué)習(xí)和AI會出現(xiàn)許多有趣的倫理問題。大約在6個月或9個月前,我個人已經(jīng)簽署了一封公開信,承諾反對機器學(xué)習(xí)用于自動化武器。我認為很明顯,大多數(shù)人都對使用自主武器系統(tǒng)感到不安。”
《紐約時報》曾報道稱,數(shù)千名谷歌員工曾簽署公開信,敦促谷歌遠離“戰(zhàn)爭技術(shù)”,這可能會對谷歌品牌造成不可彌補的損害,并對公司和公眾之間的信任關(guān)系產(chǎn)生影響。迪恩沒有說明他是否簽署了《紐約時報》報道中的那封信。
AI驅(qū)動新項目和產(chǎn)品
皮查伊還強調(diào)了先前發(fā)布的一項關(guān)于AI的研究,在研究中,AI就像訓(xùn)練有素的眼科醫(yī)生那樣,準確地發(fā)現(xiàn)了糖尿病視網(wǎng)膜病變。這種智力水平的AI模型不再局限于模擬人類活動,它們正在幫助谷歌發(fā)現(xiàn)新的產(chǎn)品和服務(wù)。
迪恩說:“通過使用大量數(shù)據(jù)對這些模型進行訓(xùn)練,我們實際上可以讓系統(tǒng)做些我們不知道自己是否能做到的事情,這是個根本性進步。我們目前正在研發(fā)AI能夠驗證的全新測試和產(chǎn)品,而不是用AI來做我們想要它們?nèi)プ龅氖虑椤?rdquo;
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...