免费观看已满十八岁电视剧国语_人妻 色综合网站_欧美大尺寸suv视频_成人免费高清在线观看_久久久成人毛片无码_老头解开奶罩吸奶头高潮视频_sm调教室论坛入口_欧美夫妻交换久久丫1000_一级黄色大片在线免费观看了

首頁 > 資訊 > 行業(yè)

微軟正構(gòu)建新工具 可防止AI算法出現(xiàn)偏見

2018/05/27 19:49      TechWeb yoyo


  5月26日消息,據(jù)國外媒體報(bào)道,微軟正在構(gòu)建一個(gè)工具來自動(dòng)識(shí)別各種不同AI算法中的偏差。將自動(dòng)識(shí)別滲入機(jī)器學(xué)習(xí)可以幫助企業(yè)利用人工智能,而不會(huì)無意歧視某些人。

  大型科技公司正在競(jìng)相出售可通過云端訪問的現(xiàn)成機(jī)器學(xué)習(xí)技術(shù)。隨著越來越多的客戶使用這些算法來自動(dòng)執(zhí)行重要的判斷和決策,偏見問題將變得至關(guān)重要。而且,由于偏見很容易蔓延到機(jī)器學(xué)習(xí)模型中,因此自動(dòng)檢測(cè)不公平性的方法可能會(huì)成為AI工具包的重要組成部分。

  “像透明度,可理解性和解釋這樣的東西對(duì)于這個(gè)領(lǐng)域來說已經(jīng)是足夠新的了,我們中很少有人有足夠的經(jīng)驗(yàn)來知道我們應(yīng)該尋找的一切,以及偏見可能潛伏在我們模型中的所有方式,”高級(jí)研究員Rich Caruna說。

  算法偏差是許多研究人員和技術(shù)專家日益關(guān)注的問題,由于算法被用來實(shí)現(xiàn)自動(dòng)化中重要決策,所以存在偏見可能變得自動(dòng)化,大規(guī)模部署并且受害者更難以發(fā)現(xiàn)的風(fēng)險(xiǎn)。

  Caruna表示,微軟有吸引力的產(chǎn)品將幫助人工智能研究人員捕獲更多不公平的事件,盡管不是全部。 “當(dāng)然,我們不能指望完美 - 總會(huì)有一些未被發(fā)現(xiàn)或者無法消除的偏見 - 目標(biāo)就是盡我們所能,”他說。

  “公司現(xiàn)在可以做的最重要的事情是教育他們的員工,讓他們意識(shí)到偏差可能出現(xiàn)并表現(xiàn)出來的各種方式,并創(chuàng)建工具使模型更容易理解,偏見更易于檢測(cè),”Caruna補(bǔ)充道。 。

  Facebook于5月2日在其年度開發(fā)者大會(huì)上宣布了自己的工具,用于檢測(cè)偏見。其工具稱為Fairness Flow,它會(huì)自動(dòng)警告某算法是否根據(jù)其種族,性別或年齡對(duì)某人作出不公正的判斷。 Facebook表示,它需要公平流量,因?yàn)樵摴驹絹碓蕉嗟娜苏谑褂肁I來做出重要決定。

  加州大學(xué)伯克利分校的教授Bin Yu表示,來自Facebook和微軟的工具似乎是朝著正確方向邁出的一步,但可能還不夠。她建議大公司應(yīng)該讓外部專家審核他們的算法,以證明他們沒有偏見。 “其他人不得不調(diào)查Facebook的算法 - 他們不能成為秘密,”Yu說。

  榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。

海報(bào)生成中...

分享到微博

掃描二維碼分享到微信

分享到微信
一鍵復(fù)制
標(biāo)題鏈接已成功復(fù)制

最新新聞

熱門新聞