聯系我們:[email protected]

微軟開發新工具 可以防止AI算法出現偏見

  北京時間5月26日上午消息,微軟開發出一套新工具,用來判斷AI算法是否存在偏見。AI算法可能會歧視某些人群,微軟希望新工具能夠幫助企業及時發現,安全使用AI。

  微軟偏見偵測研究主管里奇·卡魯阿納(Rich Caruana)介紹稱,新工具相當于“儀表板”,工程師可以用它訓練AI模型。他還表示,在AI領域,因為經驗不足,有些新東西理解的人很少,比如透明度、可理解性、可解釋性;還有隨時可能出現的偏見,這些都是必須重視的元素。

  在最近舉行的會議上,哈佛機器學習講師、羅德島大學CIO加布里爾·法耶羅(Gabriele Fariello)曾說,在倫理偏見方面,AI已經存在嚴重的問題。他認為,在醫療保健、司法及其它領域,有些決定由AI做出,它會直接影響我們的生活。

  卡魯阿納還說:“好好訓練員工,這是企業眼下應該做的最重要事情,這樣員工就能知道在哪些環境下偏見會增加,在哪些環境下會顯示出來,員工還能開發工具,讓模型變得更容易理解,讓偏見更容易被發現。


猜你喜歡:

最新文章

重庆时时开奖直播app