5月26日消息,據國外媒體報道,微軟正在構建一個工具來自動識別各種不同AI算法中的偏差。將自動識別滲入機器學習可以幫助企業利用人工智能,而不會無意歧視某些人。
大型科技公司正在競相出售可通過云端訪問的現成機器學習技術。隨著越來越多的客戶使用這些算法來自動執行重要的判斷和決策,偏見問題將變得至關重要。而且,由于偏見很容易蔓延到機器學習模型中,因此自動檢測不公平性的方法可能會成為AI工具包的重要組成部分。
“像透明度,可理解性和解釋這樣的東西對于這個領域來說已經是足夠新的了,我們中很少有人有足夠的經驗來知道我們應該尋找的一切,以及偏見可能潛伏在我們模型中的所有方式,”高級研究員Rich Caruna說。
算法偏差是許多研究人員和技術專家日益關注的問題,由于算法被用來實現自動化中重要決策,所以存在偏見可能變得自動化,大規模部署并且受害者更難以發現的風險。
Caruna表示,微軟有吸引力的產品將幫助人工智能研究人員捕獲更多不公平的事件,盡管不是全部。 “當然,我們不能指望完美 - 總會有一些未被發現或者無法消除的偏見 - 目標就是盡我們所能,”他說。
“公司現在可以做的最重要的事情是教育他們的員工,讓他們意識到偏差可能出現并表現出來的各種方式,并創建工具使模型更容易理解,偏見更易于檢測,”Caruna補充道。 。
Facebook于5月2日在其年度開發者大會上宣布了自己的工具,用于檢測偏見。其工具稱為Fairness Flow,它會自動警告某算法是否根據其種族,性別或年齡對某人作出不公正的判斷。 Facebook表示,它需要公平流量,因為該公司越來越多的人正在使用AI來做出重要決定。
加州大學伯克利分校的教授Bin Yu表示,來自Facebook和微軟的工具似乎是朝著正確方向邁出的一步,但可能還不夠。她建議大公司應該讓外部專家審核他們的算法,以證明他們沒有偏見。 “其他人不得不調查Facebook的算法 - 他們不能成為秘密,”Yu說。
行業資訊、企業動態、業界觀點、峰會活動可發送郵件至news#citmt.cn(把#換成@)。
海報生成中...