4月9日消息,據外媒報道,歐盟日前發布了AI倫理指導方針,公司和政府機構未來開發AI時應遵循7大原則。
這些原則不像艾薩克·阿西莫夫(Isaac Asimov)的“機器人三定律”。他們不會提供快速制定的倫理框架來幫助我們控制殺人機器人。相反,當我們將AI融入醫療、教育和消費技術等領域時,它們解決了影響社會的模糊和分散的問題。
舉例來說,如果AI系統在未來的某個時候診斷出你患了癌癥,歐盟的指導方針將希望確保這些事情:軟件不會因你的種族或性別而產生偏見,不會無視人類醫生的反對意見,而且病人有權要求它們解釋診斷結果。 所以,這些指導方針旨在阻止AI的瘋狂行為。
為了幫助實現這一目標,歐盟召集了由52名專家組成的小組,他們提出了未來AI系統應該滿足的七大原則。
具體如下:
1.人類代理和監督:AI不應該踐踏人類的自主性。人們不應該被AI系統所操縱或脅迫,應該能夠干預或監督軟件所做的每一個決定;
2.技術穩健性和安全性:AI應該是安全而準確的,它不應該輕易受到外部攻擊(例如對抗性例子)的破壞,并且應該是相當可靠的;
3.隱私和數據管理:AI系統收集的個人數據應該是安全的,并且能夠保護個人隱私。它不應該被任何人訪問,也不應該輕易被盜;
4.透明度:用于創建AI系統的數據和算法應該是可訪問的,軟件所做的決定應該“為人類所理解和追蹤”。換句話說,操作者應該能夠解釋他們的AI系統所做的決定;
5.多樣性、無歧視、公平:AI應向所有人提供服務,不分年齡、性別、種族或其他特征。同樣,AI系統不應在這些方面有偏見;
6.環境和社會福祉:AI系統應該是可持續的(即它們應該對生態負責),并能“促進積極的社會變革”;
7.問責制:AI系統應該是可審計的,并由現有的企業告密者保護機制覆蓋。系統的負面影響應事先得到承認和報告。
請注意,這些原則中有些條款的措辭有點兒抽象,并且很難從客觀的意義上進行評估。例如,“積極社會變化”的定義在人與人、國與國之間差異很大。但其他原則更為直截了當,可以通過政府監督來檢驗。例如,共享用于訓練政府AI系統的數據可能是對抗偏見算法的好方法。
這些指導方針不具有法律約束力,但它們可以影響歐盟起草的任何未來立法。歐盟曾多次表示,它希望成為道德AI領域的領導者,并通過《通用數據保護條例》》GDPR表明,它愿意制定影響深遠的、保護數字權利的法律。
但這個角色在某種程度上是環境迫使歐盟扮演的。在投資和尖端研究方面,歐盟無法與美國和中國競爭,因此它選擇了倫理作為塑造這項技術未來的最佳選擇。
作為這一努力的一部分,歐盟發布的報告還包括了一份被稱為“可信賴AI評估列表”,它可以幫助專家們找出AI軟件中的任何潛在弱點或危險。此列表包括以下問題:“你是否驗證了系統在意外情況和環境中的行為方式?”以及“你評估了數據集中數據的類型和范圍了嗎?”這些評估列表只是初步的,歐盟將在未來幾年收集公司的反饋,并在2020年提交關于其效用的最終報告。
數字版權組織Access Now的政策經理范尼·希德韋吉(Fanny Hidvégi)表示:“評估列表是該報告最重要的部分。它提供了一個實用的、前瞻性的角度,指導我們如何減輕AI的潛在危害。在我們看來,歐盟有潛力和責任走在這項工作的前列。但我們確實認為,歐洲聯盟不應止步于制定倫理準則。”
其他人則懷疑,歐盟試圖通過倫理研究來塑造全球AI的發展方式,這是否會產生很大影響。智庫數據創新中心(Center For Data Innovation)高級政策分析師埃林·奇沃特(Eline Chivot)表示:“我們對正在采取的方法持懷疑態度,即通過為AI倫理創建一個黃金標準,它將確認歐盟在全球AI發展中的地位。而要成為AI倫理領域的領導者,首先必須在AI領域取得領先優勢。” (騰訊科技審校/金鹿)
行業資訊、企業動態、業界觀點、峰會活動可發送郵件至news#citmt.cn(把#換成@)。
海報生成中...