歐洲正積極探索人工智能倫理問題

本週,由歐盟委員會任命的、擁有52名技術人員的專家組正式發佈了一份普適性的《人工智能倫理指南(Ethics Guidelines for Artificial Intelligence)》,旨在促進開發“值得信賴的AI”成果(順帶一提,原文作者亦是這52位專家之一)。這是一份極具雄心的文件,也是人類在AI倫理探索方面首次率先在大規模試點活動當中進行實際測試,而不再簡單羅列理論性的道德原則。此次試點得到了歐盟委員會的全力支持。該委員會不僅批准了此項指南,同時亦呼籲各私營部門積極應用這份指南,並希望將其作為新的全球性標準。

在探索AI道德規範的道路上,歐洲並不是在孤單前行。過去幾年當中,加拿大與日本等國已經發布過包含道德倫理原則的AI戰略,經合組織也正立足這一領域廣泛收集建議。諸如AI合作伙伴關係等私人倡議更是制定出不少道德準則——這一夥伴關係目前已經吸納到超過80家企業以及民間社會組織。另外,AI開發者們也熱情支持電氣與電子工程師協會(簡稱IEEE)在倫理框架層面的努力以及阿西洛馬人工智能原則。目前,大多數高科技巨頭都已經制定出自己的原則,民間社會也在快速消化各類指導性文件,包括以人權為重點的多倫多宣言。由牛津大學Luciano Floridi教授領導的一項研究發現,儘管所使用的術語各不相同,但大部分現有聲明之間都存在著一大共通性特徵:它們並非強制執行,即沒有硬性約束力。

歐洲正積極探索人工智能倫理問題

圖:歐盟的目標在於為值得信賴的AI方案制定全球性標準

事實上,歐洲發佈的這份指出也無法直接實施,但卻在諸多方面較以往的嘗試更進了一步。歐盟方面主要關注四大倫理原則,即尊重人的自主權、防止傷害、公平性以及可解釋性。但除此之外,指南提到可信賴的AI還意味著應遵守歐盟的法律與基本權利(包括隱私權),以及高水平的社會技術穩健性。任何希望設計、訓練以及營銷可信賴AI系統的組織或個人,都必須認真考慮相關係統可能引發的風險,並對為減輕這些風險而採取的具體措施負責。此外,這份指南還提供了一套詳盡的框架,用於對此類措施做出評估。

對於渴望出臺一項強有力的約束性法令的從來者而言,這一次的指南恐怕仍然無法讓他們滿意。這裡沒有提到弗蘭肯斯坦悖論、沒有技術發展奇點、沒有振聾發聵的條款——例如“AI應該始終具備可解釋性”、“AI永遠不應干擾人類”、“整個循環當中應始終有人類參與”或者“AI永遠不可抱有歧視之心”等。這些陳述雖然具有直觀意義上的吸引力,但卻與當前AI部署現實相去甚遠,而且顯然並不適合被實際轉化為政策性框架。

換言之,用戶並不需要詳細解釋或理解AI技術支持之下的冰箱到底在如何工作,也不需要明白無人駕駛汽車到底如何做出正常決策。他們需要相信的,只是AI解決方案可以被引入市場流程,並會在出現問題時由人類專家介入干預。但在另一方面,用戶應該有權瞭解他們為什麼無法訪問政府檔案,或者為什麼AI方案會將一部分人判定為補貼領取者或者腎臟移植受讓者。同樣的,在某些情況下,硬性將人類引入循環可能毫無意義(例如強制要求用戶坐在無人駕駛汽車的方向盤前面);當然,在大多數場景下,確保人類“在循環中”或者“由人類保留指揮權”也是非常必要的。此外,雖然歧視往往無法徹底消除——畢竟我們的人類社會本身就客觀存在著偏見問題,但最重要的是應禁止過度、不合理以及有違法律的歧視,並對受到影響的個人快速給予補償。更重要的是,這份指南中還包括幾個“需要高度關注的領域”實例,這些領域往往很難滿足值得信賴AI這一原則的相關要求,具體包括識別與追蹤使用AI方案的個人、部署隱蔽的AI系統、以有違人權的方式開發基於AI技術的公民評分系統,以及利用AI技術開發致命性自主武器(簡稱LAW)。

值得信賴AI這一概念目前仍只是高級專家組表述中的所謂“理想目標”。歐盟機構將在未來幾個月之內最終決定是否將其作為具有約束力的政策性框架,並判斷其具體適用於哪些用例。這可能需要將其轉化為強制法(例如通過修改出臺侵權規定,針對特定行業立法以實現某些情況下的可信賴AI約束力,以及臨時性競爭規則等等),同時配合其它非強制性工具。關於其它措施,歐盟可以要求全部公共部門採購只能選擇可信賴的AI產品;或者要求醫療保健領域中的AI應用必須值得信賴等。此外,可能還需要出臺某種形式的認證機制以確保新系統得到正確實施,並以正確方式向用戶呈現信息。

另一個問題是,該制度是否有助於歐洲制定出全球性AI標準,從而重新提振自身競爭力。IBM公司已經宣佈將在全球範圍內應用這套框架,但考慮到:1)業界普遍認為美國對於最終用戶的隱私權保護不力;2)美國平臺常被指責過度干擾用戶的自主權與決策權,因此全面應用可信賴AI標準可能會在不久的將來把那些不合規(或者說非歐洲)企業擋在歐洲大門之外。另外,起草這份“準則”的專家組並沒有討論任何關於工業與貿易的政策性方案。不過歐盟委員會在最近的一份官方文件中提出了“歐洲製造”的倫理、安全與前沿AI發展觀,這也暗示也許未來相關法律將得到全面實施。

相關推薦

推薦中...