"

文/熊志

就在刷爆朋友圈的“ZAO”引發AI換臉技術的爭議時,包括臉書、谷歌高層代表在內的多名全球與瑞士經濟體的代表、科學家、學術界人士聚集日內瓦,研究討論與數據和人工智能(AI)有關的全球道德標準,微軟總裁還提到:“我們必須帶著急迫感開始採取措施(制定道德標準)。”

道德標準,這是一個古老的詞彙,帶著濃厚的人性色彩。當臉書、谷歌等全球頂尖的科技公司開始感到焦急擔心時,很顯然,AI作為一項相對前沿的技術,蘊含的道德風險已經越來越大,以至於必須讓具備決策能力的機器人像人一樣,在感知是非善惡的前提下行事。

不過在道德風險之外,AI面臨著更棘手更底線的問題——法律風險。正如“ZAO”風波所顯示的,在讓人工智能做出決策前,用數據不停餵養它的過程,本身就是充滿危險的。

首當其衝的就是隱私問題。AI的基礎是數據,其中包括大量的用戶信息。就如自媒體的算法機制一樣,用戶的身份、職業、年齡等基礎數據,閱讀的歷史和偏好,都是優化推薦算法的關鍵依據。

機器學習的過程,於是形成了一個閉環,越是想要AI的服務能精確地貼合我們的需求,就越需要貢獻更多的隱私數據,讓自己在人工智能面前成為透明人。

所以那些呼籲科技向善的互聯網公司,總是會免不了更多地向用戶索取。“ZAO”的初始版用戶協議寫道:“您同意或確保肖像權利人授予‘ZAO’及其關聯公司全球範圍內完全免費、不可撤銷、永久、可轉授權和可再許可的權利。”從措辭上可以看出,科技公司對用戶數據有著一種多麼大的佔有慾望和尺度。

當然,AI換臉只是法律風險的體現之一。在“ZAO”之前的6月,微軟刪除了號稱全球規模最大的MS Celeb人臉識別數據庫,這不僅是因為它不夠道德,更是因為有侵犯隱私和肖像權的法律風險。

而對國內的用戶來說,儘管有FakeApp等換臉工具在先,但“ZAO”的出現第一次系統地讓他們意識到,人臉不再只是肉體的組成,早就成為了一種數字化的信息,可以儲存在科技公司的後臺以供使用。他們害怕的並不是AI,而是使用AI的人,是否會別有所圖。

AI的道德倫理困境,正在於此。一個常見的說法是技術中性,機器本身沒有善惡,但它的運用卻是在一種道德環境中。

比如,曾引發爭議的DeepNude(深裸),這款“一鍵脫衣”軟件的創作者宣稱,“我是一個技術愛好者,不是偷窺者”,然而該軟件卻像病毒一樣擴散,法律漏洞無限放大。

可見,那些AI的創造、操控者,同樣需要一套道德標準,告知如何使用,以及使用在哪些場景之下。

這是一個棘手的問題,因為科技公司總是會尋求突破,在那些未開墾的處女地領域創造性地使用AI。只不過這種探索思維,正在面臨越來越多的爭議——當斯坦福大學發現可以用AI算法,通過照片識別同性戀時,自然免不了遭遇這一群體的激烈控訴。

中國的《網絡安全法》和《信息安全技術個人信息安全規範》,在信息採集方面,都提到了合法、正當、必要等原則,不過現實中的界限往往不那麼明確。正如AI的運用,缺少明確的禁區地帶一樣,法律和道德的雙重風險,讓AI像無頭蒼蠅一樣屢屢踩雷。

而相較於讓AI的操控者遵守法律、道德,適度運用,以保證人工智能的行為後果,在既定的邊界之內,一個更困難的問題在於,如何讓那些具備自我決策能力的人工智能,能夠像人類一樣作出足夠道德的決策和判斷?

道德本身是相當抽象的,標準處在不斷的進化之中,它的基礎是社交網絡下內心的那些情感活動。比如隨地吐痰被周圍人看到,會帶來一種羞恥感,進而促使改正。

將人類的這套“規矩”,灌輸給靠數據餵養起來的AI,讓它具備情感,懂得是非善惡,無疑是一件充滿想象的事。畢竟就像和柯潔對弈的阿爾法狗一樣,人工智能在多數時候,目的是提供最優解決方案,未必是最道德的方案。而最優方案,有時候恰恰面臨著道德陷阱。

以經典的“電車難題”為例,假設一輛失控的有軌電車正駛向五個被捆綁在一起躺在軌道上的人,拯救他們的唯一方法是扳動道閘,讓電車駛向另一條軌道;與此同時,另一條軌道上躺著的一個人就會因此喪生。你此刻正是手握道閘的那個人,會如何抉擇?

現在這個問題隨著AI的出現而升級——一輛載著乘客的無人駕駛汽車,在面臨無法避開的撞擊危險時,該優先保證乘客安全,還是保證撞擊所發生的全部傷亡最小化?

將這些人類目前無解的難題交給AI去處理,同樣避免不了分歧。而且更重要的是,法律以及道德約束的存在,總是可以讓人為決策買單,但人工智能,我們甚至都無從判定,它到底是否具備主體資格、具備法律意義上的行為能力。

當然相對於AI被操控者違規使用的風險,人工智能自身“缺少道德”,更多隻是遠慮。所以道德標準的指向,主要還是創作、操控者。換句話說,要通過制定AI的道德標準,讓他們在開發、使用AI的過程中具備“道德血液”,保證產品有足夠的道德考量。

值得一提的是,去年歐盟委員會曾提出人工智能的7個關鍵要求,包括人類權利與監督,穩定性和安全性,隱私和數據管理,透明度,多樣性、公平性和避免歧視,社會和環境福祉以及問責制,這似乎是一種不錯的嘗試。

但話說回來,科技公司為了佔領風口,總是會傾向於積極地索取,比如隱私問題。所以對科技公司來說,給人工智能注入道德元素時,將會面臨著資本的反制,這要求它不能為自家的AI產品施加過多的限制,削弱它的功能。

值得一提的是,谷歌今年3月成立的人工智能道德委員會,存活了10天左右就宣告解散。很顯然,制定AI道德標準,最大的難關正是這群提出建議的科技巨頭自身。

作者是媒體評論員

(校對:顏京寧)

"

相關推薦

推薦中...