長相決定性取向?通過一張照片,這套AI系統就能判斷你是不是同性戀

長相決定性取向?通過一張照片,這套AI系統就能判斷你是不是同性戀

AI星球(微信IDai_xingqiu)】9月9日報道 (編譯:小白)

根據最新研究,人工智能可以基於人們臉部照片準確猜測出他們的性取向,這表明機器人可能比人類更擅長“發現同性戀者”。

斯坦福大學的研究發現,計算機算法可以正確區分出男同性戀者和直男,準確率高達81%,而對於女同性戀者和正常女性,則為74%。這一發現引起了性取向的生物學起源問題,面部識別技術的道德問題,以及這種軟件侵犯人們隱私或被濫用於反對LGBT目的的可能性。

這一研究發表於《人格與社會心理學雜誌》上,並首次由《經濟學人》報道,該研究中測試的機器智能,則是基於男性和女性公開發布在美國某一約會網站的面部照片,樣本數量超過3.5萬張。研究人員Michal Kosinski和Yilun Wang使用“深度神經網絡”從圖像中提取特徵。

研究發現,同性戀男女往往具有“性別非典型”特性,表情和“裝扮風格”,本質上就是男同性戀者外貌更女性化,反之亦然。數據同時還發現了一個特定的趨勢,比如男同性戀者比直男擁有更狹窄的下巴,長鼻子和大額頭。相比直女,女同性戀者的下巴更寬大,額頭較小。

人類的判斷結果顯然與算法的準確率相去甚遠,大體上對男性的性取向判斷準確率只有61%,而女性只有54%。每當軟件檢查一個人的五張照片時,準確率會更高——男性91%,女性83%。作者寫道,廣義上講,這意味著“算法面部解讀比人類大腦可以感知和解釋更多關於性取向的信息。”

文中指出,研究結果為“性取向源於先天的特定激素暴露”這一理論提供了“強有力的支持”。也就是說,同性戀是天生的,與周圍人格格不入並不是人們自己所能控制的。機器算法對於女性同性戀者的低準確率同時也佐證了“女性性取向更加易變”的觀點。

雖然研究結果在性別和性取向方面具有明確的界限——然而有色人種並沒有納入到研究範圍,同時也沒有考慮到變性人和雙性戀者,即便如此,AI帶來的影響仍十分巨大且令人震驚。監獄社交媒體網站和政府數據庫中存儲有數十億張的人類面部照片,研究人員認為,公共數據可能會不經個人同意而直接被用於檢測人們的性取向。

當配偶懷疑自己被騙婚時,他/她很可能會使用這一技術來檢測對方的性取向,或者青少年使用該算法來分析自己或同伴的性取向,這些都將在意料之中。更可怕的是,很有可能,堅持檢舉LGBT人群的政府可以對目標人口使用這項技術。考慮到它可能會引起不當的應用,構建這類軟件並公開之本身便具有爭議。

但是研究的作者表示,技術已經存在,其能力應該被公眾知曉,這樣政府和公司才能夠主動考慮隱私風險以及對保障和法規的需求。

“這當然很令人不安。就像任何新工具一樣,如果陷入錯誤的人之手,它可以被用於邪惡的目的,”多倫多大學心理學副教授Nick Rule說,“如果你能夠根據他們的外貌對他們進行分析歸類,進而識別他們並向之伸以罪惡之後,想想都很可怕。”

但Rule依然認為開發和測試這項技術很有必要:“作者們所做的一件事就是讓人們知道這項技術究竟有多可怕。如今我們已經知曉,接下來該做的就是思考如何保護我們自己。”

根據斯坦福大學發言人的迴應,Kosinski暫不方便接受採訪。Kosinski教授以在心理測試分析方面的研究工作而聞名,包括使用Facebook的數據來歸納個人性格。特朗普的活動和英國退歐支持者都對目標選民採用了類似的工具,引起了人們對在競選中利用個人數據的擔憂。

在斯坦福的這項研究中,作者們還指出,人工智能可用於探索麵部特徵與其他一系列現象之間的聯繫,比如政治觀點、心理狀況或個性。

這種類型的研究進一步引發了類似於科幻電影“少數派報告”中所描繪的可怕場景的擔憂。在影片中,僅因為有犯罪可能性,人們就會被捕入獄。

“只要有足夠多的數據,AI可以告訴你關於任何人的一切,”面部識別公司Kairos的首席執行官Brian Brackeen說道,“問題是作為一個社會,我們需要知道嗎?”

Brackeen稱讚斯坦福在性取向方面的數據“準確率高的驚人”,同時他也表示,隨著機器學習越來越普遍,越來越先進,我們需要極大地關注隱私並開發工具來防止機器學習被濫用。

Rule擔心,基於機器對人類面部的解讀,AI很有可能會不斷地被用於歧視人類,他說:“我們所有人都應該對此保持高度警惕。”

本文來自獵雲網,如若轉載,請註明出處:http://www.lieyunwang.com/archives/361701

相關推薦

推薦中...