前沿|人工智能能否成為法律主shi?

人工智能載體到底擔不擔責任?如果擔責,該如何量刑?

去年3月,亞利桑那州發生一起Uber無人駕駛汽車撞死行人事故。直到今年3月5日,美國檢察官表示:Uber公司不用擔責,但自動駕駛汽車的後備司機Rafael Vasquez的行為應提交警方進行進一步調查。

前沿|人工智能能否成為法律主shi?

人工智能的異軍突起將這樣的案件帶入公共視野,也為當前的法律法規、倫理規範和政策體系帶來不小的考驗:

“人工智能的載體究竟是不是法律主體?”

如果不是法律主體,那麼當人工智能載體觸犯他人利益、造成社會損失時,究竟應該由研發者、運營者還是使用者承擔責任呢?如果是法律主體,那麼又該如何為這些“人工智能”定罪量刑呢?

AI制定政策?聯邦政府早已啟動

不要以為人工智能只是科技公司的專利。事實上,近年來美國聯邦政府已經開始考慮使用機器學習和人工智能相關技術幫助公共政策的制定。

2013年以來,為了減少工作人員審理紙質文件的負擔,並提高案件決策一致性,美國退伍軍人事務部推出了一套計算機案件管理系統,用於處理退伍軍人的殘疾索賠。

人工智能與行政結合的優勢與擔憂

到底人工智能對政府績效的改善有哪些優點?主要有三點難以抗拒的優勢。

01

以較低成本完成大量重複性事件

能在排除個人因素干擾的前提下進行數據分析和結果預測。決策者可能表現出種族偏見,可能過分地或不足地衡量某一信息的重要性,或者可能對所處情況的預設過於天真。對人為意志的排除使機器做出的決策有天然的說服力。

最重要的是,通過與大數據的連接,計算機程序能幫政府官員分析信息,並對潛在的戰略性行為做出反應。

02

擔憂和爭議來自人工智能所謂的“機械理性”

由於在由算法主導的行政決策佔越來越重要的位置,但機器減少人為因素干擾的同時,是否應該反思,那些所謂的“偏見”和“情感因素”是否都沒有價值?一些可能被機器排除的“偏見”例如對弱者的同情,或許也同樣值得關注。

03

網絡安全風險及其他不利影響。

當行政越來越依賴數據收集和計算機程序,這可能帶來更高的效率,也同時意味著受網絡安全威脅的影響更大。

04

如何向公眾解釋決策過程將遇到困難

民主治理的內涵是通過對話和交流,每一種聲音都有被決策者或公眾理解、接受或拒絕的機會。除非人工智能的決策機制能依賴相對簡單透明的結構,否則向公眾提供決策如何產生的理由時,決策機構將會遇到相當的困難。

斯坦福法律課上的頭腦風暴

從2019年起,斯坦福大學政策研究中心新開設一門法律和計算機科學交叉的課程“算法管理:在規制型國家中的人工智能”。

前沿|人工智能能否成為法律主shi?

這門課程邀請了律師、計算機科學家和算法工程師來和大家共同探討政府機構的技術研發和應用。

前沿|人工智能能否成為法律主shi?

課堂的學生來自計算機科學、法律、政治、哲學等多個專業背景,需要通過團隊合作,完成三部分任務。

首先,團隊對100個最重要的聯邦機構進行調查。當發現有算法參與決策的例子時,學生們開始測評這項技術具體歸屬哪一類:是屬於人工智能,還是機器學習,還是一些其他的基礎技術?

第二步,學生集體評估近期或中期政府機構中最可能部署人工智能的環節。

最後,轉向規範性問題探討:思考使用人工智能執行監管任務帶來的法律、政策分析和哲學層面的挑戰。例如,如何解決諸多程序性權利面臨被機器行政架空的威脅等。

前沿|人工智能能否成為法律主shi?

課程結束後,學生將完成一份報告,探討行政機構在不同層面該如何應用人工智能技術。該報告將提交到無黨派獨立機構美國行政會議,並有望影響未來行政機構的政策。

編輯來源於硅谷密探

相關推薦

推薦中...