算法正在創造一個沒人能理解的代碼世界

這幾年,以今日頭條為代表的“算法分發”模式席捲全球互聯網行業。而各界對算法的非議也漸漸浮現,有的認為它“計算不準”,有的認為它“惡意推薦”,甚至還出現了“算法技術應退出時代舞臺”的論調。

事實上,對科技公司來說,算法是一把雙刃劍,一方面在驅動其業績增長方面立下了汗馬功勞,另一方面卻“後患無窮”。以今日頭條為例,該公司幾乎完全憑藉算法,快速超越了傳統門戶的人工編輯模式,優勢極為明顯;但在判斷內容質量,發現傳播風險方面,算法卻還處於非常初級的階段,不太能指望得上。

總的來說,隨著算法的發展,這個代碼疊加的技術正逐漸創造一個沒人能理解的世界......

算法正在創造一個沒人能理解的代碼世界

2018年3月18日,悲劇發生了,這也是科技人士所擔心的。那天晚上,一輛Uber無人車在自動駕駛的狀態下行駛,突然檢測到前方有障礙物出現。一系列雷達和激光雷達傳感器探測到的數據讓機載算法開始計算,假設障礙物保持不動,車速穩定在43英里/小時,那現在二者的距離只需6秒。但是道路中的物體很少保持靜止,於是更多的算法開始搜索可識別生物實體的數據庫,以尋找一個模型來推出一個完美的解決方案。

起初,計算機空白了幾秒,隨後決定與障礙物“碰面”希望它能自行離開。然而,到最後一秒,該車才清楚的知道,這是一位推著自行車的女士。在這種情況下,汽車想要繞過去,但因為禁止自行採取規避行動,計算機只能將控制權交還人類。遺憾的是,安全員正在開小差,悲劇就這樣發生了:49歲的Elaine Herzberg在車禍中去世。這件事也給科技界的留下了兩個值得反思的問題:這種算法造成的悲劇是不可避免的嗎?我們應該如何應對這些事件?

“在某些方面,我們失去了控制權。當程序進入代碼,代碼進入算法,然後算法開始創建新算法時,它會越來越不受人類控制,軟件也就進入了一個沒人能理解的代碼世界。”是不是聽起來很驚悚,事實也會如此。這句話出自Ellen Ullman之口,她是自20世紀70年代以來的一位傑出的專業程序員,也是為數不多的幾位出版過關於編程的書的人。

算法正在創造一個沒人能理解的代碼世界

“人們可能會說,‘那Facebook呢?他們創造並使用算法,還會進行改進。’但這不是Facebook的運作方式。研究員設置算法,它們學習,改變和運行自己。Facebook定期介入,但他們真的無法控制這些算法,對特殊的算法而言,它們不僅僅是自主運行,還會調用數據庫,進入深層操作系統,等等。”

什麼是算法?

如今,很少有哪種技術會比算法更受歡迎,但算法究竟是什麼呢?從根本上說,算法是一個小而簡單的事情,即用於自動處理數據的規則。如果a發生了,那麼執行b;如果沒發生,那就執行c。這是經典計算的“if / then / else”邏輯。核心上,計算機程序是這類算法的捆綁,為它們投遞處理數據。

不過,近年來算法出現了一種很模稜兩可的定義,指任何大型、複雜的決策軟件系統,根據一組給定的標準(或“規則”),獲取數據輸入並快速評估。這徹底改變了醫學、科學、交通、以及通信領域,讓人們的生活在各個方面變得更好。

直到2016年,我們對算法有了新的思考。像Facebook和谷歌這樣的公司開始以客觀的承諾為算法辯護,認為它可以通過數學分離和缺乏模糊情感來權衡一系列條件。基於此,這種算法決策擴展到了發放貸款、保釋、福利、工作面試以及其他任何需要選擇的事情上。

現在的我們不再能接受這種對算法的“推銷”。凱西·奧尼爾(Cathy O'Neil)在其著作《數學破壞武器》(Weapons of Math Destruction)中表示,對於人類的偏見,算法不僅會鞏固還會放大,而不是消除。對此,她呼籲對任何能直接影響公眾的系統進行“算法審計”(algorithmic audits),這是一個明智的想法,不過對科技行業不是一件好事,因為算法是他們的支撐,他們最不願做的就是透明化。

算法正在創造一個沒人能理解的代碼世界

好消息是這場戰鬥正在進行中,壞消息是人們的注意力都集中在人工智能的遙遠承諾和威脅上,幾乎沒人注意到我們進入了算法革命的新階段。由奧尼爾和其他人所創造的算法是不透明但可預測的,我們將這些算法稱為“dumb”,它們能根據人類定義的參數來完成工作。

而結果的質量取決於編程的思想和技巧。其終極目的便是人工智能或AGI。一個智能機器將能夠基於直覺質疑自己的計算質量(我們可能認為是經驗和知識的積累)。谷歌DeepMind創建的AlphaGo就是一個很好的例子。事實上,在某些特定任務中,計算機已經遠遠優於人類,但要與人類的能力相比媲美,還需要時間。

現實生活中的危險

回到之前Uber無人車發生事故的原因。目前正在測試的自動駕駛汽車可能包括1億行代碼,並且鑑於沒有程序員可以預測真實世界道路上的所有可能情況,他們必須學習並接收不斷更新。我們如何避免在此代碼環境中發生衝突,尤其是算法可能還需要保護自己免受黑客攻擊的時候?

二十年前,George Dyson在他的經典著作《電腦生命天演論》(Darwin Among the Machines)中預測了今天發生的大部分事情。他表示問題在於我們正在構建超出控制範圍的系統。人們總是相信,如果一個系統是確定的(根據固定規則行動,這是一個算法的定義),它就是可預測的,並且預測也是可控的。實際上,這兩個假設都是錯誤的。

算法正在創造一個沒人能理解的代碼世界

與以前的電子機械系統不同,新算法無法進行詳盡的測試。除非我們擁有超級智能機器為我們做這件事,否則我們就是在鋌而走險。因此,從目前的情況看,重點是機器學習。我們都知道,今年早些時候,Uber自動駕駛汽車出現了致死事故,因為算法在對行人分類時猶豫不決。這是由於編程不佳,算法培訓不足還是拒絕接受技術的侷限性造成的?真正的問題是我們可能永遠不會知道答案。

新南威爾士大學的人工智能教授Toby Walsh表示,“我們最終會完全放棄編寫算法,因為未來機器能比以我們做得更好。從這個意義上說,軟件工程可能是一個垂死的職業。它將被機器接管。“此外,他還指出,這會讓人們學習編程變得更加重要,因為隨著我們越來越疏離編程,就會越覺得它的影響超出了我們的能力。另外,倫理在科技領域來說,是最重要的。畢竟,哪裡有選擇,哪裡就是道德所在的地方。

算法正在創造一個沒人能理解的代碼世界

相反的觀點是,一旦程序出現問題,整個程序群體就可以被重寫或更新,同一種情況就不會再發生了,而不像人類,重複錯誤的傾向可能更會誤導機器。儘管如此,雖然從長遠來看自動化應該更安全,但我們現有的侵權法體系需要重新定製,這需要有意或過失的證明。

其實,上文描述的大多數問題,也都在尋找解決方案。從長遠來看,會有更多的人猜測,考慮到我們越來越依賴的算法系統的規模,複雜性和相互依賴性,當前的編程方法已不再適用。對此,部分航空航天工業採用了一種較新的被稱為“基於模型的編程”的方法,其中機器完成大部分編碼工作並且能夠隨時進行測試。

然而,基於模型的編程可能不是萬能的靈丹妙藥。它不僅使人類進一步遠離這一過程,而且人類也無法從代碼本身推斷出極端行為,即使是在使用大型複雜系統構建的情況下也是如此。當我們等待技術上的答案來解決算法問題時,或許採用一些預防措施才是最重要的。

相關推薦

推薦中...