通向未來人工智能的三條賽道:高性能計算、神經形態計算和量子計算

編者按:本文由微信公眾號”機器之心“(ID:almosthuman2014)編譯,選自datasciencecentral,作者:William Vorhies,參與:黃小天、蔣思源;36氪經授權發佈。

有三種技術,可以帶來更快、更簡單、更廉價、更聰明的人工智能。今天,高性能計算,以及後來出現的量子計算機和神經形態計算已觸手可及;並且,後兩者正變革著人工智能和方興未艾的深度學習。

通向未來人工智能的三條賽道:高性能計算、神經形態計算和量子計算

人工智能與深度學習的三個問題

時間:訓練一個 CNN 或 RNN 通常需要數週的時間。這還不算上為了達到所需的性能表現,花在定義問題以及編程深度網絡時迭代成敗上的數週甚至數月的時間。

成本:數百塊 GPU 連續數週的計算成本高昂。從亞馬遜雲計算服務中租用 800 塊 GPU 一週的時間花費在 120,000 美元。這還沒開始算上人力成本。完成一個 AI 項目往往需要佔用最優秀人才數月、一年甚或更多的時間。

數據:由於缺乏足夠數量的標註數據而使項目無法展開的情況比比皆是。由於無法以合理的價格獲取訓練數據,很多好創意被迫放棄。

因此,取得較好商業表現的多是圖像處理、文本和語音識別,並且那些借力谷歌、IBM、微軟和其他巨頭的初創企業成果更多。

通向未來人工智能的三條賽道

如果你關注這一領域就會發現,我們已經使用 CNN 和 RNN 做了一些應用,但是超越這些應用的進展才剛開始。下一波的進展來自生成對抗網絡和強化學習,並獲得了問答機器(比如沃森)的一些幫助。我們最近的一篇文章對此作了很好的總結(詳見:人工智能的三個階段:我們正從統計學習走向語境順應)。

通向未來人工智能的三條賽道:高性能計算、神經形態計算和量子計算

這是一個有關如何推動人工智能發展的最常見版本。這是日益複雜的深度神經網絡,它與現在的 CNN 和 RNN 有著不同的架構。僅僅是讓它們運行更快。

實際上未來可能相當不同。現在展現在我們面前的是基於完全不同技術的通向未來人工智能的三條賽道。它們是:

1. 高性能計算(HPC)

2. 神經形態計算(NC)

3. 量子計算(QC)

其中,高性能計算是本篇文章關注的焦點。芯片製造商以及以及谷歌等巨頭正在開展競爭,爭相打造深度學習專用芯片。

另外兩個,神經形態計算(也被稱為脈衝神經網絡)和量子計算看起來似乎還需要幾年。但事實是商用神經形態芯片和商用量子計算機已投入應用於機器學習之中。不管兩者是冷是熱,神經形態計算和量子計算都會使人工智能的未來之路變得更撲所迷離,但這是一件好事。

高性能計算(HPC)

高性能計算關注度最高。它使用我們已知的深度神經網絡架構,並使其更快更容易被獲取。通常這意味著兩件事:更好的通用環境,比如 TensorFlow;更多地利用更大數據中心中的 GPU 和 FPGA,也許不久之後會出現更專業化的芯片。

現如今人工智能的新商業模式是「開源」。2016 年上半年,人工智能的每一個主要玩家都開源了其 AI 平臺。這些競爭者在數據中心、雲服務、人工智能 IP 上進行了大量投資。開源背後的策略很簡單:平臺用戶最多者獲勝。

同時,英特爾、英偉達及其他傳統芯片製造商也正積極滿足用戶對於 GPU 的新需求,其他巨頭如谷歌和微軟則自己開發了全新的專屬芯片,從而使其深度學習平臺更快,更具吸引力。連同新近推出的 TPU,谷歌鐵定了要把 TensorFlow 作為其主打的通用型解決方案。微軟則在兜售非專屬芯片 FPGA 的使用,併發布了 CNTK 2.0 完整版;它提供了 Java API 可直接整合 Spark,同時支持 Keras 代碼。據稱 CNTK 比 TensorFlow 更快更精確,且也提供 Python API。

整合 Spark 將持續成為一個重要的推動力。雅虎已實現了 TensorFlow 與 Spark 的整合。Spark 的主要商業供應商 Databricks 現在有其自己的開源工具包,以把深度學習與 Spark 相整合。這裡的關鍵驅動力將至少解決三個障礙中的兩個。這些進展將會使編程更快更簡單,從而帶來更可靠的結果,尤其是更快速的芯片將會使機器計算的原始時間變的更短。

問題是這些提升將會幫助我們到那一步(這和摩爾定律的侷限性很像),是否可用於 GAN 和強化學習;答案很可能是,至少在今天我們知道如何使用這些深度學習架構。

神經形態計算(NC)或脈衝神經網絡(SNN)

神經生態計算或脈衝神經網絡是通向強人工智能的一條路徑,它基於一些大腦運行的原理而設計,與深度神經網絡的結構和原理有顯著的不同。

神經形態計算最開始是由研究者發現大腦神經元並不是每一次都全部激活而啟發。神經元將選擇性信號沿著突觸傳播,並且數據實際上是以信號的潛在脈衝方式傳播。實際上,這些信號是由一系列脈衝組成,所以研究者對信息是否編碼在一系列脈衝的振幅、頻率或延遲中做進一步探討。

在現有的深度神經網絡中,神經元根據相對簡單的激活函數(如 Sigmod 或 ReLU 等)每一次都會全部激活。

神經形態計算相對於深度神經網絡已經展示了一些巨大的提升:

  • 因為並不會每一次都激活所有的神經元,所以大<單個 SNN 神經元可以替代傳統深度神經網絡中的數百個,因此在能效和規模上都有更高的效率樣本。

  • 早期案例展示了脈衝神經網絡可以僅使用無監督技術(無標註)從環境中學習,而少量的樣本可以令它們學習非常迅速。

  • 神經形態計算可以從學習一個環境泛化到另一個環境,它能夠記憶並且泛化,這真的是一個突破性的能力。

  • 因為神經形態計算能效非常高,所以可以進行小型化。

所以轉變這種基礎架構能夠解決深度學習如今面臨的三個基礎問題。更重要的是,如今我們能夠購買和使用神經形態脈衝神經網絡系統。這並不是遙遠未來的一個技術。

BrainChip Holdings (Aliso Viejo, CA) 已經在拉斯維加斯最大的賭場應用了商業安防監控系統,並且它宣稱還有一些其他應用也已經交付。在拉斯維加斯,該系統的功能就是通過標準攝像頭的視頻流自動監控 dealer 的錯誤。該系統完全通過觀察學習遊戲規則。BrainChip 表明它的 SNN 有 IP 專利保護,並藉此推出了一系列賭博監控產品。

現如今有很多科技進步,但 SNN 是開發 AI 商業系統很有競爭力的選擇。

量子計算

可能讀者對量子計算並沒有如下認識:

  • 量子計算如今是可用的,Lockheed Martin 從 2010 開始就已經從事相關的商業運作。還有其他幾家公司都在推出基於 D-Wave 量子計算機的商業應用,D-Wave 的量子計算機是第一個發展的商業市場。

  • 今年五月,IBM 聲稱他們的量子計算機 IBM Q 現在已經可以投入商業中。在這是一種基於雲端的訂閱服務,它無疑將大大簡化對這些昂貴且複雜的機器的訪問。IBM 表示截止到目前,用戶已經在 IBM Q 機器上進行了 30 萬次實驗。

  • 谷歌和微軟計劃在兩三年內發佈他們的商業化量子機器,並整個作為獨立的研究學術機構。

  • D-Wave 和其他一些獨立的研究者已經引進了量子計算機的開源編程語言,他們希望可以對量子計算機編程更加容易。

  • 量子計算機擅長於解決現有所有類型的優化問題,包括整套基於隨機梯度下降的各類算法。量子計算機也很容易模擬受限玻爾茲曼機,它是很多深度神經網絡架構中的一個,並且還可以用於深度學習結構中以像 CNN 那樣解決圖像分類問題。因為基礎架構不一樣,所以我們稱其為量子神經網絡(QNN)。

  • 根據谷歌基準 2015 年的研究報告,D-Wave 量子計算機相對於傳統計算機性能要優秀 108 倍,也即快 1 億倍。谷歌工程主任 Hartmut Nevan 說:「D-Wave 在 1 秒中所做的,傳統計算機需要花 1 萬年計算」。

所以量子表徵仍然是第三條通向強人工智能的道路,它同樣克服了速度與成本問題。

三條道路

事實是神經形態計算和量子計算都是很有潛力的方向,它們都有可能令深度學習甚至是新型人工智能更快地運行。

首先是時間線。高性能計算如今正在持續發展,並在接下來幾年都基於前面介紹的新型芯片而得到性能上的持續發展。然而,隨後幾年很大一部分實驗室和數據中心都會由更先進的量子計算機和神經形態計算所替代。

像谷歌 TensorFlow 和微軟 Cognitive Toolkit(CNTK)那樣的深度學習平臺正在發展,而其他競爭對手也在努力構建平臺並獲得用戶。因此隨著量子計算和神經形態計算的能力得到傳播,這些平臺都會適應它們。

神經形態脈衝神經網絡(SNN)和量子計算現在僅僅在商業上出現,但它們都會賦予人工智能非凡的能力。

SNN 有希望成為強大的自學習者。通過更小的非標註訓練集以及不同領域之間的知識遷移能力,極大地提升了效率。

量子計算機將徹底消除時間障礙,成本障礙最終也將降低,基於時間的解決方案從數月縮短至數分鐘。重要的是當前使用的學習風格被稱作增強型量子計算,因為它是基於當前的深度學習算法,並提升了其性能。然而將來會出現基於完全不同能力(為這些機器所獨有)的全新類型的機器學習。

我的個人感覺是在量子計算和神經形態計算上,我們現在的處境和 2007 年很像,那一年穀歌的 Big Table(譯者注:谷歌設計的分佈式數據存儲系統,用來處理海量數據的一種非關係型的數據庫)變成了開源的 Hadoop。一開始我們確實不知道怎麼對待它,但是三年之後 Hadoop 幾乎主導了整個數據科學。我認為從今天開始,下一個三年也同樣令人驚奇。

原文鏈接

相關推薦

推薦中...