MIT研發光學深度神經網絡:幾乎不需能耗

安妮 編譯自 Phys.org

量子位出品 | 公眾號 QbitAI

MIT研發光學深度神經網絡:幾乎不需能耗

深度學習計算機系統是基於人工神經網絡(Artificial Neural Networks)模仿人腦學習方法的一種系統,現已成為計算機科學領域的熱門話題。深度學習不僅助力了面部和聲音識別軟件的發展,還為醫療領域帶去了大量數據輔助診斷。

但這些系統需要執行的計算是非常複雜和嚴格的,即使是對配置最強的計算機來說,計算仍然是個不小的挑戰。

目前,研發人員已經研發出一種新型的計算方式——他們用光子代替電子作為信息輸送介質,極大提高了某些深度學習中計算的速度和效率。這項成果由11個人共同完成,有來自MIT的博士後Yichen Shen,研究生Nicholas Harris,教授Marin Soljacic和Dirk Englund和來自其他地方的研究人員。目前,他們的論文成果已經刊登在《 Nature Photonics》期刊上。

MIT研發光學深度神經網絡:幾乎不需能耗

MIT研發光學深度神經網絡:幾乎不需能耗

MIT研發光學深度神經網絡:幾乎不需能耗

Paper查看地址:

https://www.nature.com/nphoton/journal/vaop/ncurrent/full/nphoton.2017.93.html

教授Soljacic表示,光學計算機已經被很多研究人員鼓吹了很多年了,就是因為人們過度宣揚,才導致如今好像看起來有點讓人失望,感覺事與願違。雖然有很多人提倡使用光學計算機,但研究成果並不實用。這個團隊研究的光神經網絡系統能應用到很多程序上。

傳統計算機的架構在處理某些重要神經網絡任務所需計算時並不是很有效。這樣的任務通常涉及重複的矩陣乘法,需要在CPU和GPU上進行密集的計算。

經過多年研究,這個MIT提出了一種相反的方式執行這種操作。“一旦你調試好這個芯片,它就能運行矩陣乘法。原則上講它幾乎不需要能量,”Soljacic說,“我們已經演示了關鍵模塊,但還沒有全部公佈。”

Soljacic用類比的方式解釋了新系統的原理。即使是普通的眼鏡片,也會在經過它的光波上進行復雜的計算(也就是所謂的傅立葉變換)。光束在新光子芯片中進行計算的方式式與其基本原理相似。這種新方法使用多個光束傳播,它們的波會相互作用,產生干擾模式,從而傳達出預期的操作的結果。研究人員稱這種設備為可編程的納米光子處理器。

據Yichen Shen描述,使用這種架構的光學芯片,原則上可以在傳統人工智能算法中進行運算,比傳統的電子芯片要快得多,但使用的能量還不及千分之一。他說:“用光運行矩陣乘法計算的天然優勢就是,它在加速和省電方面起重要作用,因為密集的矩陣乘法是AI算法中最耗電和耗時的那部分。”

這個新型可編程納米光子處理器,是由Harris和合作人員在Englund實驗室共同開發的。它使用了一系列的波導管(傳輸微波波段的電磁波裝置),這些波導管相互連接,可以根據需要進行修改,為特定的計算編程。“你可以在任何矩陣運算中編程。”Harris說。處理器通過一系列耦合光子波導來引導光線。他們要求設備的交錯層應用非線性激活函數,與大腦神經元的操作進行類比。

為了演示這一概念,研究小組設置了可編程的納米光子處理器來實現一個能夠識別四種基本元音的神經網絡。即使有了這個基本的系統,他們也能達到77%的準確率,傳統系統的準確率為90%。Soljacic說,增強系統的準確性並沒有“實質性的障礙”。

Englund補充說,可編程的納米光子處理器也有其他應用,包括數據傳輸的信號處理。“高速模擬信號處理比其他將信號轉化為數字形式的處理方法更快,因為光是一種天然的模擬介質,”他說,“這種方法能在模擬域中直接處理。”

該團隊稱,他們還需要更多的努力和時間使系統變得更實用。一旦這個系統性能提升且功能完備,就能找到許多用戶案例,比如數據中心或安全系統。Harris說,這種系統也可以為無人駕駛汽車或無人機帶來好處,適用於“需要做大量計算,但你沒有太多的力量和時間”的情況。

【完】

一則通知

量子位正在組建自動駕駛技術群,面向對象為研究自動駕駛相關領域的在校學生或一線工程師~歡迎大傢俬信量子位(Qbitbot)申請加入哈~

相關推薦

推薦中...