新系統允許光學“深度學習”

基於人造神經網絡的“深度學習”計算機系統已經成為計算機科學的熱門話題。除了啟用諸如面部和語音識別軟件的技術之外,這些系統還可以根據大量的醫療數據來查找可能在診斷上有用的模式,或推測可能的新藥物的化學配方。但是,這些系統執行的計算是非常複雜和苛刻的,即使是最強大的計算機。

新系統允許光學“深度學習”

現在,麻省理工學院和其他地方的一些研究人員開發了一種新的方法,使用光而不是電,這些計算可以大大提高某些深度學習計算的速度和效率。他們的研究報告今天出現在“ 自然光子學 ”雜誌上,麻省理工學院博士後研究生Nicholas Harris,教授Marin Soljacic和Dirk Englund等八人。

索拉喬奇說,多年來的許多研究人員,都對以光學為基礎的計算機提出了假設,雖然這種光子計算機的許多設想並不實用,但由該團隊開發的基於光的神經網絡系統,可能適用於某些應用的深入學習。

傳統的計算機體系結構對於某些重要的神經網絡任務所需的各種計算來說,並不是很有效率。這樣的任務通常涉及矩陣的重複乘法,其在常規CPU或GPU芯片中計算非常密集。

經過多年的研究,麻省理工學院團隊提出了一種以光學方式執行這些操作的方法。“這個芯片,一旦你調整它,就可以在原理上執行矩陣乘法,幾乎立刻就能得到結果,”Soljacic說。“我們已經展示了關鍵的組成部分,但尚未完成系統。”

作為類比,索拉喬奇指出,即使是普通的眼鏡鏡片,對通過它的光波都會產生複雜的變化(所謂的傅里葉變換)。光束在新光子芯片中進行計算的方式與一般狀況大不相同,但具有相似的基本原理。新方法使用以這樣的方式引導的多個光束,使得它們的波彼此相互作用,產生傳達預期操作結果的干涉圖案。所用的器件是研究人員稱之為可編程納米光子處理器。

Shen的結果是,使用這種架構的光學芯片原則上可以在典型的人造智能算法中進行更快的計算,並且每次操作的能量少於傳統電子芯片的千分之一。他說:“使用光線進行矩陣乘法的自然優勢在省時和省電,因為密集矩陣乘法是AI算法中功耗最大且耗時的部分。

由Harris和合作者在Englund實驗室開發的新的可編程納米光子處理器使用一系列波導,可以根據需要進行修改的方式互連,對特定計算的波束進行編程。“您可以在任何矩陣操作中進行編程,”Harris說。處理器引導光通過一系列耦合的光子波導。團隊的完整計劃要求使用稱為非線性激活功能的操作的交錯層,類似於大腦神經元的操作。

為了演示這個概念,該團隊設置了可編程納米光子處理器來實現識別四個基本元音的神經網絡。即使是這個基本的系統,他們也能夠達到77%的準確性,而傳統系統則達到了百分之九十。Soljacic說,“擴大系統的準確性”並沒有太大的障礙。

Englund補充說,可編程納米光子處理器也可以具有其他應用,包括用於數據傳輸的信號處理。“高速模擬信號處理是一種可以管理的東西”比其他首先將信號轉換為數字形式的方法更快,因為光是固有的模擬媒質。“這種方法可以直接在模擬領域進行處理,”他說。

該團隊表示,仍然需要更多的精力和時間才能使該系統有用; 然而,一旦系統放大並且功能完整,就可以發現許多用戶案例,例如數據中心或安全系統。哈里斯說,這個系統也可以是自駕車或無人機的福音,或者“每當你需要做很多的計算,但是你沒有太多的精力或時間的時候”。

相關推薦

推薦中...