深度丨人工智能前沿技術應用趨勢與發展展望

source:paixin.com

現階段人工智能技術發展呈現出不同的特點,並面臨新的挑戰。短期來看,人工智能技術的研究將圍繞解決算法理論、數據集基礎、計算平臺與芯片等方面的問題進行;長期來看,人工智能技術將分別沿著算法和算力兩條主線向前發展,並逐步帶領人類進入到人機協同的新時代。

隨著深度學習技術在智能駕駛、智慧金融、智能製造、智慧農業、智慧醫療、智能家居等領域的逐步應用,作為引領這一輪科技革命和產業變革的戰略性技術,人工智能的產業化已經取得了顯著的效果,顯示出帶動性很強的“頭雁”效應。中國、美國、英國、德國、法國、日本等主要國家都紛紛將人工智能上升為國家級戰略,積極搶佔人工智能競爭的制高點。我國還進一步強調要加強人工智能領域前沿技術佈局,支持科學家勇闖人工智能科技前沿的“無人區”。

現階段人工智能技術發展特點


經歷了60多年的發展之後,人工智能已經開始走出實驗室,進入到了產業化階段。具體表現出以下幾個方面的特點:

深度學習技術逐漸在各領域開始應用

深度學習通過構建多隱層模型和海量訓練數據,來學習更有用的特徵,最終提升分析準確性。深度學習能夠通過數據挖掘進行海量數據處理,自動學習數據特徵,尤其適用於包含少量未標識數據的大數據集;採用層次網絡結構進行逐層特徵變換,將樣本的特徵表示變換到一個新的特徵空間,從而使分類或預測更加容易。因此,深度學習自2006年由Jeffery Hinton實證以來,在雲計算、大數據和芯片等的支持下,已經成功地從實驗室中走出來,開始進入到了商業應用,並在機器視覺、自然語言處理、機器翻譯、路徑規劃等領域取得了令人矚目的成績。

新型算法不斷探索

在深度學習應用逐步深入的同時,學術界也在繼續探索新的算法。一方面,繼續深度學習算法的深化和改善研究,如深度強化學習、對抗式生成網絡、深度森林、圖網絡、遷移學習等,以進一步提高深度學習的效率和準確率。另一方面,一些傳統的機器學習算法重新受到重視,如貝葉斯網絡、知識圖譜等。另外,還有一些新的類腦智能算法提出來,將腦科學與思維科學的一些新的成果結合到神經網絡算法之中,形成不同於深度學習的神經網絡技術路線,如膠囊網絡等。

基礎數據集建設已經成為基本共識

自從李飛飛等在2009年成功創建ImageNet數據集以來,該數據集就已經成為了業界圖形圖像深度學習算法的基礎數據集,通過舉辦比賽等方式極大地促進了算法的進步,使得算法分類精度已經達到了95%以上。這也使得一些大型研究機構和企業逐漸認識到了數據的價值,紛紛開始建立自己的數據集,以便進行數據挖掘和提升深度學習模型的準確率。如美國國家標準研究院的Mugshot、谷歌的SVHN、微軟的MS COCO等圖像基礎數據集,斯坦福大學的SQuAD、卡耐基梅隆大學的Q/A Dataset、Salesforce的WikiText等自然語言數據集以及2000 HUB5 English、CHiME、TED-LIUM等語音數據集。

新型計算基礎設施陸續成為產業界發展目標

由於深度學習對算力有較高的需求,因此相繼出現了一些專門的計算框架和平臺,如伯克利大學的Caffe、微軟的CNTK、Facebook的Torch、亞馬遜的MXNet、百度的 PaddlePaddle等,尤其是谷歌的TensorFlow能夠支持異構設備的分佈式計算,其平臺API能力已經覆蓋了CNN、RNN、LSTM等當前最流行的深度神經網絡模型。除了從計算框架軟件平臺進行研發之外,產業界同時也從硬件方面探索計算能力的提升方法。最為直接的方法就是採用計算能力更強的GPU替代原有的CPU等。此外,谷歌、IBM等一些大型企業在大量採用GPU的同時,也在探索進行符合自身計算環境的芯片研發,從而進一步降低成本、提高效率,因此產生了TPU等性能更加卓越的新型芯片。

人工智能技術發展面臨的挑戰

雖然人工智能技術發展已經取得了前所未有的成績,但隨著深度學習技術應用的不斷深化和產業化步伐的逐步加快,人工智能技術發展也面臨著不少挑戰。

主流技術深度學習還具有較大侷限性

一是在有限樣本和計算單元的情況下,對複雜函數的表示能力有限,其針對複雜分類問題的泛化能力受限。二是通過深度學習是一種基於概率統計的算法,機器系統學習到的是大概率內容,不是知識,無法像人類一樣進行舉一反三的應用。三是深度學習存在黑箱問題,不能解釋其自身做出決策的原因。

基礎數據積累還遠遠不能滿足模型訓練需要

由於大數據技術的出現和使用時間還不長,各類基礎數據不論從數量上還是從質量上來看,都尚需要較長時間的積累。一方面,某些關鍵領域和學術數據集還嚴重不足。另一方面,已有規模化的基礎數據集不僅數據質量良莠不齊,而且基本上由少數幾家巨頭或政府所掌握,鑑於監管和競爭等因素,無法實現有效流動。基礎數據的缺乏,使得深度學習模型訓練也造成了樣本基礎缺失。

計算框架和通用智能芯片尚未形成定局

雖然已經出現了TensorFlow、Caffe、CNTK、Torch、MXNet、PaddlePaddle等深度學習計算框架,但由於深度學習應用場景眾多,相關應用呈現碎片化特點,無論從功能還是性能角度來講,用於實現最後應用落地的開源計算框架與實際需求之間都還存在著相當的距離,滿足產業發展需求且具有絕對統治地位的開源計算框架也還沒有出現。同時,深度學習芯片還只是剛剛起步,而且還基本上屬於專有領域的芯片,通用智能芯片的產業化還需要較長時間的探索。

深度丨人工智能前沿技術應用趨勢與發展展望

人機和諧共處的有效途徑開始艱難探索

由於黑箱問題及其基於概率統計的特點,基於深度學習的智能系統存在產生不可控結果的隱患。我們已經看到,使用了人工智能技術的智能駕駛汽車出現了多次的事故,甚至造成了人員的傷亡。另外,使用了智能算法的自動駕駛飛機也出現了多次墜機事故。這些事故不僅造成了人們的生命和財產損失,也嚴重打擊了人們對人工智能的信心。實際上,這些事故的發生除了有技術方面的原因之外,還涉及到AI倫理的問題,也就是如何保證人類與智能系統之間的和諧共處、協同合作等問題。目前來看,AI的倫理問題還需要較長的探索過程。

人工智能技術發展趨勢

短期來看,人工智能技術的發展將圍繞對上述問題的解決進行。下面從算法理論、數據集基礎、基礎設施、人機協同等以下幾個方面進行探討。

算法理論

在算法理論層面,將繼續按照深度學習完善和新算法的兩條主線發展。首先,深度學習在提升可靠性、可解釋性等方面的研究以及零數據學習、無監督學習、遷移學習等模型的研究將成為熱點方向,這不僅僅是深度學習算法本身發展的需要,也是產業發展的需要。其次,學術界將繼續開展新型算法的探索,包括對傳統機器學習算法的改進、傳統機器學習算法與深度學習的結合以及與深度學習迥異的新型算法等。

數據集基礎

在數據集基礎方面,學術界與產業界將共同合作構建語音、圖像、視頻等通用數據集以及各行業的專業數據集,使得各類數據集能夠快速滿足相關需求。一方面,隨著對人工智能認識的不斷加深,將會有越來越多的企業和政府機構開展數據自建和數據標註等工作。另一方面,隨著深度學習的發展,將會出現智能化的數據標註系統來幫助和替代人類進行數據標註等工作。再有,在政府引導和支持下,一些開放的標準化數據集將會陸續出現,為整個行業提供標準化訓練數據集。

計算平臺與芯片

在計算平臺與芯片方面,大型企業自研計算框架、自建計算平臺,甚至是自研芯片等,仍將是普遍現象。這主要是由於以下兩個方面的原因。一是企業出於自身數據和業務安全的考慮,對使用其他機構提供的訓練平臺仍然持有不信任的態度;二是每個企業的數據中心和相關平臺都有其自身的特點,自研計算框架、自建計算平臺和自研芯片能夠更好地滿足自身的業務發展需要。

人機協同機制

在人機協同機制方面,“人在迴路”將成為智能系統設計的必備能力。目前,機器智能並沒有實現人們所希望的“以人為中心”,仍然還是以機器為中心,這也是人類屢受智能系統傷害的主要原因之一。因此,將人類認知模型引入到機器智能中,使之能夠在推理、決策、記憶等方面達到類人智能水平,將成為學術界和產業界共同追求的目標,並可能在一定的時間內取得較好的階段性成果。

人工智能技術發展展望

長期來看,人工智能技術將分別沿著算法和算力兩條主線向前發展,並逐步帶領人類進入到人機協同的新時代。

高度關注類腦智能算法

深度學習是基於馮·諾依曼體系結構發展起來的。由於受到內存牆等相關方面的制約,難以達到較高的計算效率。為此,近些年來IBM等已經開始進行顛覆馮·諾依曼體系結構的類腦智能算法與技術的探索。類腦智能借鑑大腦中“內存與計算單元合一”等信息處理的基本規律,在硬件實現與軟件算法等多個層面,對於現有的計算體系與系統做出本質的變革,並實現在計算能耗、計算能力與計算效率等諸多方面的大幅改進。目前,隨機興奮神經元、擴散型憶阻器等已經在IBM、馬薩諸塞州阿姆赫斯特大學、清華大學等機構研製成功,IBM已經研製成功TrueNorth芯片,清華大學團隊也成功研製出了基於憶阻器的PUF芯片。

智能部署從中心向邊緣和終端擴散

隨著智能裝備和智能機器人等智能終端的逐漸增多,智能終端的快速反應以及相互之間的協同行動需求將會越來越迫切,對智能服務的實時性將會越來越強烈。這就要求智能服務從雲端向網絡邊緣甚至終端擴散,智能模型與算法需要部署在網絡邊緣或終端之上,就近提供網絡、計算、存儲、應用等核心能力,從而滿足通信、業務、安全等各方面的關鍵需求。

目前,英偉達、高通等都已經陸續開展了用於邊緣網絡或終端的AI專用芯片。而隨著5G網絡的普遍部署,邊緣智能將會獲得快速的發展。

深度丨人工智能前沿技術應用趨勢與發展展望

深度學習通用平臺和通用AI芯片將會出現

隨著人工智能應用在生產生活中的不斷深入融合,智能終端的互聯互通將會成為必然。由於跨框架體系開發及部署需要投入大量資源,因此儘管每個終端的智能模型可能不同,但深度學習計算框架的模型底層表示將會逐漸趨同,形成深度學習通用計算框架和平臺。隨著計算框架的整合,GPU和TPU等芯片將可能會被通用AI芯片所替代。

量子計算推動形成新一輪計算革命

不論現在還是將來,人工智能無疑都將是最為消耗計算資源的業務和應用之一,計算效率也將是智能體永恆的追求目標。量子計算具有強大的計算能力和效率,已經成為全球公認的下一代計算技術。IBM已經在近期推出了世界上第一個商用的通用近似量子計算系統里程碑產品IBM Q System One,客戶可以通過互聯網使用這臺量子計算機進行大規模的數據計算,為人工智能計算展示了良好的前景。

人工智能已經逐漸向工業、農業、交通、醫療、金融等各個領域滲透,並開始形成新的業態,成為了新一輪技術革命的制高點。因此,必須積極主動把握人工智能技術和產業發展機遇,認清技術發展趨勢,在類腦智能、邊緣智能、通用平臺與芯片、量子計算等前沿技術領域加快佈局,勇闖人工智能科技前沿的“無人區”,才能抓住人工智能時代發展的主動權。

相關推薦

推薦中...