"
"
未來5年,雲人工智能芯片組市場有望翻番

人工智能加速器芯片的機會大肆宣傳,但市場有多大,今天哪些公司實際銷售芯片?

ABI Research的兩份新報告詳細介紹了當今AI芯片組市場的發展狀況。作為報告的作者,首席分析師帶我們瞭解哪些公司和技術正在進入這個潛在的利潤豐厚的市場。

人工智能在雲端

第一份報告“Cloud AI芯片組:市場格局和供應商定位”強調了雲AI推理和培訓服務如何快速增長。由此產生的AI芯片組市場預計將從2019年的42億美元增長到2024年的100億美元。目前這一領域的領導者Nvidia和英特爾正受到Cambricon Technologies,Graphcore,Habana Labs和Qualcomm等公司的挑戰。

據Su介紹,Nvidia仍然是這個市場的明顯領導者,主要取決於其成熟的開發者生態系統及其先發優勢。

“此外,隨著AI模型,庫和工具包的不斷變化和更新,Nvidia作為一種良好的後備選擇,因為它具有通用AI芯片組的能力,”Su說。“當然,隨著市場的成熟,這些優勢將逐漸減弱,但至少在可預見的未來,Nvidia仍將處於強勢地位。”

今天的AI芯片組雲市場分為三個部分。公共雲由雲服務提供商託管:AWS,Microsoft,Google,阿里巴巴,百度和騰訊等。然後是企業數據中心,它們實際上是私有云,加上ABI稱之為“混合雲”,意味著將公共雲和私有云(VMware,Rackspace,NetApp,HPE,Dell)結合在一起的產品。

該報告還確定了另一個新興的細分市場 - 電信雲,它指的是電信公司為其核心網絡,IT和邊緣計算工作負載部署的雲基礎架構。

Su表示,這一新細分市場為AI芯片組製造商帶來了巨大機遇。

“我們已經看到了像華為這樣的網絡基礎設施供應商,在較小程度上看到諾基亞推出了針對電信網絡功能進行優化的ASIC,”Su說。“這是一個巨大的市場,但Nvidia最近一直在努力進入這個市場。”

"
未來5年,雲人工智能芯片組市場有望翻番

人工智能加速器芯片的機會大肆宣傳,但市場有多大,今天哪些公司實際銷售芯片?

ABI Research的兩份新報告詳細介紹了當今AI芯片組市場的發展狀況。作為報告的作者,首席分析師帶我們瞭解哪些公司和技術正在進入這個潛在的利潤豐厚的市場。

人工智能在雲端

第一份報告“Cloud AI芯片組:市場格局和供應商定位”強調了雲AI推理和培訓服務如何快速增長。由此產生的AI芯片組市場預計將從2019年的42億美元增長到2024年的100億美元。目前這一領域的領導者Nvidia和英特爾正受到Cambricon Technologies,Graphcore,Habana Labs和Qualcomm等公司的挑戰。

據Su介紹,Nvidia仍然是這個市場的明顯領導者,主要取決於其成熟的開發者生態系統及其先發優勢。

“此外,隨著AI模型,庫和工具包的不斷變化和更新,Nvidia作為一種良好的後備選擇,因為它具有通用AI芯片組的能力,”Su說。“當然,隨著市場的成熟,這些優勢將逐漸減弱,但至少在可預見的未來,Nvidia仍將處於強勢地位。”

今天的AI芯片組雲市場分為三個部分。公共雲由雲服務提供商託管:AWS,Microsoft,Google,阿里巴巴,百度和騰訊等。然後是企業數據中心,它們實際上是私有云,加上ABI稱之為“混合雲”,意味著將公共雲和私有云(VMware,Rackspace,NetApp,HPE,Dell)結合在一起的產品。

該報告還確定了另一個新興的細分市場 - 電信雲,它指的是電信公司為其核心網絡,IT和邊緣計算工作負載部署的雲基礎架構。

Su表示,這一新細分市場為AI芯片組製造商帶來了巨大機遇。

“我們已經看到了像華為這樣的網絡基礎設施供應商,在較小程度上看到諾基亞推出了針對電信網絡功能進行優化的ASIC,”Su說。“這是一個巨大的市場,但Nvidia最近一直在努力進入這個市場。”

未來5年,雲人工智能芯片組市場有望翻番

雖然Su沒有看到任何其他公司在不久的將來取消Nvidia在雲計算中對AI培訓的支配地位,但推理更像是一種免費的,目前並不是由單一玩家主導。這在一定程度上取決於推理工作量的性質,它在垂直方向上有所不同。他說,從2020年起,預計ASIC將在該領域實現強勁增長。

將AI推理轉移到邊緣設備的當前趨勢將意味著減少對智能手機,自動駕駛汽車和機器人等設備的雲的依賴。但是,這並不意味著一些雲服務提供商認為比培訓工作量更大的推理工作量將會減少,Su說。

“一些人工智能永遠不會走向邊緣,例如聊天機器人和會話AI,欺詐監控和網絡安全系統,”他說。“這些系統將從基於規則的系統發展為基於深度學習的AI系統,這實際上會增加推理工作量。[增加]將足以取代那些轉向邊緣的推理工作量。“

然後,有谷歌。谷歌的TPU(張量處理單元)可以解決雲中的培訓和推理問題,被視為CPU和GPU技術的強大挑戰者(分別由英特爾和Nvidia領導)。正如報告所述,谷歌在TPU上的成功為其他雲服務提供商(CSP)提供了開發自己的AI加速器ASIC的藍圖。華為,AWS和百度已經這樣做了。

如果雲服務提供商都在使用他們自己的芯片組,那麼該部門的任何其他芯片組供應商是否會留下市場?

“你肯定是正確的,因為CSP開始在他們自己的芯片組上工作,這條路對新手來說非常具有挑戰性,”Su說。“我們甚至預測,到2024年,15%至18%的市場將落在CSP之下。私人數據中心領域的機會更多。銀行機構,醫療機構,研發實驗室和學術界仍然需要運行AI,他們將考慮針對AI工作負載進行更優化的芯片組,這為Cerebras,Graphcore,Habana Labs和Wave Computing等新手提供了一些優勢。

其他將從這些趨勢中受益的參與者是IP核授權供應商,如ARM,Cadence和VeriSilicon,他們將負責為比以前更多的芯片組開發企業設計芯片組,Su說。

邊緣的AI

ABI的第二份報告“Edge AI芯片組:技術展望和使用案例”將2018年邊緣人工智能推理芯片組市場定為19億美元。該報告還可能出人意料地確定了邊緣培訓市場。同年為140萬美元。

今天哪些應用程序正在進行培訓?Su解釋說,這個數字包括網關(歷史數據庫或設備集線器)和內部部署服務器(在私有云中,但在地理位置上生成AI數據的位置)。專為內部服務器上的培訓任務而設計的芯片組包括Nvidia的DGX,華為的網關和服務器,其中包括Ascend 910芯片組,以及針對來自Cerebras System,Graphcore和Habana Labs等內部部署數據中心的系統級產品。

“這種「邊緣訓練」市場仍然很小,因為雲仍然是人工智能培訓的首選地點,”Su說。

"
未來5年,雲人工智能芯片組市場有望翻番

人工智能加速器芯片的機會大肆宣傳,但市場有多大,今天哪些公司實際銷售芯片?

ABI Research的兩份新報告詳細介紹了當今AI芯片組市場的發展狀況。作為報告的作者,首席分析師帶我們瞭解哪些公司和技術正在進入這個潛在的利潤豐厚的市場。

人工智能在雲端

第一份報告“Cloud AI芯片組:市場格局和供應商定位”強調了雲AI推理和培訓服務如何快速增長。由此產生的AI芯片組市場預計將從2019年的42億美元增長到2024年的100億美元。目前這一領域的領導者Nvidia和英特爾正受到Cambricon Technologies,Graphcore,Habana Labs和Qualcomm等公司的挑戰。

據Su介紹,Nvidia仍然是這個市場的明顯領導者,主要取決於其成熟的開發者生態系統及其先發優勢。

“此外,隨著AI模型,庫和工具包的不斷變化和更新,Nvidia作為一種良好的後備選擇,因為它具有通用AI芯片組的能力,”Su說。“當然,隨著市場的成熟,這些優勢將逐漸減弱,但至少在可預見的未來,Nvidia仍將處於強勢地位。”

今天的AI芯片組雲市場分為三個部分。公共雲由雲服務提供商託管:AWS,Microsoft,Google,阿里巴巴,百度和騰訊等。然後是企業數據中心,它們實際上是私有云,加上ABI稱之為“混合雲”,意味著將公共雲和私有云(VMware,Rackspace,NetApp,HPE,Dell)結合在一起的產品。

該報告還確定了另一個新興的細分市場 - 電信雲,它指的是電信公司為其核心網絡,IT和邊緣計算工作負載部署的雲基礎架構。

Su表示,這一新細分市場為AI芯片組製造商帶來了巨大機遇。

“我們已經看到了像華為這樣的網絡基礎設施供應商,在較小程度上看到諾基亞推出了針對電信網絡功能進行優化的ASIC,”Su說。“這是一個巨大的市場,但Nvidia最近一直在努力進入這個市場。”

未來5年,雲人工智能芯片組市場有望翻番

雖然Su沒有看到任何其他公司在不久的將來取消Nvidia在雲計算中對AI培訓的支配地位,但推理更像是一種免費的,目前並不是由單一玩家主導。這在一定程度上取決於推理工作量的性質,它在垂直方向上有所不同。他說,從2020年起,預計ASIC將在該領域實現強勁增長。

將AI推理轉移到邊緣設備的當前趨勢將意味著減少對智能手機,自動駕駛汽車和機器人等設備的雲的依賴。但是,這並不意味著一些雲服務提供商認為比培訓工作量更大的推理工作量將會減少,Su說。

“一些人工智能永遠不會走向邊緣,例如聊天機器人和會話AI,欺詐監控和網絡安全系統,”他說。“這些系統將從基於規則的系統發展為基於深度學習的AI系統,這實際上會增加推理工作量。[增加]將足以取代那些轉向邊緣的推理工作量。“

然後,有谷歌。谷歌的TPU(張量處理單元)可以解決雲中的培訓和推理問題,被視為CPU和GPU技術的強大挑戰者(分別由英特爾和Nvidia領導)。正如報告所述,谷歌在TPU上的成功為其他雲服務提供商(CSP)提供了開發自己的AI加速器ASIC的藍圖。華為,AWS和百度已經這樣做了。

如果雲服務提供商都在使用他們自己的芯片組,那麼該部門的任何其他芯片組供應商是否會留下市場?

“你肯定是正確的,因為CSP開始在他們自己的芯片組上工作,這條路對新手來說非常具有挑戰性,”Su說。“我們甚至預測,到2024年,15%至18%的市場將落在CSP之下。私人數據中心領域的機會更多。銀行機構,醫療機構,研發實驗室和學術界仍然需要運行AI,他們將考慮針對AI工作負載進行更優化的芯片組,這為Cerebras,Graphcore,Habana Labs和Wave Computing等新手提供了一些優勢。

其他將從這些趨勢中受益的參與者是IP核授權供應商,如ARM,Cadence和VeriSilicon,他們將負責為比以前更多的芯片組開發企業設計芯片組,Su說。

邊緣的AI

ABI的第二份報告“Edge AI芯片組:技術展望和使用案例”將2018年邊緣人工智能推理芯片組市場定為19億美元。該報告還可能出人意料地確定了邊緣培訓市場。同年為140萬美元。

今天哪些應用程序正在進行培訓?Su解釋說,這個數字包括網關(歷史數據庫或設備集線器)和內部部署服務器(在私有云中,但在地理位置上生成AI數據的位置)。專為內部服務器上的培訓任務而設計的芯片組包括Nvidia的DGX,華為的網關和服務器,其中包括Ascend 910芯片組,以及針對來自Cerebras System,Graphcore和Habana Labs等內部部署數據中心的系統級產品。

“這種「邊緣訓練」市場仍然很小,因為雲仍然是人工智能培訓的首選地點,”Su說。

未來5年,雲人工智能芯片組市場有望翻番

與此同時,邊緣人工智能推理是2019年至2024年期間人工智能31%CAGR估計的主要原因。對於邊緣推斷,Su描述了三個主要市場(智能手機/可穿戴設備,汽車,智能家居/白色家電)以及三個利基市場。

第一個利基機器人通常需要異構計算架構,因為機器人依賴於許多類型的神經網絡,例如用於導航的SLAM(同時定位和映射),用於人機界面的會話AI和用於對象檢測的機器視覺,所有這些它們在不同程度上使用CPU,GPU和ASIC。他說,Nvidia,英特爾和高通在這個領域競爭激烈。

“第二個利基是智能工業應用,包括製造業,智能建築以及石油和天然氣部門,”他說。“由於傳統設備,我們看到FPGA供應商在這一領域表現優異,但也歸功於FPGA的架構,[這提供了]靈活性和適應性。”

最後,存在“非常優勢”,即將超低功耗AI芯片組嵌入廣域網中的傳感器和其他小端節點的趨勢。鑑於對超低功耗的關注,這個空間由FPGA公司,RISC-V設計和ASIC供應商組成。

到目前為止,誰實際上在邊緣進行人工智能推理的設計?

“令人驚訝的是,或者不足為奇,由於智能手機的出貨量很大,智能手機AI ASIC供應商實際上處於領先的AI芯片組市場的領先地位,”Su說。“這涉及Apple,HiSilicon,高通,三星以及聯發科的較小程度。但是,如果我們嚴格談論初創公司,我認為Hailo,Horizon Robotics和Rockchip似乎正在與終端設備製造商一起獲得一些動力。“

Su還表示,軟件對邊緣AI芯片組的商業實施和部署至關重要,比較Nvidia正在進行的升級其編譯工具和構建開發人員社區的努力,以及英特爾和Xilinx採取的方法,後者將與初創公司合作或收購擁有基於軟件的加速解決方案。

“芯片組公司應考慮向開發人員社區提供工具包和庫,以及開發人員教育計劃,競賽,論壇和會議,因為這將吸引開發人員與芯片組公司合作並開發相關應用程序。所有這些都不是新創業公司可以輕易實現的,“他說。

該報告的結論是,除了為開發人員社區提供合適的軟件和支持外,該領域的成功公司還將提供良好的開發路線圖,並由其他技術價值鏈提供支持。他們還需要在各種使用案例中為其芯片生成規模,同時保持有競爭力的價格點。

"

相關推薦

推薦中...