'用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界'

""用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

From:Google BY:T.R

人類為了認識世界、理解世界、預測世界,構建了複雜的數學模型和強大的超級計算機。世界上最大的超級計算機就是用來為大千世界的物理現象建模、計算、理解、預測。

雖然超算已經從P級向E級邁進,但對於氣候系統進行魯棒的預測、對流體力學進行仿真、對高能物理進行模型當前的計算機還不夠快。這些自然界中的物理系統都基於偏微分方程進行建模,為了解這些偏微分方程我們需要更快更強大的計算機。

但近年來隨著摩爾定律的減速使得靠晶體管密度來提升算力的過程逐漸變緩慢,而與之形成鮮明對比的是,近年來機器學習算法在硬件、算法和數據的幫助下取得了令人矚目的進展,那麼它是否可以幫助科學計算更好的發展呢?

來自谷歌的研究人員近日發表了基於數據驅動的離散化方法來處理偏微分方程,展示了機器學習算法在處理偏微分方程和眾多科學計算問題上的潛力,為超級計算的發展又增添了一種新的可能。

偏微分方程PDE

對於真實世界的物理問題PDE方程封閉解是不存在的,我們需要尋找離散化的方法來近似連續的PDE並求取滿足條件的解。求解PDE方程的典型過程是將方程在柵格中表示,在邊界條件的限制下利用如有限差分等方法來進行求解。

為了得到收斂的結果,柵格最小的尺寸必須小於解的最小特徵尺寸,這使得計算資源的消耗在超算中成為了最難以處理的問題。每增加十倍的分辨率,計算資源的消耗就會增加一萬倍,這是因為柵格必須在三維空間和時間維度上各增加十倍的分辨率。

新提出的方法則可以利用ML為PDE在更為粗粒度的柵格上給出更好的表達。

"用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

From:Google BY:T.R

人類為了認識世界、理解世界、預測世界,構建了複雜的數學模型和強大的超級計算機。世界上最大的超級計算機就是用來為大千世界的物理現象建模、計算、理解、預測。

雖然超算已經從P級向E級邁進,但對於氣候系統進行魯棒的預測、對流體力學進行仿真、對高能物理進行模型當前的計算機還不夠快。這些自然界中的物理系統都基於偏微分方程進行建模,為了解這些偏微分方程我們需要更快更強大的計算機。

但近年來隨著摩爾定律的減速使得靠晶體管密度來提升算力的過程逐漸變緩慢,而與之形成鮮明對比的是,近年來機器學習算法在硬件、算法和數據的幫助下取得了令人矚目的進展,那麼它是否可以幫助科學計算更好的發展呢?

來自谷歌的研究人員近日發表了基於數據驅動的離散化方法來處理偏微分方程,展示了機器學習算法在處理偏微分方程和眾多科學計算問題上的潛力,為超級計算的發展又增添了一種新的可能。

偏微分方程PDE

對於真實世界的物理問題PDE方程封閉解是不存在的,我們需要尋找離散化的方法來近似連續的PDE並求取滿足條件的解。求解PDE方程的典型過程是將方程在柵格中表示,在邊界條件的限制下利用如有限差分等方法來進行求解。

為了得到收斂的結果,柵格最小的尺寸必須小於解的最小特徵尺寸,這使得計算資源的消耗在超算中成為了最難以處理的問題。每增加十倍的分辨率,計算資源的消耗就會增加一萬倍,這是因為柵格必須在三維空間和時間維度上各增加十倍的分辨率。

新提出的方法則可以利用ML為PDE在更為粗粒度的柵格上給出更好的表達。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

這一實現方法的挑戰在於要使用粗糙的柵格劃分實現高精度的模擬結果。在這篇論文中,研究人員將原來基於人類洞察的啟發式方法替換成了基於機器學習的優化規則

"用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

From:Google BY:T.R

人類為了認識世界、理解世界、預測世界,構建了複雜的數學模型和強大的超級計算機。世界上最大的超級計算機就是用來為大千世界的物理現象建模、計算、理解、預測。

雖然超算已經從P級向E級邁進,但對於氣候系統進行魯棒的預測、對流體力學進行仿真、對高能物理進行模型當前的計算機還不夠快。這些自然界中的物理系統都基於偏微分方程進行建模,為了解這些偏微分方程我們需要更快更強大的計算機。

但近年來隨著摩爾定律的減速使得靠晶體管密度來提升算力的過程逐漸變緩慢,而與之形成鮮明對比的是,近年來機器學習算法在硬件、算法和數據的幫助下取得了令人矚目的進展,那麼它是否可以幫助科學計算更好的發展呢?

來自谷歌的研究人員近日發表了基於數據驅動的離散化方法來處理偏微分方程,展示了機器學習算法在處理偏微分方程和眾多科學計算問題上的潛力,為超級計算的發展又增添了一種新的可能。

偏微分方程PDE

對於真實世界的物理問題PDE方程封閉解是不存在的,我們需要尋找離散化的方法來近似連續的PDE並求取滿足條件的解。求解PDE方程的典型過程是將方程在柵格中表示,在邊界條件的限制下利用如有限差分等方法來進行求解。

為了得到收斂的結果,柵格最小的尺寸必須小於解的最小特徵尺寸,這使得計算資源的消耗在超算中成為了最難以處理的問題。每增加十倍的分辨率,計算資源的消耗就會增加一萬倍,這是因為柵格必須在三維空間和時間維度上各增加十倍的分辨率。

新提出的方法則可以利用ML為PDE在更為粗粒度的柵格上給出更好的表達。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

這一實現方法的挑戰在於要使用粗糙的柵格劃分實現高精度的模擬結果。在這篇論文中,研究人員將原來基於人類洞察的啟發式方法替換成了基於機器學習的優化規則

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

上圖是論文中提出的模型,在訓練過程中模型基於柵格均值學習優化預測柵格均勻時域差分。數據則來自於預先訓練好的高精度模擬。模型中包含了三層卷積,將預測出一系列空間差分的係數。

粗粒度的函數值被送入神經網絡,而後輸出一系列預測係數。這些係數與粗粒度值結合後將用於估計空間差分。而後空間差分被用於已知物理系統的流方程中基於一階散度來計算時域差分。最終通過最小化估計出的時域差分與真實值之間的差異或估計出未來狀態與真實狀態間的差異來訓練模型。

"用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

From:Google BY:T.R

人類為了認識世界、理解世界、預測世界,構建了複雜的數學模型和強大的超級計算機。世界上最大的超級計算機就是用來為大千世界的物理現象建模、計算、理解、預測。

雖然超算已經從P級向E級邁進,但對於氣候系統進行魯棒的預測、對流體力學進行仿真、對高能物理進行模型當前的計算機還不夠快。這些自然界中的物理系統都基於偏微分方程進行建模,為了解這些偏微分方程我們需要更快更強大的計算機。

但近年來隨著摩爾定律的減速使得靠晶體管密度來提升算力的過程逐漸變緩慢,而與之形成鮮明對比的是,近年來機器學習算法在硬件、算法和數據的幫助下取得了令人矚目的進展,那麼它是否可以幫助科學計算更好的發展呢?

來自谷歌的研究人員近日發表了基於數據驅動的離散化方法來處理偏微分方程,展示了機器學習算法在處理偏微分方程和眾多科學計算問題上的潛力,為超級計算的發展又增添了一種新的可能。

偏微分方程PDE

對於真實世界的物理問題PDE方程封閉解是不存在的,我們需要尋找離散化的方法來近似連續的PDE並求取滿足條件的解。求解PDE方程的典型過程是將方程在柵格中表示,在邊界條件的限制下利用如有限差分等方法來進行求解。

為了得到收斂的結果,柵格最小的尺寸必須小於解的最小特徵尺寸,這使得計算資源的消耗在超算中成為了最難以處理的問題。每增加十倍的分辨率,計算資源的消耗就會增加一萬倍,這是因為柵格必須在三維空間和時間維度上各增加十倍的分辨率。

新提出的方法則可以利用ML為PDE在更為粗粒度的柵格上給出更好的表達。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

這一實現方法的挑戰在於要使用粗糙的柵格劃分實現高精度的模擬結果。在這篇論文中,研究人員將原來基於人類洞察的啟發式方法替換成了基於機器學習的優化規則

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

上圖是論文中提出的模型,在訓練過程中模型基於柵格均值學習優化預測柵格均勻時域差分。數據則來自於預先訓練好的高精度模擬。模型中包含了三層卷積,將預測出一系列空間差分的係數。

粗粒度的函數值被送入神經網絡,而後輸出一系列預測係數。這些係數與粗粒度值結合後將用於估計空間差分。而後空間差分被用於已知物理系統的流方程中基於一階散度來計算時域差分。最終通過最小化估計出的時域差分與真實值之間的差異或估計出未來狀態與真實狀態間的差異來訓練模型。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

利用這種方法得到結果十分畢竟精確解的結果

機器學習模型發現的規則十分複雜,雖然到目前為止研究人員還沒有完全理解這些規則的含義,但卻可以與十分複雜的物理原理相結合,為物理過程精確建模。下面的圖展示了這種方法為流體力學過程建模的結果。

"用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

From:Google BY:T.R

人類為了認識世界、理解世界、預測世界,構建了複雜的數學模型和強大的超級計算機。世界上最大的超級計算機就是用來為大千世界的物理現象建模、計算、理解、預測。

雖然超算已經從P級向E級邁進,但對於氣候系統進行魯棒的預測、對流體力學進行仿真、對高能物理進行模型當前的計算機還不夠快。這些自然界中的物理系統都基於偏微分方程進行建模,為了解這些偏微分方程我們需要更快更強大的計算機。

但近年來隨著摩爾定律的減速使得靠晶體管密度來提升算力的過程逐漸變緩慢,而與之形成鮮明對比的是,近年來機器學習算法在硬件、算法和數據的幫助下取得了令人矚目的進展,那麼它是否可以幫助科學計算更好的發展呢?

來自谷歌的研究人員近日發表了基於數據驅動的離散化方法來處理偏微分方程,展示了機器學習算法在處理偏微分方程和眾多科學計算問題上的潛力,為超級計算的發展又增添了一種新的可能。

偏微分方程PDE

對於真實世界的物理問題PDE方程封閉解是不存在的,我們需要尋找離散化的方法來近似連續的PDE並求取滿足條件的解。求解PDE方程的典型過程是將方程在柵格中表示,在邊界條件的限制下利用如有限差分等方法來進行求解。

為了得到收斂的結果,柵格最小的尺寸必須小於解的最小特徵尺寸,這使得計算資源的消耗在超算中成為了最難以處理的問題。每增加十倍的分辨率,計算資源的消耗就會增加一萬倍,這是因為柵格必須在三維空間和時間維度上各增加十倍的分辨率。

新提出的方法則可以利用ML為PDE在更為粗粒度的柵格上給出更好的表達。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

這一實現方法的挑戰在於要使用粗糙的柵格劃分實現高精度的模擬結果。在這篇論文中,研究人員將原來基於人類洞察的啟發式方法替換成了基於機器學習的優化規則

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

上圖是論文中提出的模型,在訓練過程中模型基於柵格均值學習優化預測柵格均勻時域差分。數據則來自於預先訓練好的高精度模擬。模型中包含了三層卷積,將預測出一系列空間差分的係數。

粗粒度的函數值被送入神經網絡,而後輸出一系列預測係數。這些係數與粗粒度值結合後將用於估計空間差分。而後空間差分被用於已知物理系統的流方程中基於一階散度來計算時域差分。最終通過最小化估計出的時域差分與真實值之間的差異或估計出未來狀態與真實狀態間的差異來訓練模型。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

利用這種方法得到結果十分畢竟精確解的結果

機器學習模型發現的規則十分複雜,雖然到目前為止研究人員還沒有完全理解這些規則的含義,但卻可以與十分複雜的物理原理相結合,為物理過程精確建模。下面的圖展示了這種方法為流體力學過程建模的結果。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

圖中模擬了描述液體中衝擊波的伯格斯方程,左邊是基於有限體積的傳統模擬方法,右邊是基於新提出的神經網絡方法。可以看到左邊用於模擬物理過程的柵格劃分很密,而右邊在1/4密度的情況下新方法得到了很好的結果。

研究人員還探索瞭如何將機器學習與物理過程進行結合的有效方法,他們將神經網絡與傳統模擬方法中的某些模塊進行結合,而不是從最開始進行學習。這意味著像動量守恆這類基本定律成為了構建模型的基礎,使得機器學習模型可以聚焦到需要處理的任務上來,專注於學習複雜高維空間中插值的優化規則。

在未來,研究人員希望將這一模型擴大規模用於解決真實世界中更大規模的問題,包括氣候預測、流體力學等更高維度的複雜的問題

機器學習與科學計算間的鴻溝已經架起了探索的橋樑,相信未來更多的算法和成果將不斷連接起物理世界與機器學習的寬闊大道。

如果想了解詳細的實現過程,請參看論文:https://www.pnas.org/content/pnas/116/31/15344.full.pdf以及伯格斯方程的模擬代碼:

https://github.com/google/data-driven-discretization-1d

ref:

https://www.pnas.org/content/pnas/suppl/2019/07/15/1814058116.DCSupplemental/pnas.1814058116.sapp.pdf

https://arxiv.org/abs/1907.07587

https://www.cnblogs.com/haoqingchuan/articles/2381405.html

https://www.zhihu.com/question/280342469/answer/427006660 pic:https://dribbble.com/shots/1737112-Lake-Shuttlehttps://dribbble.com/shots/6133129-Shipwreck-Island

"用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

From:Google BY:T.R

人類為了認識世界、理解世界、預測世界,構建了複雜的數學模型和強大的超級計算機。世界上最大的超級計算機就是用來為大千世界的物理現象建模、計算、理解、預測。

雖然超算已經從P級向E級邁進,但對於氣候系統進行魯棒的預測、對流體力學進行仿真、對高能物理進行模型當前的計算機還不夠快。這些自然界中的物理系統都基於偏微分方程進行建模,為了解這些偏微分方程我們需要更快更強大的計算機。

但近年來隨著摩爾定律的減速使得靠晶體管密度來提升算力的過程逐漸變緩慢,而與之形成鮮明對比的是,近年來機器學習算法在硬件、算法和數據的幫助下取得了令人矚目的進展,那麼它是否可以幫助科學計算更好的發展呢?

來自谷歌的研究人員近日發表了基於數據驅動的離散化方法來處理偏微分方程,展示了機器學習算法在處理偏微分方程和眾多科學計算問題上的潛力,為超級計算的發展又增添了一種新的可能。

偏微分方程PDE

對於真實世界的物理問題PDE方程封閉解是不存在的,我們需要尋找離散化的方法來近似連續的PDE並求取滿足條件的解。求解PDE方程的典型過程是將方程在柵格中表示,在邊界條件的限制下利用如有限差分等方法來進行求解。

為了得到收斂的結果,柵格最小的尺寸必須小於解的最小特徵尺寸,這使得計算資源的消耗在超算中成為了最難以處理的問題。每增加十倍的分辨率,計算資源的消耗就會增加一萬倍,這是因為柵格必須在三維空間和時間維度上各增加十倍的分辨率。

新提出的方法則可以利用ML為PDE在更為粗粒度的柵格上給出更好的表達。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

這一實現方法的挑戰在於要使用粗糙的柵格劃分實現高精度的模擬結果。在這篇論文中,研究人員將原來基於人類洞察的啟發式方法替換成了基於機器學習的優化規則

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

上圖是論文中提出的模型,在訓練過程中模型基於柵格均值學習優化預測柵格均勻時域差分。數據則來自於預先訓練好的高精度模擬。模型中包含了三層卷積,將預測出一系列空間差分的係數。

粗粒度的函數值被送入神經網絡,而後輸出一系列預測係數。這些係數與粗粒度值結合後將用於估計空間差分。而後空間差分被用於已知物理系統的流方程中基於一階散度來計算時域差分。最終通過最小化估計出的時域差分與真實值之間的差異或估計出未來狀態與真實狀態間的差異來訓練模型。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

利用這種方法得到結果十分畢竟精確解的結果

機器學習模型發現的規則十分複雜,雖然到目前為止研究人員還沒有完全理解這些規則的含義,但卻可以與十分複雜的物理原理相結合,為物理過程精確建模。下面的圖展示了這種方法為流體力學過程建模的結果。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

圖中模擬了描述液體中衝擊波的伯格斯方程,左邊是基於有限體積的傳統模擬方法,右邊是基於新提出的神經網絡方法。可以看到左邊用於模擬物理過程的柵格劃分很密,而右邊在1/4密度的情況下新方法得到了很好的結果。

研究人員還探索瞭如何將機器學習與物理過程進行結合的有效方法,他們將神經網絡與傳統模擬方法中的某些模塊進行結合,而不是從最開始進行學習。這意味著像動量守恆這類基本定律成為了構建模型的基礎,使得機器學習模型可以聚焦到需要處理的任務上來,專注於學習複雜高維空間中插值的優化規則。

在未來,研究人員希望將這一模型擴大規模用於解決真實世界中更大規模的問題,包括氣候預測、流體力學等更高維度的複雜的問題

機器學習與科學計算間的鴻溝已經架起了探索的橋樑,相信未來更多的算法和成果將不斷連接起物理世界與機器學習的寬闊大道。

如果想了解詳細的實現過程,請參看論文:https://www.pnas.org/content/pnas/116/31/15344.full.pdf以及伯格斯方程的模擬代碼:

https://github.com/google/data-driven-discretization-1d

ref:

https://www.pnas.org/content/pnas/suppl/2019/07/15/1814058116.DCSupplemental/pnas.1814058116.sapp.pdf

https://arxiv.org/abs/1907.07587

https://www.cnblogs.com/haoqingchuan/articles/2381405.html

https://www.zhihu.com/question/280342469/answer/427006660 pic:https://dribbble.com/shots/1737112-Lake-Shuttlehttps://dribbble.com/shots/6133129-Shipwreck-Island

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

-The End-

將門是一家以專注於發掘、加速及投資技術驅動型創業公司的新型創投機構,旗下涵蓋將門創新服務、將門技術社群以及將門創投基金。將門成立於2015年底,創始團隊由微軟創投在中國的創始團隊原班人馬構建而成,曾為微軟優選和深度孵化了126家創新的技術型創業公司。

將門創新服務專注於使創新的技術落地於真正的應用場景,激活和實現全新的商業價值,服務於行業領先企業和技術創新型創業公司。

將門技術社群專注於幫助技術創新型的創業公司提供來自產、學、研、創領域的核心技術專家的技術分享和學習內容,使創新成為持續的核心競爭力。

將門創投基金專注於投資通過技術創新激活商業場景,實現商業價值的初創企業,關注技術領域包括機器智能、物聯網、自然人機交互、企業計算。在三年的時間裡,將門創投基金已經投資了包括量化派、碼隆科技、禾賽科技、寬拓科技、杉數科技、迪英加科技等數十傢俱有高成長潛力的技術型創業公司。

如果您是技術領域的初創企業,不僅想獲得投資,還希望獲得一系列持續性、有價值的投後服務,歡迎發送或者推薦項目給我“門”: bp@thejiangmen.com

"用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

From:Google BY:T.R

人類為了認識世界、理解世界、預測世界,構建了複雜的數學模型和強大的超級計算機。世界上最大的超級計算機就是用來為大千世界的物理現象建模、計算、理解、預測。

雖然超算已經從P級向E級邁進,但對於氣候系統進行魯棒的預測、對流體力學進行仿真、對高能物理進行模型當前的計算機還不夠快。這些自然界中的物理系統都基於偏微分方程進行建模,為了解這些偏微分方程我們需要更快更強大的計算機。

但近年來隨著摩爾定律的減速使得靠晶體管密度來提升算力的過程逐漸變緩慢,而與之形成鮮明對比的是,近年來機器學習算法在硬件、算法和數據的幫助下取得了令人矚目的進展,那麼它是否可以幫助科學計算更好的發展呢?

來自谷歌的研究人員近日發表了基於數據驅動的離散化方法來處理偏微分方程,展示了機器學習算法在處理偏微分方程和眾多科學計算問題上的潛力,為超級計算的發展又增添了一種新的可能。

偏微分方程PDE

對於真實世界的物理問題PDE方程封閉解是不存在的,我們需要尋找離散化的方法來近似連續的PDE並求取滿足條件的解。求解PDE方程的典型過程是將方程在柵格中表示,在邊界條件的限制下利用如有限差分等方法來進行求解。

為了得到收斂的結果,柵格最小的尺寸必須小於解的最小特徵尺寸,這使得計算資源的消耗在超算中成為了最難以處理的問題。每增加十倍的分辨率,計算資源的消耗就會增加一萬倍,這是因為柵格必須在三維空間和時間維度上各增加十倍的分辨率。

新提出的方法則可以利用ML為PDE在更為粗粒度的柵格上給出更好的表達。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

這一實現方法的挑戰在於要使用粗糙的柵格劃分實現高精度的模擬結果。在這篇論文中,研究人員將原來基於人類洞察的啟發式方法替換成了基於機器學習的優化規則

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

上圖是論文中提出的模型,在訓練過程中模型基於柵格均值學習優化預測柵格均勻時域差分。數據則來自於預先訓練好的高精度模擬。模型中包含了三層卷積,將預測出一系列空間差分的係數。

粗粒度的函數值被送入神經網絡,而後輸出一系列預測係數。這些係數與粗粒度值結合後將用於估計空間差分。而後空間差分被用於已知物理系統的流方程中基於一階散度來計算時域差分。最終通過最小化估計出的時域差分與真實值之間的差異或估計出未來狀態與真實狀態間的差異來訓練模型。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

利用這種方法得到結果十分畢竟精確解的結果

機器學習模型發現的規則十分複雜,雖然到目前為止研究人員還沒有完全理解這些規則的含義,但卻可以與十分複雜的物理原理相結合,為物理過程精確建模。下面的圖展示了這種方法為流體力學過程建模的結果。

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

圖中模擬了描述液體中衝擊波的伯格斯方程,左邊是基於有限體積的傳統模擬方法,右邊是基於新提出的神經網絡方法。可以看到左邊用於模擬物理過程的柵格劃分很密,而右邊在1/4密度的情況下新方法得到了很好的結果。

研究人員還探索瞭如何將機器學習與物理過程進行結合的有效方法,他們將神經網絡與傳統模擬方法中的某些模塊進行結合,而不是從最開始進行學習。這意味著像動量守恆這類基本定律成為了構建模型的基礎,使得機器學習模型可以聚焦到需要處理的任務上來,專注於學習複雜高維空間中插值的優化規則。

在未來,研究人員希望將這一模型擴大規模用於解決真實世界中更大規模的問題,包括氣候預測、流體力學等更高維度的複雜的問題

機器學習與科學計算間的鴻溝已經架起了探索的橋樑,相信未來更多的算法和成果將不斷連接起物理世界與機器學習的寬闊大道。

如果想了解詳細的實現過程,請參看論文:https://www.pnas.org/content/pnas/116/31/15344.full.pdf以及伯格斯方程的模擬代碼:

https://github.com/google/data-driven-discretization-1d

ref:

https://www.pnas.org/content/pnas/suppl/2019/07/15/1814058116.DCSupplemental/pnas.1814058116.sapp.pdf

https://arxiv.org/abs/1907.07587

https://www.cnblogs.com/haoqingchuan/articles/2381405.html

https://www.zhihu.com/question/280342469/answer/427006660 pic:https://dribbble.com/shots/1737112-Lake-Shuttlehttps://dribbble.com/shots/6133129-Shipwreck-Island

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

-The End-

將門是一家以專注於發掘、加速及投資技術驅動型創業公司的新型創投機構,旗下涵蓋將門創新服務、將門技術社群以及將門創投基金。將門成立於2015年底,創始團隊由微軟創投在中國的創始團隊原班人馬構建而成,曾為微軟優選和深度孵化了126家創新的技術型創業公司。

將門創新服務專注於使創新的技術落地於真正的應用場景,激活和實現全新的商業價值,服務於行業領先企業和技術創新型創業公司。

將門技術社群專注於幫助技術創新型的創業公司提供來自產、學、研、創領域的核心技術專家的技術分享和學習內容,使創新成為持續的核心競爭力。

將門創投基金專注於投資通過技術創新激活商業場景,實現商業價值的初創企業,關注技術領域包括機器智能、物聯網、自然人機交互、企業計算。在三年的時間裡,將門創投基金已經投資了包括量化派、碼隆科技、禾賽科技、寬拓科技、杉數科技、迪英加科技等數十傢俱有高成長潛力的技術型創業公司。

如果您是技術領域的初創企業,不僅想獲得投資,還希望獲得一系列持續性、有價值的投後服務,歡迎發送或者推薦項目給我“門”: bp@thejiangmen.com

用機器學習解偏微分方程?數據驅動方法拓展高性能計算的疆界

點擊右上角,把文章朋友圈

將門創投

讓創新獲得認可!

微信:thejiangmen

bp@thejiangmen.com

"

相關推薦

推薦中...