"

來源:Medium

作者:Thomas Nield

我們能從娛樂活動的人工智能化中得到什麼?

“我一直在閱讀DeepMind在國際象棋遊戲中應用類人智能的文章,而現在它能夠在《星際爭霸》(StarCraft)中擊敗人類玩家了!”這些機器學習算法在所有此類遊戲中都打敗了人類玩家!這是否意味著它們將取代我的工作?”

“有多少《星際爭霸》人類玩家面臨著“丟掉飯碗”的威脅呢?”

——對話節選自《2019年學習數據科學是什麼感受 》(How it Feels to Learn Data Science in 2019)

為什麼人工智能研究對棋盤類和電子遊戲如此感興趣呢?這還要從20世紀50年代的棋盤遊戲算法說起。當時的研究人員對跳棋算法所展現出的思維感到驚訝。

之後直到21世紀的前十年,國際象棋徹底成為人工智能研究的焦點。

讓時間快速轉動到2015年,一個神經網絡廣為流傳的超級馬里奧視頻,引起了大眾對電子遊戲人工智能的關注,該視頻超出了目前電子遊戲開發者的市場定位,成為主流數據科學領域的一個玩笑。就在本週,Facebook推動了當前撲克人工智能算法列表的發展。

DeepMind加入遊戲人工智能熱潮後,事情變得更有趣了。

在2014年Google收購DeepMind後,媒體越來越關注該公司及其人工智能應用程序的發展。首先是著名的AlphaGo算法,它在2016年的傳統棋盤遊戲Go中擊敗了當時的世界冠軍(Netflix上有一部紀錄片就記述了本場比賽)。

接著,AlphaZero運用了一種深度學習法,而非20世紀90年代IBM和21世紀前十年Stockfish運用的alpha-beta剪枝算法,重新喚起了人們對國際象棋算法研究的興趣。

DeepMind後來將注意力從棋盤遊戲轉到電子遊戲上,如《星際爭霸Ⅱ》(StarCraftⅡ)和《守護奇蹟2》(DOTA 2)。此時很顯然,一種新模式正在形成。

DeepMind大費周章地投入了大量資源和時間於將娛樂活動方面的人工智能開發,但事實告訴我們,這在現實世界中不太具有實際價值。如果它真的有現實世界的價值,常識會告訴我們,鐵桿電子遊戲玩家會因為他們的戰略才能而受到追捧。

如果僅因為算法贏得了《星際爭霸》就稱得上有價值,那麼人類玩家對公司和軍隊的戰略功能不是同樣具有價值嗎?也許我們的工作簡歷中還應寫上電子遊戲成就。

“我不確定AlphaZero的算法是否很容易普及,因為遊戲是很特別的東西。”

——佩德羅·多明戈斯(Pedro Domingos)

好的,我知道你們有些讀者在想什麼。玩家是人類,如果算法玩遊戲的水平和人類一樣高(或者更好),那麼它一定複製了人類的智慧。

這是一種錯誤的思維方式,因為算法可能會比你計算24653546734 + 5345434534更快,但這並不意味著它複製或超越了人類智慧。

僅僅是因為算法只被成功優化來執行某一項任務(例如,玩《星際爭霸》),並不意味著它可以被優化來執行所有任務。如果沒有明確的啟發式算法和硬編碼,算法就無法完成很多事。

另一個相反的觀點是,這種人工智能的目標不是儘可能有效地破解遊戲,而是讓它“學習”如何在沒有明確指導和啟發式算法的情況下通關。

我理解這裡的目標,但我認為它只是一個不那麼重要的目標,因為在這裡人工智能只是被訓練如何完成一項任務,並以一種蠻力的方式完成它(稍後將詳細介紹)。

遊戲似乎是DeepMind的主體任務和研究重點。如果你看了他們的項目公開列表,會發現其中絕大多數是與遊戲相關的。這是為什麼?運行大量的算法,進行了累計時長達到數千年的遊戲,有什麼意義呢……難道只是為了擊敗能夠在幾周內用更少數據掌握遊戲的老玩家?

而且,啟發式算法可以用更低的成本開發出水平較高的人工智能。

我們都知道,開發目標是讓一臺機器在沒有明確編碼的指導下,自主“學習”完成一項任務,但我們對算法訓練、訓練、再訓練,使它在執行之前就學會了這項任務,結果會導致執行速度緩慢、效率低下,這是不是挺諷刺的呢?而傳統的啟發式算法可跳過學習過程,及時有效地完成這項任務。

“大多數現實世界的戰略互動都涉及隱藏的信息。我覺得大部分人工智能共同體都忽視了這一點。”

——Facebook的人工智能研究科學家,諾姆·布朗(Noam Brown)

這種將AI研究與遊戲結合的痴迷難以被忽視,我認為有必要探索其原因。遊戲在人工智能研究中有三個主要優勢,包括:

1.遊戲是完全獨立的,所有可能出現的情況、變量和結果都是已知的。

2.數據可以通過隨機遊戲生成。

3.由於環境的可預測和可控制性,遊戲可以產生確定性結果。

當遊戲遇到現實問題

公平地說,DeepMind在使用AlphaFold進行蛋白質摺疊方面貢獻巨大,最近也獲得了多方的認可,並發現了其他項目的行業用途。所以DeepMind做的不僅僅是花大價錢訓練人工智能代替遊戲玩家。

如果你的思維跳出深度學習並考慮其他“人工智能”算法,我承認遊戲和實際問題的解決方法之間肯定有重疊,尤其是在你看運籌學時。

例如,使用樹架構搜索 或者線性編程算法可破解數獨,同樣的方法也可用於解決調度之類的物理約束問題。我在另一篇名為《數獨和時間表》(Sudokus and Schedules)的文章中討論了這個問題。

同樣的樹結構搜索方法也適用於alpha-beta剪枝算法,從而贏得了國際象棋和其他對抗性回合制遊戲。這實際上是20世紀90年代IBM以及21世紀前十年Stockfish使用的深藍算法。

你可以創建類似遊戲的蒙特卡羅模擬並稱其為“人工智能”。如果你對這個例子不熟悉的話,我解釋一下:蒙特卡羅算法利用隨機性來實現目標。例如,如果用一些簡單的隨機分佈描述處理客戶所需的時間(服從正態分佈)以及客戶走進來的頻率(服從泊松分佈 ),你可以創建如下所示的客戶隊列模擬:

所以,棋盤和電子遊戲與實際的現實問題之間確實存在部分重疊。當然,你可以使用神經網絡嘗試解決所有問題,但實際上,為什麼在現有算法能夠做得更好同時費用更低的情況下,我們還要使用神經網絡去做這件事呢?

可能人們會覺得我反對為了遊戲研究AI,但事實上並沒有,這是研究者的權利。然而令人費解的是,這些算法的創造者聲稱,這些算法有極大的潛力,能在AGI規模(AGI scale)解決現實問題,但卻陷入了尋找下一個要“人工智能化”的遊戲,而不解決行業問題的怪圈中。

當遊戲脫離現實問題

早在20世紀90年代,人們就非常關注IBM深藍算法,這是一種使用alpha-beta剪枝算法(一種樹搜索形式)的國際象棋遊戲算法。不幸的是,儘管人類玩家和媒體都在用生動的語言炒作它,這種國際象棋算法在現實中卻從未有過重要的用例。alpha-beta剪枝算法實際上只不過是一種精心設計的搜索算法,只適用於國際象棋和其他回合制遊戲。

如今,AlphaZero在2018年末製造了很多頭條新聞,這與1996年人們對深藍算法的反應非常相似。下方為一篇重要的相關文章鏈接:

《AI歷史上的“轉折點”:DeepMind的AlphaZero顯示出一種與人相似的直覺》

https://news.yahoo.com/deepmind-apos-alphazero-now-showing-190000147.html

請仔細留意本文的措辭,它使用“與人相似”、“創造力”和“直覺”等詞將算法擬人化。能說點兒實話嗎?這只是一個使用了擬合隨機數據而不是樹搜索的、更好的國際象棋算法,之所以形容人的單詞是為了使算法聽起來更像人類,而不是計算器。

我認為這篇文章奇怪的一點是忽略了大量用於訓練的蒙特卡羅數據,其中算法對自身進行了無數次隨機遊戲,然後對所得數據進行迴歸分析以估計給定回合的最佳移動。

然而,這篇文章忽視了類似Stockfish的現有算法,因為它們“在遊戲過程中會計算出數百萬的可能結果”,並且成本很高。這是“五十步笑百步”嗎? Stockfish和AlphaZero都需要進行大量計算併產生大量結果,也有觀點表示AlphaZero需要更多的計算。

可以肯定的是,計算方法和它們的發展階段是不同的。但我認為這篇文章在批評現有算法需要大量計算上極具誤導性的,因為AlphaZero也需要很多計算。

與DeepMind所有遊戲相關的人工智能項目一樣,AlphaZero通過自己玩隨機遊戲生成數據,這在現實世界不太可能發生。

這就是為什麼如此多的數據科學家指責深度學習模型沒有處理好“數據不足”的問題。當你必須依賴這樣大量的數據時,有一種觀點是你可以把神經網絡當作一個壓縮數據庫,以查找給定當前位置的最佳移動。

為什麼要做這些呢?是為了創建生成過量數據的、更好的國際象棋算法嗎?這挺不錯的,它確實是國際象棋研究與認知的一大成就。但是我們不要自欺欺人,相信天網(SkyNet)在當下是可能的,除非我們能獲得源源不斷的數據來進行訓練。

AlphaZero與DeepMind所有遊戲相關的人工智能項目一樣,通過自己玩隨機遊戲生成數據,這在現實世界不太可能實現。

為什麼遊戲人工智能在現實世界是失敗的?

我們用常識就知道,為什麼遊戲人工智能在應用到現實世界時會如此艱難,原因主要有三個:

1. 遊戲完全是自我封閉的,所有可能出現的情況、變量和結果都是已知的。在現實世界,不確定性和未知數無處不在,模凌兩可也是常態。

2. 數據可以通過隨機遊戲生成,但大多數現實世界的問題都無法做到。你可以用模擬生成數據(如上面的客戶隊列示例),但數據僅僅會與可能已具有預測價值的模擬結果一樣好。

3. 遊戲可產生確定結果並擁有所有必要信息(除了對手接下來的行為),而真實世界的問題可能非常不確定,而且只掌握部分信息。

正是出於這些原因,我們可以輕易地構建圍棋、象棋、StarCraft和DOTA 2等遊戲相關的人工智能,但很難將人工智能運用到現實生活中。

最重要的是,遊戲中出現的錯誤或是糟糕的操作很容易被忽視。而在現實世界中,對錯誤的容忍度就要低得多,除非對人工智能的應用不苛刻(例如廣告投放或社交媒體發帖)。而且,現實世界通常更傾向於啟發式而不是我們正努力想要實現的實驗性的深度學習。

千萬不要陷入合成謬誤,這非常重要,因為我們很快會因為一個小成功就認為其具有普遍價值,並且錯誤制定瞭解決更大問題的方法。Microsoft人工智能和研究公司副總裁約瑟夫·斯洛什(Joseph Sirosh)認為:

“如果你所處的環境中有無限數據可供學習,你將能非常出色地完成這件事,並且有許多方法能讓你出色完成。人工智能只有在有限的數據的條件下成功才真正稱得上是“智能”。

像你我這樣的人類實際上在用非常有限的數據學習,通過一次性指導學習新技能。這才是人工智能真正需要提高的方向,也是真正的挑戰所在。我們正努力創造出真正的人工智能。”

下方鏈接包含了更多Sirosh的想法:

https://www.techrepublic.com/article/ai-how-big-a-deal-is-googles-latest-alphago-breakthrough/

從另一個角度來看,人們應該考慮P對NP問題。我很驚訝當代人工智能文獻似乎都避開了這個話題,因為它確實是真正實現有效人工智能的關鍵。

雖然目前沒有確切證明判斷這個問題的對錯,但更多的科學家開始相信P不等於NP。這不利於人工智能研究,因為它意味著複雜性總會限制我們的能力。

我有時很好奇,當今所有的數據驅動人工智能模型,是否都是擺脫啟發式並嘗試解決P對NP問題的失敗嘗試。更諷刺的是,機器學習中優化損失的過程仍屬於P對NP問題範疇,這也是機器學習如此困難的主要原因之一。

就個人而言,我很樂意看到DeepMind通過深度學習解決旅行商問題和其他本文所述的行業問題,而不是糾結於電子遊戲和安全問題。關於遊戲的人工智能研究妙極了,也有教育意義,但如果各種有趣的問題與行業每天面臨的現實問題相結合會更好。

我還是要重申一遍,現實世界的問題可能並不那麼美好。你真的可以將旅行商問題作為宣傳噱頭嗎?或者,還是讓算法贏過任何遊戲的世界冠軍會更酷?我向你保證,後者更有可能成為新聞頭條並吸引風投資金。

"

來源:Medium

作者:Thomas Nield

我們能從娛樂活動的人工智能化中得到什麼?

“我一直在閱讀DeepMind在國際象棋遊戲中應用類人智能的文章,而現在它能夠在《星際爭霸》(StarCraft)中擊敗人類玩家了!”這些機器學習算法在所有此類遊戲中都打敗了人類玩家!這是否意味著它們將取代我的工作?”

“有多少《星際爭霸》人類玩家面臨著“丟掉飯碗”的威脅呢?”

——對話節選自《2019年學習數據科學是什麼感受 》(How it Feels to Learn Data Science in 2019)

為什麼人工智能研究對棋盤類和電子遊戲如此感興趣呢?這還要從20世紀50年代的棋盤遊戲算法說起。當時的研究人員對跳棋算法所展現出的思維感到驚訝。

之後直到21世紀的前十年,國際象棋徹底成為人工智能研究的焦點。

讓時間快速轉動到2015年,一個神經網絡廣為流傳的超級馬里奧視頻,引起了大眾對電子遊戲人工智能的關注,該視頻超出了目前電子遊戲開發者的市場定位,成為主流數據科學領域的一個玩笑。就在本週,Facebook推動了當前撲克人工智能算法列表的發展。

DeepMind加入遊戲人工智能熱潮後,事情變得更有趣了。

在2014年Google收購DeepMind後,媒體越來越關注該公司及其人工智能應用程序的發展。首先是著名的AlphaGo算法,它在2016年的傳統棋盤遊戲Go中擊敗了當時的世界冠軍(Netflix上有一部紀錄片就記述了本場比賽)。

接著,AlphaZero運用了一種深度學習法,而非20世紀90年代IBM和21世紀前十年Stockfish運用的alpha-beta剪枝算法,重新喚起了人們對國際象棋算法研究的興趣。

DeepMind後來將注意力從棋盤遊戲轉到電子遊戲上,如《星際爭霸Ⅱ》(StarCraftⅡ)和《守護奇蹟2》(DOTA 2)。此時很顯然,一種新模式正在形成。

DeepMind大費周章地投入了大量資源和時間於將娛樂活動方面的人工智能開發,但事實告訴我們,這在現實世界中不太具有實際價值。如果它真的有現實世界的價值,常識會告訴我們,鐵桿電子遊戲玩家會因為他們的戰略才能而受到追捧。

如果僅因為算法贏得了《星際爭霸》就稱得上有價值,那麼人類玩家對公司和軍隊的戰略功能不是同樣具有價值嗎?也許我們的工作簡歷中還應寫上電子遊戲成就。

“我不確定AlphaZero的算法是否很容易普及,因為遊戲是很特別的東西。”

——佩德羅·多明戈斯(Pedro Domingos)

好的,我知道你們有些讀者在想什麼。玩家是人類,如果算法玩遊戲的水平和人類一樣高(或者更好),那麼它一定複製了人類的智慧。

這是一種錯誤的思維方式,因為算法可能會比你計算24653546734 + 5345434534更快,但這並不意味著它複製或超越了人類智慧。

僅僅是因為算法只被成功優化來執行某一項任務(例如,玩《星際爭霸》),並不意味著它可以被優化來執行所有任務。如果沒有明確的啟發式算法和硬編碼,算法就無法完成很多事。

另一個相反的觀點是,這種人工智能的目標不是儘可能有效地破解遊戲,而是讓它“學習”如何在沒有明確指導和啟發式算法的情況下通關。

我理解這裡的目標,但我認為它只是一個不那麼重要的目標,因為在這裡人工智能只是被訓練如何完成一項任務,並以一種蠻力的方式完成它(稍後將詳細介紹)。

遊戲似乎是DeepMind的主體任務和研究重點。如果你看了他們的項目公開列表,會發現其中絕大多數是與遊戲相關的。這是為什麼?運行大量的算法,進行了累計時長達到數千年的遊戲,有什麼意義呢……難道只是為了擊敗能夠在幾周內用更少數據掌握遊戲的老玩家?

而且,啟發式算法可以用更低的成本開發出水平較高的人工智能。

我們都知道,開發目標是讓一臺機器在沒有明確編碼的指導下,自主“學習”完成一項任務,但我們對算法訓練、訓練、再訓練,使它在執行之前就學會了這項任務,結果會導致執行速度緩慢、效率低下,這是不是挺諷刺的呢?而傳統的啟發式算法可跳過學習過程,及時有效地完成這項任務。

“大多數現實世界的戰略互動都涉及隱藏的信息。我覺得大部分人工智能共同體都忽視了這一點。”

——Facebook的人工智能研究科學家,諾姆·布朗(Noam Brown)

這種將AI研究與遊戲結合的痴迷難以被忽視,我認為有必要探索其原因。遊戲在人工智能研究中有三個主要優勢,包括:

1.遊戲是完全獨立的,所有可能出現的情況、變量和結果都是已知的。

2.數據可以通過隨機遊戲生成。

3.由於環境的可預測和可控制性,遊戲可以產生確定性結果。

當遊戲遇到現實問題

公平地說,DeepMind在使用AlphaFold進行蛋白質摺疊方面貢獻巨大,最近也獲得了多方的認可,並發現了其他項目的行業用途。所以DeepMind做的不僅僅是花大價錢訓練人工智能代替遊戲玩家。

如果你的思維跳出深度學習並考慮其他“人工智能”算法,我承認遊戲和實際問題的解決方法之間肯定有重疊,尤其是在你看運籌學時。

例如,使用樹架構搜索 或者線性編程算法可破解數獨,同樣的方法也可用於解決調度之類的物理約束問題。我在另一篇名為《數獨和時間表》(Sudokus and Schedules)的文章中討論了這個問題。

同樣的樹結構搜索方法也適用於alpha-beta剪枝算法,從而贏得了國際象棋和其他對抗性回合制遊戲。這實際上是20世紀90年代IBM以及21世紀前十年Stockfish使用的深藍算法。

你可以創建類似遊戲的蒙特卡羅模擬並稱其為“人工智能”。如果你對這個例子不熟悉的話,我解釋一下:蒙特卡羅算法利用隨機性來實現目標。例如,如果用一些簡單的隨機分佈描述處理客戶所需的時間(服從正態分佈)以及客戶走進來的頻率(服從泊松分佈 ),你可以創建如下所示的客戶隊列模擬:

所以,棋盤和電子遊戲與實際的現實問題之間確實存在部分重疊。當然,你可以使用神經網絡嘗試解決所有問題,但實際上,為什麼在現有算法能夠做得更好同時費用更低的情況下,我們還要使用神經網絡去做這件事呢?

可能人們會覺得我反對為了遊戲研究AI,但事實上並沒有,這是研究者的權利。然而令人費解的是,這些算法的創造者聲稱,這些算法有極大的潛力,能在AGI規模(AGI scale)解決現實問題,但卻陷入了尋找下一個要“人工智能化”的遊戲,而不解決行業問題的怪圈中。

當遊戲脫離現實問題

早在20世紀90年代,人們就非常關注IBM深藍算法,這是一種使用alpha-beta剪枝算法(一種樹搜索形式)的國際象棋遊戲算法。不幸的是,儘管人類玩家和媒體都在用生動的語言炒作它,這種國際象棋算法在現實中卻從未有過重要的用例。alpha-beta剪枝算法實際上只不過是一種精心設計的搜索算法,只適用於國際象棋和其他回合制遊戲。

如今,AlphaZero在2018年末製造了很多頭條新聞,這與1996年人們對深藍算法的反應非常相似。下方為一篇重要的相關文章鏈接:

《AI歷史上的“轉折點”:DeepMind的AlphaZero顯示出一種與人相似的直覺》

https://news.yahoo.com/deepmind-apos-alphazero-now-showing-190000147.html

請仔細留意本文的措辭,它使用“與人相似”、“創造力”和“直覺”等詞將算法擬人化。能說點兒實話嗎?這只是一個使用了擬合隨機數據而不是樹搜索的、更好的國際象棋算法,之所以形容人的單詞是為了使算法聽起來更像人類,而不是計算器。

我認為這篇文章奇怪的一點是忽略了大量用於訓練的蒙特卡羅數據,其中算法對自身進行了無數次隨機遊戲,然後對所得數據進行迴歸分析以估計給定回合的最佳移動。

然而,這篇文章忽視了類似Stockfish的現有算法,因為它們“在遊戲過程中會計算出數百萬的可能結果”,並且成本很高。這是“五十步笑百步”嗎? Stockfish和AlphaZero都需要進行大量計算併產生大量結果,也有觀點表示AlphaZero需要更多的計算。

可以肯定的是,計算方法和它們的發展階段是不同的。但我認為這篇文章在批評現有算法需要大量計算上極具誤導性的,因為AlphaZero也需要很多計算。

與DeepMind所有遊戲相關的人工智能項目一樣,AlphaZero通過自己玩隨機遊戲生成數據,這在現實世界不太可能發生。

這就是為什麼如此多的數據科學家指責深度學習模型沒有處理好“數據不足”的問題。當你必須依賴這樣大量的數據時,有一種觀點是你可以把神經網絡當作一個壓縮數據庫,以查找給定當前位置的最佳移動。

為什麼要做這些呢?是為了創建生成過量數據的、更好的國際象棋算法嗎?這挺不錯的,它確實是國際象棋研究與認知的一大成就。但是我們不要自欺欺人,相信天網(SkyNet)在當下是可能的,除非我們能獲得源源不斷的數據來進行訓練。

AlphaZero與DeepMind所有遊戲相關的人工智能項目一樣,通過自己玩隨機遊戲生成數據,這在現實世界不太可能實現。

為什麼遊戲人工智能在現實世界是失敗的?

我們用常識就知道,為什麼遊戲人工智能在應用到現實世界時會如此艱難,原因主要有三個:

1. 遊戲完全是自我封閉的,所有可能出現的情況、變量和結果都是已知的。在現實世界,不確定性和未知數無處不在,模凌兩可也是常態。

2. 數據可以通過隨機遊戲生成,但大多數現實世界的問題都無法做到。你可以用模擬生成數據(如上面的客戶隊列示例),但數據僅僅會與可能已具有預測價值的模擬結果一樣好。

3. 遊戲可產生確定結果並擁有所有必要信息(除了對手接下來的行為),而真實世界的問題可能非常不確定,而且只掌握部分信息。

正是出於這些原因,我們可以輕易地構建圍棋、象棋、StarCraft和DOTA 2等遊戲相關的人工智能,但很難將人工智能運用到現實生活中。

最重要的是,遊戲中出現的錯誤或是糟糕的操作很容易被忽視。而在現實世界中,對錯誤的容忍度就要低得多,除非對人工智能的應用不苛刻(例如廣告投放或社交媒體發帖)。而且,現實世界通常更傾向於啟發式而不是我們正努力想要實現的實驗性的深度學習。

千萬不要陷入合成謬誤,這非常重要,因為我們很快會因為一個小成功就認為其具有普遍價值,並且錯誤制定瞭解決更大問題的方法。Microsoft人工智能和研究公司副總裁約瑟夫·斯洛什(Joseph Sirosh)認為:

“如果你所處的環境中有無限數據可供學習,你將能非常出色地完成這件事,並且有許多方法能讓你出色完成。人工智能只有在有限的數據的條件下成功才真正稱得上是“智能”。

像你我這樣的人類實際上在用非常有限的數據學習,通過一次性指導學習新技能。這才是人工智能真正需要提高的方向,也是真正的挑戰所在。我們正努力創造出真正的人工智能。”

下方鏈接包含了更多Sirosh的想法:

https://www.techrepublic.com/article/ai-how-big-a-deal-is-googles-latest-alphago-breakthrough/

從另一個角度來看,人們應該考慮P對NP問題。我很驚訝當代人工智能文獻似乎都避開了這個話題,因為它確實是真正實現有效人工智能的關鍵。

雖然目前沒有確切證明判斷這個問題的對錯,但更多的科學家開始相信P不等於NP。這不利於人工智能研究,因為它意味著複雜性總會限制我們的能力。

我有時很好奇,當今所有的數據驅動人工智能模型,是否都是擺脫啟發式並嘗試解決P對NP問題的失敗嘗試。更諷刺的是,機器學習中優化損失的過程仍屬於P對NP問題範疇,這也是機器學習如此困難的主要原因之一。

就個人而言,我很樂意看到DeepMind通過深度學習解決旅行商問題和其他本文所述的行業問題,而不是糾結於電子遊戲和安全問題。關於遊戲的人工智能研究妙極了,也有教育意義,但如果各種有趣的問題與行業每天面臨的現實問題相結合會更好。

我還是要重申一遍,現實世界的問題可能並不那麼美好。你真的可以將旅行商問題作為宣傳噱頭嗎?或者,還是讓算法贏過任何遊戲的世界冠軍會更酷?我向你保證,後者更有可能成為新聞頭條並吸引風投資金。

成為超級遊戲玩家的AI能解決現實問題嗎?

"

相關推薦

推薦中...