強化學習有哪些特點?這5大領域你有了解嗎?

強化學習的特點

前面曾經提到強化學習與機器學習的其他範式(監督學習、無監督學習)不同,具體有以下5個方面。

  • 沒有監督者,只有獎勵信號(Reward Only):監督學習要基於大量的標註數據進行(標註數據是訓練與學習的目標)。而在強化學習中沒有監督者,這意味著強化學習不能夠由已經標註好的樣本數據來告訴系統什麼是最佳的動作,智能體只能從環境的反饋中獲得獎勵。換言之,系統不能夠馬上獲得監督信號,只能從環境中獲得一個獎勵信號。
  • 反饋延遲(Feedback Delay):反饋延遲實際上是延遲獎勵。環境可能不會在每一步的動作上都獲得獎勵,有時候需要完成一連串的動作,甚至是當完成整個任務才能獲得獎勵。
  • 試錯學習(Trail-and-Error):因為沒有監督,所以沒有直接的指導信息,智能體要不斷與環境進行交互,通過試錯的方式來獲得最優策略(Optimal Policy)。
  • 智能體的動作會影響其後續數據:智能體選擇不同的動作,會進入不同的狀態。由於強化學習基於馬爾可夫決策過程(當前狀態只與上一個狀態有關,與其他狀態無關),因此下一個時間步所獲得的狀態發生變化,環境的反饋也會隨之發生變化。
  • 時間序列(Sequential)很重要:機器學習的其他範式可以接受隨機的輸入,而強化學習更加註重輸入數據的序列性,下一個時間步t的輸入經常依賴於前一個時間步t-1的狀態(即馬爾可夫屬性)。

哪些領域已涉及?

深度學習已經被許多傳統制造業、互聯網公司應用到各種領域,與之相比,強化學習的應用還相對有限,本節將對強化學習的已有應用進行簡單介紹。

強化學習模仿人類和動物的學習方法。在現實生活中可以找到很多符合強化學習模型的例子,例如父母的表揚、學校的好成績、工作的高薪資等,這些都是積極獎勵的例子。無論是工廠的機器人進行生產,還是商業交易中的信貸分配,人們或者機器人不斷與環境進行交流以獲得反饋信息的過程,都與強化學習的學習過程相仿。更加真實的案例是AlphaGo的出現,其通過每步走棋的反饋來調整下圍棋的策略,最終贏得了人類最頂尖的圍棋職業選手。AlphaGo中所使用到的深度強化學習也緊隨深度學習之後,成為了目前人工智能領域最熱門的話題。事實上,強化學習也確實可以通過對現實問題的表示和人類學習方式的模擬解決很多的現實問題。

一方面,強化學習需要收集大量的數據,並且是現實環境中建立起來的數據,而不是簡單的仿真模擬數據。不過幸運的是,強化學習可以通過自我博弈的方式自動生成大量高質量的可用於訓練模型的數據。另一方面,與部分算法的研究成果易復現不同的是,復現基於強化學習的研究成果較為困難,即便是對於強化學習的研究者來說,需要重複實現已有的研究成果也十分困難。究其原因是強化學習對初始化和訓練過程的動態變化都十分敏感,其樣本數據基於在線採集的方式。如果沒有在恰當的時機遇到良好的訓練樣本,可能會給策略帶來崩潰式的災難,從而無法學習到最優策略。而隨著機器學習被應用到實際環境的任務中,可重複性、穩健性以及預估錯誤的能力變得不可缺失。

因此,就目前的情況而言,對於需要持續控制的關鍵任務而言,強化學習可能並不是最理想的選擇。

即便如此,目前依然有不少有趣的實際應用和產品是基於強化學習的。而由強化學習實現的自適應序列決策能夠給包括個性化、自動化在內的許多應用帶來廣泛的益處和更多的可能性。

1.製造業

日本發那科株式會社大量地使用強化學習算法去訓練工業機器人,使它們能夠更好地完成某一項工作。如圖1.10所示,圖中黃色的FANUC機器人使用深度強化學習在工廠進行分揀工作,目標是從一個箱子中選出一個物品,並把該物品放到另外一個容器中。在學習階段,無論該動作成功還是失敗,FANUC機器人都會記住這次的動作和獎勵,然後不斷地訓練自己,最終能以更快、更精確的方式完成分揀工作。


強化學習有哪些特點?這5大領域你有了解嗎?


圖1.10 自動化工廠通過使用6臺FANUC機器人,組成一個分揀系統來分揀瓶子

中國的智能製造發展迅速,富士康等工廠為了讓機器製造更加方便、快捷,正在積極地研發智能製造來裝備機器人。未來的工廠將會裝備大量的智能機器人,智能製造將是工業4.0乃至工業5.0的重心。強化學習在未來智能製造的技術應用將會進一步被推廣,其自動化前景更是引人注目。

2.自動化系統

2017年6月,日本軟銀公司(Softbank)宣佈收購Google旗下的波士頓動力公司(Boston Dynamics)。在這之前,波士頓動力的平行機器人的知名度非常高,其能通過各種巧妙的姿勢輕鬆躲避障礙物。如圖1.11所示,波士頓動力在2009年與斯坦福大學的吳恩達(Andrew Ng)教授合作,基於強化學習方法,通過信號進行策略搜索控制仿生狗的姿態以越過障礙。


強化學習有哪些特點?這5大領域你有了解嗎?


圖1.11 波士頓動力的仿生狗

在自動化領域,還有非常多使用強化學習來控制機器人進而獲得優異性能的實際應用案例,如吳恩達教授所帶領的團隊利用強化學習算法開發了世界上最先進的直升機自動控制系統之一。

3.醫療服務業

在醫學領域,醫生的主要責任是為病人找到有效的治療方案,而動態治療方案(Dynamic Treatment Regime,DTR)一直是熱門的研究方向。想要更好地進行動態治療方案的研究,疾病的治療數據對於從業者和研究者來說是彌足珍貴的。尤其是諸如類風溼、癌症等不能夠馬上治癒,需要長期服用藥物和配合長期治療療程的疾病治療數據。

而在這個過程中,強化學習可以利用這些有效的或無效的醫療數據作為獎勵或者是懲罰,從患者身上收集各種臨床指標數據作為狀態輸入,並利用有效的臨床數據作為治療策略的訓練數據,從而針對不同患者的臨床反應,找到最合適該患者的動態治療方案。

4.電子商務個性化

南京大學和淘寶聯合發表的論文(Virtual-Taobao: Virtualizing Real-world Online Retail Environment for Reinforcement Learning)詳細介紹了淘寶使用強化學習優化商品搜索的新技術。新構建的虛擬淘寶模擬器可以讓算法從買家的歷史行為中學習,規劃最佳商品搜索顯示策略,並能在真實環境下讓淘寶網的收入提高2%,這是一筆非常可觀的交易額。

電子商務最初主要解決了線下零售商的通病——信息不透明所導致的價格居高不下、物流不發達造成的局部市場價格壟斷。近年來,線下門店的價格與電商的價格差別已經不是很明顯,部分用戶反而轉回線下零售商,為的是獲得更好的購物體驗。

未來,對於零售商或者電子商務而言,需要主動迎合客戶的購買習慣和定製客戶的購買需求,只有個性化、私人訂製才能在新購物時代為用戶提供更好的消費體驗。

事實上,強化學習算法可以讓電商分析用戶的瀏覽軌跡和購買行為,並據此制定對應的產品和服務,以匹配用戶的興趣。當用戶的購買需求或者狀態發生改變的時候,可以自適應地去學習,然後根據用戶的點擊、購買反饋作為獎勵,找到一條更優的策略方法:推薦適合用戶自身購買力的產品、推薦用戶更感興趣的產品等,進而更好地服務用戶。此外,[Nair, Arun, et al.]發表的文章也揭示了Google以使用強化學習作為廣告的推薦框架(Gorila),從而大大提高了Google的廣告收益(4%左右),如圖1.12所示。


強化學習有哪些特點?這5大領域你有了解嗎?


圖1.12 Gorila被應用在Google的推薦系統中,每天為Google帶來數以

億計的點擊量[Nair et al. 2015]

5.遊戲博弈

強化學習應用於遊戲博弈這一領域已有20多年曆史,其中最轟動的莫過於AlphaGo圍棋程序(見圖1.13)。AlphaGo使用基於強化學習與深度學習的蒙特卡洛樹搜索模型,並將強化學習與深度學習有機融合。在第12章,我們會對AlphaGo程序背後的原理和設計思想進行詳細介紹,這裡不再贅述。


強化學習有哪些特點?這5大領域你有了解嗎?


圖1.13 AlphaGo圍棋程序中的蒙特卡洛樹搜索[Min et al. 2017]

強化學習的應用案例還有很多,例如愛奇藝使用強化學習處理自適應碼流播放,使得基於智能推薦的視頻觀看率提升了15%;又如阿里巴巴使用深度強化學習方法求解新型的三維裝箱問題,提高了菜鳥網絡的貨物裝箱打包效率,節省了貨物的打包空間。

總而言之,強化學習讓機器人處理一些難以想象的任務變得可能,但這僅僅是強化學習的開始,這一技術將會帶來更多的商業價值和技術突破!

強化學習有哪些特點?這5大領域你有了解嗎?

本書構建了一個完整的深度強化學習理論和實踐體系:從馬爾可夫決策過程開始,根據價值函數、策略函數求解貝爾曼方程,到利用深度學習模擬價值網絡和策略網絡。書中詳細介紹了深度強化學習相關算法,如Rainbow、Ape-X算法等,並闡述了相關算法的具體實現方式和代表性應用(如AlphaGo)。此外,本書還深度剖析了強化學習各算法之間的聯繫,有助於讀者舉一反三。

本書分為四篇:初探強化學習、求解強化學習、求解強化學習進階和深度強化學習。涉及基礎理論到深度強化學習算法框架的各方面內容,反映了深度強化學習領域過去的發展歷程和研究進展,有助於讀者發現該領域中新的研究問題和方向。

歡迎加入程序員讀書會,每日分享優質好書

(此處已添加圈子卡片,請到今日頭條客戶端查看)

相關推薦

推薦中...