導讀: 機器人擁有人一樣的意識,一直是我們目前難以攻克的難題。
機器人擁有人一樣的意識,一直是我們目前難以攻克的難題。在近日,加州大學伯克利分校的科學家和谷歌人工智能(AI)研究部門之一的Google Brain在Arxiv.org上發表的一份預印本論文中描述了一種人工智能系統,即通過深度強化學習來學習走路,簡單來說,就是教“一個四足機器人來穿越熟悉和不熟悉的地形”。
目前,在此預印論文中表示,他們已經研究出了新型算法,并且根據算法演練,實現了機器人自己走路。這也就表明了人工智能系統可以讓機器人學會人一樣的用靈活的方式掌握和操縱自身或者周圍的物體。
隨著近幾年來,機器人領域的發展和人工智能的崛起,深度學習與強化學習被用來處理控制系統面臨的難題,尤其是在機器人的靈活操縱方面。
在現實生活中,人們很輕而易舉的就將物體堆疊,或者用手工制作各式各樣的工藝品,但是一直以來,機器人卻一直無法跨越靈活性的鴻溝。
要知道的是,機器人靈活性一直以來就面臨很多挑戰:
首先,在機器人進行學習時,必須經過自身與環境之間的反復驗證,來獲取數據。
其次,機器人還得通過自身的觀察來導出這些行為,這里面包含了很強的時間相關性。
最后,機器人很容易在環境發生轉變之后,其習慣性的行動后果也不可預估。
我們不知道機器人會采取哪些行為,來描述不可預知的事情,所以,人們無法感知違背探索的事物也致使機器人靈活性受到局限。
預印論文中寫道:深度強化學習可以用于自動獲取一系列機器人任務的控制器,從而實現將感知輸入映射到低級別動作的策略的端到端學習。其意思就是,假設機器人在現實世界中可以直接學習運動操縱,那么,每個機器人就能像人一樣,獲取最適合自己的單個的控制器,從而完成自身敏捷性、穩健性、能源效率上的突破。
深度強化學習可以通過算法來驅動機器人獲取大量的數據樣本,通過成千上萬的模擬實驗,來取得最好的結果。
早在2015年,就有科研人員在《自然》雜志上發表論文Human-level control through deep reinforcement learning,論文中提出的深度學習和強化學習相結合的思想模型,在Atari游戲平臺的演示上,展示出了超越人類水平的表現。
可以預知的是,在未來幾年間,深度強化學習能夠被應用在不同的領域,例如在視頻游戲上、在棋類游戲上、控制復雜的機械操作、調配網絡資源、為數據中心大幅節能、對機器學習算法自動調參等等。
這種深度強化學習給機器人帶來的發展,相信隨著時間,也終將會給我們答案。