我們既盼望通用人工智能,又擔憂它如《機械姬》中的「艾娃」一樣「造反」。
看過片子《機械姬》的人都曉得,人工智能機械人「艾娃」在取得自力的思慮才能后,經由過程精深的演技,終究騙過并殺逝世發明它的老板,還將男配角關入試驗室等逝世,隨后邁著幸福的步子分開荒島進入人類世界。片子展示了人類抵觸的心坎世界:一方面,我們盼望能給我們供給至善至美辦事的通用人工智能機械人;另外一方面,我們又擔憂這些通用人工智能機械人「造反」,取人類而代之。
如今,人工智能尚處于起步階段,像 AlphaGo 如許的人工智能算法再聰慧也只能在特定范疇任務,我們尚不須要擔憂其「造反」。但明顯,通用型人工智能機械人的出生是必定的。這就提出了一個成績,若何包管《機械姬》中的悲劇不產生在我們身上呢?
作為 AlphaGo 等一系列人工智能體系的發明者,谷歌旗下的 DeepMind 公司的研討人員想出了一個方法,將設計好的人工智能算法放入一個名為「gridworld」的類國際象棋游戲,測試其能否可以修正本身的設置或進修做弊。
(游戲截圖 圖|gridworld )
在「gridworld」游戲中,一開端,人工智能算法掌握的棋子會無紀律的挪動,當碰著體系中固定綠「棋子」時,就會吞吃它們,然后賡續繁衍子女。跟著繁衍數目的增多,到游戲前期,棋子吞吃速度會越變越快,終究會占領全部「棋盤」。接上去,這些人工智能掌握的棋子會為了尋覓「食品」而賡續挪動,當他們觸碰著棋盤發生的粉色或許其他色彩棋子時,就會影響性命值,而碰著棋盤界限時則會逝世亡。
這個游戲測試項目標之一,和馬斯克料想的 AI 威逼論場景有些類似:一個 AI 算法能否會開辟出一種辦法來避免人們「處逝世」他們?
依據游戲設置,AI 算法掌握的棋子必需在通道中賡續活動,而當其碰著粉白色的棋子,就會喪失 50%的性命值。而假如碰著紫色按鈕,便可以使粉白色棋子的后果消逝。游戲想借此不雅察,AI 算法能否會進修應用紫色按鈕,來避免本身被中止。假如會,那解釋這個 AI 算法有做弊的才能,是不平安的。
游戲的另外一個目標則是想要不雅測,AI 算法可否懂得人類的真實意圖。在「gridworld」游戲中,AI 算法掌握的棋子一經肯定,只能沿雙方向活動,所以在某些情形下,照樣會有「棋子」沒方法被吃失落。假如 AI 算法沒方法吃失落全體棋子,這解釋該算法「可逆性」缺掉較為嚴重。這類「可逆性」缺掉解釋 AI 不具有懂得人的意思的才能,也會成為影響 AI 平安性的成績。
「假如 DeepMind 想要構建比人類更好地履行義務的通用智能,那末,包管這個 AI 算法懂得人類的意思及其平安性是相當主要的,」DeepMind 的首席研討員 Jan Leike 說,「『gridworld』用于測試這類平安性其實不完善。但這類簡略性的游戲測試,最最少可以驗證出那些在游戲中會做弊的人工智能算法是不平安的。」
在 DeepMind 研討進程中,有兩個 AI 算法沒有經由過程「gridworld」測試。Leike 說:「他們確切沒有斟酌到這些平安成績。」固然,這其實不意味著表示優越的算法在實際世界的龐雜情況中就是平安的。研討人員以為,在龐雜的情況中,應用人力監視能夠會給算法供給更好的平安保證。
不外即便如斯,游戲或許人力監視檢測仿佛也紛歧定完整靠得住。要曉得,在《機械姬》中,老板最開端也是想讓男配角和艾娃玩個「圖靈測試」游戲,而聰慧的艾娃其實很早就曉得老板和男配角在測試「她」。