在隨后的推文中,馬斯克具體論述了對AI體系開辟停止監管的需要性。這與他本月早些時刻所說的話相照應,其時他說:“我以為,任何對"組成風險的工作,至多當局應當有所懂得,由于當局的義無之一就是確保公共福利。沒有人愛好遭到監管,但對"有風險的任何器械(包含汽車、飛機、食物和藥品等)都應當遭到管束,AI也是如斯。”
閱讀對馬斯克推文的評論發明,仿佛年夜多半人都在某種水平上贊成馬斯克的看法。名為丹尼爾·佩德拉薩(Daniel Pedraza)的用戶以為:“我們須要一個順應性較強的框架,不須要固定的規矩、司法或準繩,這對治理AI有利益。這個范疇正在賡續地變更和演進,任何固定的規矩很快就會掉效。”
很多專家都不肯意AI成長得太快。它形成的威逼聽起來能夠有點兒像科幻小說中的場景,但它們終究能夠被證實是有用的。像史蒂芬·霍金(Stephen Hawking)如許的專家早就收回正告,傳播鼓吹AI有終結人類的能夠。在2014年采訪中,這位有名的物理學家說:“AI的成長能夠預示著人類的終結。”他乃至以為主動化的分散對中產階層是一種無害的力氣。
另外一位專家、metaMed Research的首席迷信官邁克爾·瓦薩爾(Michael Vassar)指出:“假如遠超人類的通用人工智能沒有遭到謹嚴監管,可以確定的是,人類將在異常短的時光內滅盡。”
很明顯,至多在迷信界,AI的自在成長能夠不相符人類的最好好處。許多人曾經開端著手制訂這些規矩,以確保AI的成長“符合品德標準”。電氣與電子工程師協會提出了他們的第一份規矩草案,愿望能引誘開辟人員朝著準確的偏向成長。
另外,在當局參與之前,科技巨子們也正在制訂自我監管規矩。來自谷歌、亞馬遜、微軟、IBM和Facebook等年夜型科技公司的研討人員和迷信家曾經開端評論辯論,以確保AI造福于人類,而不是成為人類的生計威逼。
固然,要想到達足以威逼人類生計的水平,AI還有很長的路要走。但是,AI的提高是日新月異的。有名將來學家雷·庫茲韋爾(Ray Kurzweil)預言,盤算機將在2045年變得比人類更聰慧。但是,他其實不以為這是件恐怖的事。或許,科技公司的自我監管將足以確保這些擔心變得毫有意義,或許終究能夠須要當局的贊助。不論你的感到若何,如今開端這些對話不算庸人自擾。但與此同時,也不要過于擔憂,除非你是個有競爭力的玩家。
