在隨后的推文中,馬斯克具體論述了對(duì)AI體系開辟停止監(jiān)管的需要性。這與他本月早些時(shí)刻所說的話相照應(yīng),其時(shí)他說:“我以為,任何對(duì)"組成風(fēng)險(xiǎn)的工作,至多當(dāng)局應(yīng)當(dāng)有所懂得,由于當(dāng)局的義無之一就是確保公共福利。沒有人愛好遭到監(jiān)管,但對(duì)"有風(fēng)險(xiǎn)的任何器械(包含汽車、飛機(jī)、食物和藥品等)都應(yīng)當(dāng)遭到管束,AI也是如斯。”
閱讀對(duì)馬斯克推文的評(píng)論發(fā)明,仿佛年夜多半人都在某種水平上贊成馬斯克的看法。名為丹尼爾·佩德拉薩(Daniel Pedraza)的用戶以為:“我們須要一個(gè)順應(yīng)性較強(qiáng)的框架,不須要固定的規(guī)矩、司法或準(zhǔn)繩,這對(duì)治理AI有利益。這個(gè)范疇正在賡續(xù)地變更和演進(jìn),任何固定的規(guī)矩很快就會(huì)掉效。”
很多專家都不肯意AI成長(zhǎng)得太快。它形成的威逼聽起來能夠有點(diǎn)兒像科幻小說中的場(chǎng)景,但它們終究能夠被證實(shí)是有用的。像史蒂芬·霍金(Stephen Hawking)如許的專家早就收回正告,傳播鼓吹A(chǔ)I有終結(jié)人類的能夠。在2014年采訪中,這位有名的物理學(xué)家說:“AI的成長(zhǎng)能夠預(yù)示著人類的終結(jié)。”他乃至以為主動(dòng)化的分散對(duì)中產(chǎn)階層是一種無害的力氣。
另外一位專家、metaMed Research的首席迷信官邁克爾·瓦薩爾(Michael Vassar)指出:“假如遠(yuǎn)超人類的通用人工智能沒有遭到謹(jǐn)嚴(yán)監(jiān)管,可以確定的是,人類將在異常短的時(shí)光內(nèi)滅盡。”
很明顯,至多在迷信界,AI的自在成長(zhǎng)能夠不相符人類的最好好處。許多人曾經(jīng)開端著手制訂這些規(guī)矩,以確保AI的成長(zhǎng)“符合品德標(biāo)準(zhǔn)”。電氣與電子工程師協(xié)會(huì)提出了他們的第一份規(guī)矩草案,愿望能引誘開辟人員朝著準(zhǔn)確的偏向成長(zhǎng)。
另外,在當(dāng)局參與之前,科技巨子們也正在制訂自我監(jiān)管規(guī)矩。來自谷歌、亞馬遜、微軟、IBM和Facebook等年夜型科技公司的研討人員和迷信家曾經(jīng)開端評(píng)論辯論,以確保AI造福于人類,而不是成為人類的生計(jì)威逼。
固然,要想到達(dá)足以威逼人類生計(jì)的水平,AI還有很長(zhǎng)的路要走。但是,AI的提高是日新月異的。有名將來學(xué)家雷·庫茲韋爾(Ray Kurzweil)預(yù)言,盤算機(jī)將在2045年變得比人類更聰慧。但是,他其實(shí)不以為這是件恐怖的事?;蛟S,科技公司的自我監(jiān)管將足以確保這些擔(dān)心變得毫有意義,或許終究能夠須要當(dāng)局的贊助。不論你的感到若何,如今開端這些對(duì)話不算庸人自擾。但與此同時(shí),也不要過于擔(dān)憂,除非你是個(gè)有競(jìng)爭(zhēng)力的玩家。
