據(jù)Elon Musk說,人工智能(AI)的成長是人類將來的最年夜威逼。
Musk比來指出:
“我想我們要異常當(dāng)心人工智能。假如讓我說對我們的存在發(fā)生最年夜威逼的是甚么,那能夠就是它了。所以我們須要異常當(dāng)心。我愈來愈偏向于以為應(yīng)當(dāng)從國度和國際層面臨其停止一些監(jiān)管,從而確保我們不會做蠢事。”
Musk提到了幾個癥結(jié)成績。第一個是我們應(yīng)當(dāng)若何處置人工智能的實行;第二個是若何標(biāo)準(zhǔn)和監(jiān)視這項技巧,這能夠也是最嚴(yán)格的一項挑釁。
在現(xiàn)在人們急于采取機械進修和人工智能技巧來取得競爭優(yōu)勢的情形下,極有能夠涌現(xiàn)將技巧安排在欠妥范疇的風(fēng)險。這終究會招致不平衡和不公正深深扎根于我們的社會中。
Cathy O’Neil在《數(shù)學(xué)撲滅性兵器》(The Weapons of Math Destruction)一書中論述了現(xiàn)在多個范疇(包含美國牢獄體系及教導(dǎo)部分)搜索枯腸地敏捷采取機械進修和人工智能所帶來的風(fēng)險。她的重要論點是,猜測模子其實不是中立的,而是反應(yīng)了其發(fā)明者的目的和認(rèn)識形狀。它們常常也晦氣于窮漢,加重了社會中的不屈等。
不管是盤算年夜學(xué)排名,停止信譽評級,處置任務(wù)請求,照樣決議你在網(wǎng)上看到甚么告白或臉書的消息資訊中涌現(xiàn)甚么新聞,算法在我們的生涯中飾演著愈來愈主要的腳色。
由此得出的結(jié)論是,在設(shè)計機械進修時,我們必需確保我們曾經(jīng)經(jīng)由過程汗青數(shù)據(jù)和數(shù)據(jù)輸出自己測試并防止了顯著的誤差。
但是,該書關(guān)于若何有用地及時監(jiān)管該技巧簡直沒有說起。現(xiàn)實上,區(qū)塊鏈恰是完成該目的的可行選擇之一,它在機械進修和人工智能技巧的監(jiān)管中起著相當(dāng)主要的感化。具有弗成變的防改動行動記載是其對自治人工智能實體履行監(jiān)管的癥結(jié)機制。
區(qū)塊鏈還可以基于自治人工智能實體的榮譽來啟動對其的拜訪掌握。究竟,獨一可以實用于自治人工智能實體的標(biāo)準(zhǔn)能夠只要終止它;假如你沒有這類權(quán)利,那末就把拜訪權(quán)限交給社區(qū)。
所以,假如將來涌現(xiàn)了人工智能必需將哪些內(nèi)容寫進區(qū)塊鏈的尺度,而且能根據(jù)自治人工智能實體的“榮譽”停止拜訪掌握,那末我們就有了任何人工智能實體都沒法繞過的掌握機制。
從哲學(xué)的角度來看,最接近的辦法源自英國哲學(xué)家托馬斯·霍布斯(Thomas Hobbes)的論點。他在著作《利維坦》一書中指出國民有需要廢棄一些本身的權(quán)力,為了社會的好處將其交給統(tǒng)治者或“利維坦”(即國度)。
很多文章都寫到了這類技巧的不合法應(yīng)用,厥后果是發(fā)明者沒法預(yù)感的。但很少有文章提到若何創(chuàng)立一個監(jiān)管人工智能和機械進修的“利維坦”。
發(fā)明如許的“利維坦”可以對人工智能自治機構(gòu)停止驗證并使其向區(qū)塊鏈報告請示。區(qū)塊鏈的弗成變性確保了任何人工智能機構(gòu)都弗成以改動它,從而可認(rèn)為一切此類機構(gòu)創(chuàng)立榮譽帳本。這類機制可以或許有用地依照制訂好的規(guī)矩行事,一旦發(fā)明機構(gòu)不合規(guī)便可以實施制裁。
人們關(guān)于區(qū)塊鏈賡續(xù)涌現(xiàn)的各類用例曾經(jīng)停止了許多報導(dǎo)。坦白地說,其最主要的用例能夠在于保證人類生計。
