本文編譯自the Guardian原題目為I'm a pacifist, so why don't I support the Campaign to Stop Killer Robots的文章。
制止殺傷性機械人活動呼吁結合國制止研發和應用主動兵器:無人監控下辨認,追蹤和進擊目的的主動兵器。該活動組織者與一些有名AI研討員配合制造了一個驚動的視頻,并于周一宣布。 視頻向我們展示了普遍應用主動兵器所帶來的反烏托邦式的將來。
我很愉快看到我的同事正在盡力確保AI技巧運用于無益于人類社會的范疇。 然則,我深入疑惑這類止于情勢的活動能否有用。 雖然我以為本身是相對的戰爭主義者,但我關于簽訂這項禁令持保存立場。而我信任持保存立場的也絕非我一人。
起首,擁戴這項禁令的國度都沒法肯定應當制止主動化照樣AI。是以,這項禁令又若何可以或許阻攔否決它的國度應用主動兵器。關于慣例兵器和核兵器的禁令是有用的,這是因為自然的進入壁壘:制作這些兵器所需的原資料和裝備很難取得,擔任任的國度可以經由過程法則和制裁掌握這些兵器。比擬之下,有些人能夠會說AI的應用曾經相當普遍,并且它照樣主動兵器的焦點技巧。 是以,想經由過程法則和禁令掌握這類兵器難上加難 - 例如收集戰斗。
想一想視頻中描寫的“殺手無人機”與the Guardian上呼吁禁令的文章。即便在明天,任何互聯網拜訪者都可以重建無人機所需的人臉辨認技巧:一些最早進的“預練習收集”都邑成為地下資本。 跟著技巧的進一步成長,工作將變得加倍輕易。
AI的進入壁壘很低。是以即便結合國和一些國度贊成這項禁令,也沒法阻攔其他否決這項禁令的國度推銷和安排AI技巧。 終究,最好的成果是禁令獲得成功,但禁令的擁戴者會支付沉重的價值。而最壞的情形是禁令約束了“大好人”的四肢舉動,“壞人”卻依然肆意妄為。
作為一位AI研討人員,我異常惡感應用反烏托邦來襯著這整件事,就像the Guardian報導的這個視頻。 這些視頻讓人覺得不安。在我看來, 應用“雛菊女孩”式的活動宣揚來激起人們對AI技巧的恐怖,更像是為了撲滅年夜眾的情感,而不是激發年夜眾的思慮。
鑒于對禁令有用性的擔心,AI研討人員應當尋覓更積極的技巧處理計劃,以削減潛伏的AI技巧濫用。 例如,我們于2017年3月初在亞利桑那州立年夜學舉行了一個研究會,主題為“AI帶來的挑釁:瞻望將來,清除隱患”。 很多知名的迷信家,技巧專家和倫理學家加入了此次研究會,其目標就是評論辯論若何避免AI技巧的濫用(包含致命主動兵器)。
今朝,研究會的主題之一就是應用AI技巧防備AI的歹意應用。 這能夠包含所謂的“AI保衛體系”,它可以監測AI而且做出進攻回應。 即便這類體系不克不及完整遏制AI的濫用,至多可以反應這些成績。
重申一下,我以為本身是戰爭主義者,一向反戰和支撐軍控。 假如這項禁令不只止于情勢,并且異常有用;不只撲滅了年夜眾的情感,還激發了年夜眾的思慮,我將舉雙手贊同。
免責聲明:為了充足表露,請許可我聲明我的一些基本研討(關于人類認知的AI)由美國國防部贊助機構(如水師研討辦公室)贊助。 然則,我在文中不雅點是客不雅的,與贊助方有關。美國的國防贊助機構贊助了年夜量基本研討,包含介入禁令活動的研討人員。