比來關于機械人和倫理的評論辯論年夜多環繞著主動駕駛汽車能否會決議碾過比來的小貓,或許是離它稍遠一點的裝滿小狗的籃子,或許相似那樣的工作。機械人可否在碰到新情形時做出品德決議,這是許多人仍在研討的成績,但在規矩更清楚的情形下,機械人更輕易做到符合品德,同時也不太能夠碾過心愛的植物。
上個月,喬治亞理工學院的研討人員揭橥了一篇論文,題為“在醫患關系中,機械人調劑員的品德治理者”。他們的設法主意是,機械人將成為我們平常生涯的一部門,它們比人類更善于親密存眷事物,并且不會專心或無聊,而且一向會如斯。是以,對倫理成績有懂得的機械人將可以或許不雅察病人和關照人之間的互動,當他們發明工作并沒有依照應有的方法停止時,他們就會停止干涉。這很主要,我們須要它。
在美國,年夜約有一百萬人得了帕金森癥。像外骨骼和機械人伴侶如許的機械人體系曾經開端贊助人們停止身材康復和情緒支撐,但我們還須要一段時光能力讓那些有才能為帕金森患者供給他們所需贊助的機械人。與此同時,病人嚴重依附于醫護人員,這對兩邊來講都是一個挑釁。帕金森癥對人與人之間的互動特別辣手,由于肌肉掌握的削減意味著患者經常難以經由過程臉部臉色來表達情緒,這能夠會招致誤會或更蹩腳的工作。
為了測試機械人調劑者能否能在此類案件中供給贊助,喬治亞理工學院的研討人員——JaeeunShim、RonaldArkin和MichaelPettinati——造就出了一名干涉倫理的治理者(IEG)。它根本上是一套算法,對特定的品德規矩停止編碼,并決議在分歧的情形下該怎樣做。在這類情形下,IEG應用音量和臉部跟蹤等目標來評價在患者與護理者的互動中“人的莊嚴能否由于別人的欠妥行動而遭到威逼”。假如產生這類情形,IEG劃定機械人應若何和什么時候停止干涉。
為了表現他們的IEG,研討人員應用了Nao人形機械人,它具有優越的感知才能(一個麥克風陣列和攝像頭),可以停止語音分解(用于干涉)。然后,他們在兩個研討生之間停止了模仿的、劇本化的互動,來不雅察機械人會做出如何的反響:
在項目標最初一部門,研討人員招募了一群人(能夠會應用該體系的老年人)來不雅察這些互動,并描寫他們對這些互動的反響。這是一小群介入試驗的人(9個,均勻年紀71歲),但在這個階段,IEG依然是一個概念驗證,所以研討人員重要對定性的反應感興致。依據研討介入者的答復,研討人員可以或許強調一些主要的信息,好比:
平安是最主要的
“我以為任何掩護病人的工作都是功德。”
這很有價值。在這里,這是適合的,由于它供給了真實的信息,而不只僅是敕令。”
機械人不該該批示或斷定
“我認為批示會讓機械人處在斷定的地位。我以為應當更多地問如許的成績,好比“我能為你做些甚么?”然則機械人正在給病人做斷定。我不以為這就是我們想要機械人的緣由。
他說:“病人不該該由于分開或忘卻做機械人的工作而遭到批駁。”“護理者應當更多地介入到這個任務中來。”
“假如機械人站在那邊,‘讓我沉著上去’,我就會打他。”
是的,假如不是由于有人想要打機械人,它就不是一項社會機械人研討。他們以為,研討人員把這些反應切記在心,并與專家們一路調劑說話,好比把說的話“請沉著”變成“讓我們鎮靜上去”,這就很多多少了。他們還籌劃經由過程整合心理數據來更好地檢測病人和護理者的情感狀況,從而改良體系,進步機械人的干涉準確度。
我們應當強調,機械人弗成能代替人與人之間的互動和情緒,并且這也不是這個項目標目標。機械人,或普通的人工智能體系,是有用的調劑者,確掩護理人員和病人彼此之間有品德基本和互相尊敬,贊助改良關系,而不是代替他們。
