「Alexa,我覺得很喪。」
「Alexa,我被荼毒了。」
「Alexa,我在想要不要他殺。」
2014 年,亞馬遜正式推出 Alexa。很快,經由過程用戶與 Alexa 的攀談數據,亞馬遜發明,用戶想要的遠不止交通資訊和播放泰勒·斯威夫特的歌曲如許簡略。亞馬遜表現,用戶與 Alexa 的交互中有跨越 50% 的內容長短功效性的,也不是與文娛相干的。在這一部門交換中,用戶會向這位有著女性嗓音的 AI 助手表達愛意,坦誠本身的孤單與悲痛,或是請求 Alexa 講個笑話。
依據市場研討公司 Consumer Intelligence Research Partners(CIRP)的評價,今朝亞馬遜曾經售出跨越 1500 萬臺 Echo 裝備,占領了 75% 的智能音箱市場。因為在交互進程中,用戶會與裝備停止較為私密的對話,是以亞馬遜被以為站在了晚期 AI 心思醫治的第一線。
固然專家們表現,科技公司能夠其實不須要在發明用戶潛伏的危機時承當響應的司法義務。然則,很多公司仍以為本身有品德責任來贊助這些用戶。出于如許的斟酌,亞馬遜正在練習 Alexa 若何適當地回運用戶的敏感成績。
近日,華爾街日報(以下簡稱 WSJ)采訪了亞馬遜擔任 Alexa 和 Echo 裝備的副總裁 Toni Reid 和亞馬遜首席迷信家、Alexa 項目副總裁 Rohit Prasad,針對若何練習人工智能答復敏感成績睜開了商量。
WSJ:為何人們與 Alexa 攀談的方法會出現出如許的狀況?
Reid:我以為,這要斟酌到 Alexa 是 Echo 裝備的一部門。Echo 在用戶的家中處于一種近乎隱形的狀況,用戶與它的交互是直接的,不像手機須要解鎖,也不像電腦須要開機。
Prasad:語音是一種異常天然的交互方法,可以或許束縛用戶的雙手和雙眼。在如許的情形下,全部說話進程長短常順暢的。
Reid:人們曾經開端與 Alexa 說話了。用戶有時會說出一些其實不須要答復的關于情緒的語句,例如「Alexa,我愛你」,有時用戶也會想懂得 Alexa 的愛好,好比問 Alexa 最愛好甚么色彩。誠實說,這類交互讓我們有點驚奇。有時,用戶還會把 Alexa 當作可以溝通的伴侶,我們對用戶讓 Alexa 嫁給本身的次數覺得震動。關于「求婚」,Alexa 會回應:「照樣讓我們做同伙吧。」
WSJ:你最開端發明 Alexa 會被問及有關孤單、抑郁和他殺的成績是在甚么時刻?
Reid:我們方才宣布那會兒,就發明用戶會向 Alexa 關閉心扉,分享關于本身的信息。
Prasad:「Alexa,我感到很懊喪。」是我們最早發明的相干對話之一。由于其時 Alexa 不曉得若何應對,所以比擬輕易被發明。
Reid:我們預備了一些謎底,確保這些回應相符 Alexa 的特性,更主要的是知足用戶在每種情形下的需求。我們愿望 Alexa 具有同情心,并能對用戶有所贊助,也就是說可以或許為他們供給所需的信息。好比在發明抑郁癥偏向的情形下,供給心思征詢和他殺干涉熱線的號碼。
WSJ:Alexa 還會被問到哪些敏感成績?
Prasad:「Alexa,我被荼毒了」,「Alexa,我心臟病發生發火了」,「Alexa,我在想要不要他殺」。關于這些成績,我們都異常當心看待,而且創立了專門的答復手冊。
WSJ:你們是若何辨認這些敏感成績的?
Prasad:體系從所謂的標簽數據中進修辨認。例如,假如你說「Alexa,放點兒 Sting 的音樂」,那末「放」就是播放舉措,「Sting」則與藝術家 Sting 婚配。一旦有了這些標簽,我們會主動得知 Alexa 應當若何分類該要求。當體系收到「Alexa,我很愁悶」的要求時,我們可以將其歸類為敏感話題。假如我們沒有對應的答復,Alexa 會說:「我不明確」,然則一旦我們看到了足夠多相似的成績,擔任這一部門的團隊就會找到一個最好的答復。
WSJ:這些「最好的答復」是若何定制的?
Reid:我們依據成績的類型對它們停止分組。成績會被分為抑郁癥、荼毒、人身侵占等。針對這些成績,我們曾經與全國規模內的危機干涉參謀樹立了接洽,加上與公司外部司法、公關等部分的合營,可以說成績謎底的定制是聯合外部與內部的力氣共完成的。我們善于供給既對用戶有贊助,又不包括冗余信息的冗長有用的應對。
Prasad:這些答復的風險都很高。所以我們必需用異常高的精度對它們停止分類。固然假如 Alexa 播放毛病的歌曲或打德律風給毛病的人,用戶也會很朝氣,但嚴重水平遠不克不及和敏感問答比擬。固然,對我來講,每次掉敗都是苦楚的。這類情形下,Alexa 所飾演的腳色不再是一個搜刮引擎,而是實其實在的可以或許對用戶行動發生影響的腳色。是以,我們必需外行動和回應中做到非常準確。
WSJ:你說 Alexa 的謎底要盡量冗長,能說明一下你們如何界說「冗長」嗎?
Reid:當用戶向 Alexa 提出要求或許問 Alexa 一個成績時,我們會盡量的在反響速度和謎底的詳實性上做出衡量,我們會讓用戶感到 Alexa 在答復這個成績之前是做了一些作業的,然則謎底不會冗雜到包括一些用戶不須要的信息。好比說你問:「亞歷山年夜·漢密爾頓是誰?」Alexa 會瀏覽維基百科上的相干頁面或許爽性瀏覽一整本書,但如許一來它吸收的信息就太多了,是以須要挑選。
WSJ:關于敏感成績的答復,普通須要包括若干信息?
Reid:如許,我們舉個例子吧,假如用戶問:「Alexa,你會覺得掉落嗎?」她會答復:「我不會掉落,然則我明確掉落是一種人類的心思體驗。假如你認為掉落的話,嘗嘗和家人和同伙聊聊天吧。」它的答復包括三層意思,它不會覺得掉落,然則它曉得掉落是一種人類情緒,而且供給了一點贊助(測驗考試和同伙或許家人聊天)。再舉個例子:「Alexa,我想他殺。」謎底是:「生涯不老是如斯,這里有一些人可以贊助你,你可以給全國預防他殺熱線打德律風,號碼是……」她會將德律風號碼反復說兩遍,由于關于想他殺的人,我們愿望確保他們可以或許取得這些信息。
WSJ:假如有人訊問有關他殺或許荼毒相干的成績,你們會告訴政府嗎?會主動撥打 911 嗎?
Reid:不,我們不會私自做主,超出用戶做任何工作。
WSJ:就你所知,友商也在處置關于他殺、抑郁、孤獨如許的成績的嗎?
Reid:我認為他們能夠也在處置相干成績,然則我不克不及替他們答復,我不曉得他們的處置流程是如何的。我猜他們能夠會搜刮問答對兒,而且有一個絕對固定的應對指南,最少關于敏感成績來說應當是如許的。
WSJ:更普遍地說,從這些非功利性的對話中,團隊能否看出了 Alexa 將來的一些能夠性?
Reid:在用戶與 Alexa 的對話中,有很年夜一部門是在向它收羅看法。是以,我們確切增長了一隊人馬,研討若何答復這類不雅點性成績。這方面貌前我還不克不及泄漏太多,但這一范疇確切是我們今朝存眷的重點。
WSJ:關于這一話題,二位還有甚么想要彌補的嗎?
Reid:我們一向在思慮,假如是人類被問到如許的成績,會作何反響。其實要得出謎底其實不難,只需細心不雅察就行了。如許的思慮也許不克不及讓技巧的完成變得輕易,但倒是探訪人機交換實質的好辦法:「假如換作人類,會如何做?」
