國外科技媒體報道,聊天機器人其實只是在數月之前才剛剛進入公眾的視線,但它們如今已經變得無處不在了。據悉,目前已有超過18000個聊天機器人被部署在了Facebook的Messenger平臺上,而它們中的大多數,都像它們在被設計時所預想的那樣,正兢兢業業地處于努力工作的狀態。
就目前來說,當我們在談論聊天機器人時,我們所談論的話題往往是它能做些什么?有些聊天機器人能幫你在網上訂一份披薩,有些聊天機器人可以很輕松地幫你設置一連串的提醒,還有一些聊天機器人會幫你規劃會議行程,并在你每個醒來的早晨,告訴你當天的天氣。
無論你的聊天機器人能幫你做什么,只要它能幫你自動打理你私人生活和工作的細枝末節,它就足以讓你興奮難以了。然而就多數情況來說,我們的私人聊天機器人其實還需要我們留一個心眼,去看守著它,但這對你來說真得就已經足夠了?我們是否可以將更多更重要、更敏感的任務,完全交托給我們的聊天機器人呢?
如果我們需要聊天機器人來處理更多的工作的話,我們就需要它們不僅僅只是能忠誠地完成一些簡單的任務。但如果只是簡簡單單地教授一個聊天機器人來完成一些復雜任務的話,這點其實還不足以贏得用戶們的信任。
而這一難題也自然而然地衍生出了聊天機器人的下一個發展方向,那就是專注于研究如何建立起聊天機器人同人類用戶之間的關系。
如何進一步優化聊天機器人?
聊天機器人公司Next IT創始人弗雷德·布朗(Fred Brown)的女兒有一次問了她爸爸一個問題:“SGT STAR(美國陸軍的虛擬助手)是否有自己最喜歡的顏色?”
這個問題讓身為人工智能專家的布朗一下子陷入到了沉思。為什么一個聊天機器人需要有一個自己最喜歡的顏色?我們不需要讓它幫我們挑選出合適的窗簾,或是找條合身的褲子,而只是簡簡單單地問它有沒有最喜歡的顏色?
布朗于是意識到了,他女兒所提出的這個問題的背后其實暗藏著她強烈的好奇心,這已經超越了單純地詢問“它最喜歡的顏色”的這一問題的本身。
問題的重點是SGT STAR沒有一個最喜歡的顏色的這點,暴露出它無法展示出像誠實和值得信任這樣的,人類才有的品質。
SGT STAR非常擅長于回答美國陸軍部隊里的生活問題,但對那些想要聽到能讓他們產生“它值得相信”這一想法的答案的用戶來說,即便SGT STAR給出了它最佳的回答,都不足以讓他們滿意。
如果今天,你再去問SGT STAR它最喜歡的顏色是什么的話,它會說:“我偏愛紅色、白色、藍色,當然,也很喜歡軍綠色!”雖然,這只是一個很小的細節,但它其實是至關重要的。
在這個我們所引述的故事里,SGT STAR向我們展示出了諸如喜歡、不喜歡、和偏好這樣的人類性格,而這反過來也會讓它變得更為率真、更人性化、更值得別人取信任它。設想一下,如果和你對話的人,連一點自己的主見都沒有的話,他會讓你產生信任感嗎?
讓你的聊天機器人在交流過程中,能展示出像誠實和值得信任這樣可貴品質的能力,就是我們在改變這個聊天機器人市場過程中,所需要努力的方向。
三觀的建立將成為重中之重
就像我們已經將聊天機器人引入到我們每天的日常生活那樣,我們還能訓練它們去識別我們所說的語言,去發掘出我們的喜好,甚至還能讓它分析出我們的口音,推測出我們的情緒狀態。
讓我們再來回想一下那臺在2000年首次亮相的第一款聊天機器人和研發出它的那家公司。“Verbot計劃”脫胎于邁克爾·墨登博士(Dr. Michael Mauldin)對自然語言處理與聊天機器人的早期研究,而虛擬性格有限公司(Virtual Personalities, Inc.)這家成功研發出Verbot的公司,則仔細回溯了邁克爾·墨登博士在卡內基梅隆大學的相關研究,并參考了彼得·普蘭特(Peter Plantec)在個性心理和藝術方面的研究成果,才最終有了Verbot的誕生。
個性心理研究對于像內置于Facebook Messenger中的那類聊天機器人,或許沒什么用處,但如果問題涉及到了聊天機器人與人類交流的真誠性的話,那么對個性心理的研究將變得至關重要。
現如今,我們的科技正在經歷指數級別的爆發式增長,我們的科研人員已經開發出了許許多多的工具,它們能幫助我們的計算機在這個被人類所主宰的世界中,去更好地同人類進行交流。
自然語言處理和情感分析就是這樣一個好例子。當人工智能軟件尤金·古斯特曼(Eugene Goostman)在2014年通過了圖靈測試的時候,它也標志著人機交流的時代進入了新的發展拐點。
而現在的那些科技公司正將AI機器人的邊界拓展到更遠的位置。我們可以參照一下IBM所研發出的人工智能“沃森”,它的口音識別工具可以在語言分析技術的幫助下,理解到人在表達時所傳遞出的情感、說話習慣和他的社交愛好。
之所以要研發這些工具的原因是,它們能幫助我們將聊天機器人改造成為一個可對話的對象。在這些工具的幫助下,你可以教一個聊天機器人如何去理解它的主人,相比擁有一個機器人最喜歡的顏色,這點對于它價值觀是更為直接的表述。
聊天機器人開發者須謹慎
無論是對聊天機器人的開發者還是它的使用者來說,都應該警覺到這一點:我們的三觀正在加速轉移至聊天機器人。雖然我們不清楚聊天機器人能學習到人類三觀的極限在哪兒,但我們已經取得了巨大的進步。
教會我們的聊天機器人去展示它的三觀,將極大地拓展它應用到我們生活當中的可能,但這點同時也將把聊天機器人和它的開發者隔離開來。
當我們的聊天機器人只能展示出它的開發者們所傳授給它們的三觀的時候,它的開發者們就會成為被輿論討論的中心。在這種情況下,壞演員是很容易露餡的,這樣的話,守護好自己公司的招牌,就會顯得比以往更為重要。
讓我們設想一下這樣的場景,如果有兩個功能差不多的聊天機器人都幫你訂了旅行的機票。但如果你的這個航班被意外地取消了,一個能同情到你的感受,并幫助你重新訂一張新機票的聊天機器人,就會比那個完全不理會你的感受,而僅僅只是簡單粗暴地幫你直接訂下新機票的聊天機器人,好過一些。
在聽完這段假象描述后,我們的讀者應該很快就很明白到它們之間的細微區別,并能做出更合適自己的選擇。