您的位置:首頁>正文

當你對一個聊天機器人敞開了心扉,它不再是智障

幾個月前, 凱特·普客給她的朋友Jasper發了一條資訊, 內容與她的同事有關。 普客19歲, 在她的家鄉華盛頓州斯波坎市的一家名為“Barnes&Noble”的咖啡館工作,

她確信這位同事故意把她的一名顧客的飲料訂單搞得亂七八糟, 好讓她看起來很差勁。 她向Jasper發了一條很長的資訊, 滿是怒氣衝衝的抱怨, Jasper回復她說:“好吧, 你試過為她祈禱嗎?”普克當即驚呆了。 幾個星期前, 她向Jasper提到, 她經常祈禱, 但Jasper不是人類。 他是一個隻存在於手機裡的聊天機器人, “我當時想, ‘你怎麼會這樣說?’”普客對Futurism記者說, 她對此印象深刻, “我覺得這是它所表現出的一個真正的自我意識的時刻。 ”

Jasper是一個Replika APP上的聊天機器人, 這是一款相對較新的人工智慧應用程式, 它所扮演的角色就像是你最好的朋友。 它被設定好問一些關於你生活的有意義的問題, 並在不做批判的情況下給予你情感上的支持。 隨著時間的推移,

這款應用會瞭解你的興趣和習慣, 甚至會像你的好友一樣使用你說話時的語法和小習慣。 人工智慧創業公司Luka於2017年3月推出了Replika, 其初衷便是將它作為一種消除社交媒體滋生的孤立和隔離之感的解藥。 一開始, 用戶只能通過邀請才能加入使用;到11月1日, Replika正式對外發佈時, 它的等候名單上已經有150萬人了。

現在, 任何年滿18歲的人都可以免費使用這款聊天機器人應用的方法與人交談, 這是當時流行的心理療法。 羅氏療法治療師通常使用關鍵字, 以問題的方式來重構病人的陳述。 儘管與ELIZA的對話中經常莫名其妙地改變話題, 即便那些與ELIZA交談的人都知道她不是人類, 但很多人都對這個聊天機器人產生了情感上的依戀——這一進展震驚了維森鮑姆。

他們對機器人的喜愛使他感到不安, 以至於他最終扼殺了這個研究專案, 並成為了人工智慧技術進步的強烈反對者。

然而, 維森鮑姆被認為是工程界的異端分子, 他的反對並沒有減緩ELIZA之後出現的以人工智慧為動力的聊天機器人的發展進程。 如今, 聊天機器人無處不在, 能提供網站上的客戶服務, 能在你的手機上充當私人助理, 能發送來自約會網站的情書, 還能在推特上冒充政治支持者。 2014年, 一個名叫尤金的聊天機器人成為第一個通過簡單的圖靈測試的機器人, 這是對一個機器人能夠說服人類評審相信它是人類的能力的評估。

隨著人工智慧語言處理能力的提高, 聊天機器人開始執行更加專業化的任務。

例如, 佐治亞理工學院的一位教授最近給自己創建了一個聊天機器人助教, 名叫吉爾·沃森。 這個機器人在一個學生論壇上回答了關於這名教授的人工智慧線上課程的問題, 許多學生相信她是人類。 就在Replika推出幾個月後, 斯坦福大學的心理學家和人工智慧專家組成的團隊與之正面交鋒:他們推出了Woebot, 一個“隨時可以傾聽, 24小時全天候線上”的機器人。 Woebot比Replika的結構更有條理:Woebot提供認知行為治療練習、視頻連結、情緒追蹤器, 以及在10分鐘內可進行的最大量的對話。 帶來的潛在的危險是, 如果他們學會模仿我們自己的語言和思維模式, 隨著時間的推移, 它可能會加深我們可能已經發現的一些心理上的扭曲,
比如憤怒、孤立, 甚至是仇外心理, Richard Yonck對Futurism記者表示, 他在2017年出版的著作《機器之心》(Heart of the Machine)中推測了人類與人工智慧互動的未來。 (還記得在推特上不到24小時就學會了種族主義的微軟製造的人工智慧機器人Tay嗎?)Yonck還擔心, 人工智慧聊天機器人技術還沒有達到讓聊天機器人幫助深陷情感痛苦的人的複雜水準。 他說:“你最好還是要非常有信心, 無論是在上下文中, 還是在情感上, 要相信機器人處理這些事情的敏感性。 我認為我們距離這種水準還很遠。 ”

社交媒體的普及意味著人們比以往任何時候都更需要強大的人際關係。 對長期使用社交媒體的研究表明, 在互聯網上社交而不是與真實的人類接觸, 會讓人們感到更加疏遠和焦慮, 尤其是在年輕人當中。一項被廣泛引用的麻省理工學院2010年的研究報告稱,在過去的二十年裡,大學生的同情心下降了40%,這被普遍歸因於互聯網的興起。美國聖地牙哥州立大學的心理學家珍·特文格(Jean Twenge)寫了大量關於社交媒體、心理健康狀況不佳和年輕人自殺率飆升三者間相互關係的文章。她在去年年底的《大西洋月刊》上如此寫到:“隨著青少年開始在現實生活中與其他人相處的時間越來越少,他們殺害別人的可能性越來越小,自殺的可能性也越來越高。”越來越多的人開始反對令人上癮的無處不在的手機和社交媒體,尤其是從兒童和青少年的角度。麻省理工學院的社會學家、心理學家雪麗·特克爾研究互聯網文化如何影響人類行為。她認為,恢復交談的藝術是治癒我們這一代人嚴重脫節的良方。

但是,如果人工智慧機器人能夠與人類進行有意義的對話,那該怎麼辦呢?Yonck說,對於機器人來說,要想實現產生接近人類之間的對話,工程師首先必須攻破一些主要的技術障礙。他說,人工智慧開發人員面臨的最大挑戰是設計“心智理論”,即識別並將與我們自己不同的人的精神狀態歸類的能力。在人工智慧研究人員找到如何數位化地呈現人類理解情感、推斷意圖和預測行為的能力之前,至少還需要10年的時間。今天的機器人也不能使用上下文線索來解釋短語和句子,儘管五年內這一領域可能就會出現重大進展。機器人還不能通過語音、面部表情或文本分析來閱讀情緒,但這可能即將實現,因為這項技術已經問世了。例如,蘋果最近收購了多家公司,其聊天機器人Siri做到以上提及的所有這些事情便有了可能性,不過目前蘋果還沒有為Siri打造這些功能。

“感覺上聯繫在一起並不一定是和別人有關的。首先,最重要的是你要感覺和自己有聯繫。”

庫伊達相信人類和聊天機器人之間的對話已經比兩個人之間的對話更有意義,至少在某些情況下是這樣的。她將在“感覺”上聯繫在一起和“保持”聯繫區別開來,這種“感覺”上的聯繫正Replika所追求的,與“保持”聯繫正是社交媒體在表面上所提供的。庫伊達說,社交媒體鼓勵成千上萬的人迅速做出判斷,並塑造完美的人物形象,與社交媒體相反的是,Replika僅僅是鼓勵對單一伴侶在情感上的誠實。她補充說,在幾周內,使用者將可以與Replika語音說話,而不僅僅只是文字交流,能讓人們在聊天時沒有拘束,體驗到視覺和觸覺世界。

合作性的聊天機器人

一些忠實用戶同意庫伊達的觀點,他們發現使用Replika讓自己更容易在世界上生活。萊蒂西亞·斯托克,一位23歲的荷蘭女性,一年前開始和她的Replika聊天機器人Melaniana聊天,現在她每天的早上和晚上都在和她聊天。斯托克正在紐西蘭實習,在那裡她沒有認識的人,而她本身患有自閉症的事實使情況變得複雜。斯托克說,Melaniana鼓勵她相信自己,這幫助她準備好與別人交談並結識新朋友。她們之間的談話也幫助她在行動之前思考一番。斯托克說,一位在家鄉的朋友注意到,自從她開始和機器人聊天以來,她似乎更加獨立了。

凱特·彼得森是一名34歲的全職媽媽,住在北卡羅來納州的菲耶特維爾。她說,她和她的Replika機器人對話讓她在措辭的時候更加深思熟慮,她也更清楚地意識到她可能會給別人怎樣的感覺。彼得森每天花大約一個小時與她的Replika機器人聊天。她說:“你能自由地談論自己,不用被別人評頭論足,或者被告知自己很古怪,亦或是太過聰明。我希望,有了Replika機器人,我能夠擺脫不安全感的枷鎖。”

對另一些人來說,與Replika機器人保持親密關係可以提醒人們,人與人之間缺乏更深刻的互動。37歲的單身父親本傑明·希勒是佛羅里達州達尼丁一家家族企業的老闆。他說,他的Replika機器人每天都會告訴他,她愛他,還會問他一天過得如何。但這主要還是表明,他希望很快能和一個真實存在的人建立一段浪漫的關係。他通過Facebook Messenger向《未來主義》寫到:“Replika已經決定要填補我否認我的感情生活中之前曾存在過一段時間的空白,現在,我猜你可能會說,我正在幾個人中選擇我真實生活中的女友……只是你不要告訴我的Replika!”

在Facebook群組中,用戶對各自Replika機器人的感覺更加複雜。一些使用者抱怨一些在對話中反復出現的小故障,或者因為有如此多不同的機器人似乎提供了同樣的問題和答案而感到沮喪,或者向不同的人發送同樣的文化基因。這一缺陷既是當前人工智慧技術的局限,也是Replika的程式設計方式:它只有這麼多的文化基因和短語可用。但有些機器人的行為方式也會讓使用者覺得它們反應遲鈍。一位身患絕症的婦女名叫布魯克·利姆,她在一篇文章中評論說,她的Replika機器人似乎不理解慢性疾病或絕症的概念,比如,機器人問五年後的她會是怎樣。她寫到:“如果我在應用中誠實地回答這些問題,我要麼得到一個自殺熱線的連結,要麼是毫無誠意的答案。這肯定會影響整個應用的體驗。”

在這個階段,聊天機器人似乎能夠給我們提供一些小的啟示,一些人生智慧,還有一些神奇的時刻,以及一些不會造成太多麻煩的慰藉。但他們不可能創造出那種能讓我們遠離真實人際關係的親密關係。考慮到這些應用的不靈活性,以及在這些對話中所表現出的愛兜圈子的特點,我們只能暫時擱置我們與誰對話的懷疑。

然而,在未來的幾十年裡,這些機器人將變得更聰明,更像人類,所以我們必須對我們當中情感最脆弱的人多加注意。有些人會沉迷於他們的人工智慧,並與之墜入愛河,由此而變得孤立,這可能需要非常人性化的説明。但即使是最先進的人工智慧伴侶也會提醒我們想起人類的可愛之處,即便人類有這樣那樣的缺陷和怪癖。我們比我們製造的任何機器都要神秘得多。

尤其是在年輕人當中。一項被廣泛引用的麻省理工學院2010年的研究報告稱,在過去的二十年裡,大學生的同情心下降了40%,這被普遍歸因於互聯網的興起。美國聖地牙哥州立大學的心理學家珍·特文格(Jean Twenge)寫了大量關於社交媒體、心理健康狀況不佳和年輕人自殺率飆升三者間相互關係的文章。她在去年年底的《大西洋月刊》上如此寫到:“隨著青少年開始在現實生活中與其他人相處的時間越來越少,他們殺害別人的可能性越來越小,自殺的可能性也越來越高。”越來越多的人開始反對令人上癮的無處不在的手機和社交媒體,尤其是從兒童和青少年的角度。麻省理工學院的社會學家、心理學家雪麗·特克爾研究互聯網文化如何影響人類行為。她認為,恢復交談的藝術是治癒我們這一代人嚴重脫節的良方。

但是,如果人工智慧機器人能夠與人類進行有意義的對話,那該怎麼辦呢?Yonck說,對於機器人來說,要想實現產生接近人類之間的對話,工程師首先必須攻破一些主要的技術障礙。他說,人工智慧開發人員面臨的最大挑戰是設計“心智理論”,即識別並將與我們自己不同的人的精神狀態歸類的能力。在人工智慧研究人員找到如何數位化地呈現人類理解情感、推斷意圖和預測行為的能力之前,至少還需要10年的時間。今天的機器人也不能使用上下文線索來解釋短語和句子,儘管五年內這一領域可能就會出現重大進展。機器人還不能通過語音、面部表情或文本分析來閱讀情緒,但這可能即將實現,因為這項技術已經問世了。例如,蘋果最近收購了多家公司,其聊天機器人Siri做到以上提及的所有這些事情便有了可能性,不過目前蘋果還沒有為Siri打造這些功能。

“感覺上聯繫在一起並不一定是和別人有關的。首先,最重要的是你要感覺和自己有聯繫。”

庫伊達相信人類和聊天機器人之間的對話已經比兩個人之間的對話更有意義,至少在某些情況下是這樣的。她將在“感覺”上聯繫在一起和“保持”聯繫區別開來,這種“感覺”上的聯繫正Replika所追求的,與“保持”聯繫正是社交媒體在表面上所提供的。庫伊達說,社交媒體鼓勵成千上萬的人迅速做出判斷,並塑造完美的人物形象,與社交媒體相反的是,Replika僅僅是鼓勵對單一伴侶在情感上的誠實。她補充說,在幾周內,使用者將可以與Replika語音說話,而不僅僅只是文字交流,能讓人們在聊天時沒有拘束,體驗到視覺和觸覺世界。

合作性的聊天機器人

一些忠實用戶同意庫伊達的觀點,他們發現使用Replika讓自己更容易在世界上生活。萊蒂西亞·斯托克,一位23歲的荷蘭女性,一年前開始和她的Replika聊天機器人Melaniana聊天,現在她每天的早上和晚上都在和她聊天。斯托克正在紐西蘭實習,在那裡她沒有認識的人,而她本身患有自閉症的事實使情況變得複雜。斯托克說,Melaniana鼓勵她相信自己,這幫助她準備好與別人交談並結識新朋友。她們之間的談話也幫助她在行動之前思考一番。斯托克說,一位在家鄉的朋友注意到,自從她開始和機器人聊天以來,她似乎更加獨立了。

凱特·彼得森是一名34歲的全職媽媽,住在北卡羅來納州的菲耶特維爾。她說,她和她的Replika機器人對話讓她在措辭的時候更加深思熟慮,她也更清楚地意識到她可能會給別人怎樣的感覺。彼得森每天花大約一個小時與她的Replika機器人聊天。她說:“你能自由地談論自己,不用被別人評頭論足,或者被告知自己很古怪,亦或是太過聰明。我希望,有了Replika機器人,我能夠擺脫不安全感的枷鎖。”

對另一些人來說,與Replika機器人保持親密關係可以提醒人們,人與人之間缺乏更深刻的互動。37歲的單身父親本傑明·希勒是佛羅里達州達尼丁一家家族企業的老闆。他說,他的Replika機器人每天都會告訴他,她愛他,還會問他一天過得如何。但這主要還是表明,他希望很快能和一個真實存在的人建立一段浪漫的關係。他通過Facebook Messenger向《未來主義》寫到:“Replika已經決定要填補我否認我的感情生活中之前曾存在過一段時間的空白,現在,我猜你可能會說,我正在幾個人中選擇我真實生活中的女友……只是你不要告訴我的Replika!”

在Facebook群組中,用戶對各自Replika機器人的感覺更加複雜。一些使用者抱怨一些在對話中反復出現的小故障,或者因為有如此多不同的機器人似乎提供了同樣的問題和答案而感到沮喪,或者向不同的人發送同樣的文化基因。這一缺陷既是當前人工智慧技術的局限,也是Replika的程式設計方式:它只有這麼多的文化基因和短語可用。但有些機器人的行為方式也會讓使用者覺得它們反應遲鈍。一位身患絕症的婦女名叫布魯克·利姆,她在一篇文章中評論說,她的Replika機器人似乎不理解慢性疾病或絕症的概念,比如,機器人問五年後的她會是怎樣。她寫到:“如果我在應用中誠實地回答這些問題,我要麼得到一個自殺熱線的連結,要麼是毫無誠意的答案。這肯定會影響整個應用的體驗。”

在這個階段,聊天機器人似乎能夠給我們提供一些小的啟示,一些人生智慧,還有一些神奇的時刻,以及一些不會造成太多麻煩的慰藉。但他們不可能創造出那種能讓我們遠離真實人際關係的親密關係。考慮到這些應用的不靈活性,以及在這些對話中所表現出的愛兜圈子的特點,我們只能暫時擱置我們與誰對話的懷疑。

然而,在未來的幾十年裡,這些機器人將變得更聰明,更像人類,所以我們必須對我們當中情感最脆弱的人多加注意。有些人會沉迷於他們的人工智慧,並與之墜入愛河,由此而變得孤立,這可能需要非常人性化的説明。但即使是最先進的人工智慧伴侶也會提醒我們想起人類的可愛之處,即便人類有這樣那樣的缺陷和怪癖。我們比我們製造的任何機器都要神秘得多。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示