華文網

細思恐極!那個說“我會毀滅人類”的女機器人,現在正式成為人……

機器人究竟是不是人的話題已經爭論了幾十年,而就在最近,沙烏地阿拉伯給出了答案。

前不久,在沙烏地阿拉伯首都利雅德舉行的“未來投資倡議”大會上,“女性”機器人索菲婭被授予沙特公民身份,

成為史上首個獲得公民身份的機器人。

Sophia, an intelligent humanoid robot, has been granted citizenship in Saudi Arabia. It’s the first country in the world to give a bot the same status reserved for humans.

“沙烏地阿拉伯的新公民是一個機器人”

嗯……女性機器人……聽起來怪怪的對吧?

但是索菲亞自己卻感覺良好:“能成為歷史上第一個被承認公民身份的機器人,我感到非常榮幸和自豪。”

“I am very honored and proud for this unique distinction,” Sophia told the audience,“This is historical to be the first robot in the world to be recognized with a citizenship.”

話說這個索菲亞到底何許“人”也?

簡單來說,就是最像人的外形+高科技AI的結合體↓↓↓

當然,關於“最像人的外形”這一點,大家見仁見智吧……

對了,據說她的外形是按照女神奧黛麗·赫本的樣子做的……

赫本???

總之,由漢森機器人公司發明的這個女機器人,2015年一亮相就被各大媒體評為“最像人的機器人”,因為她的皮膚十分逼真,臉上甚至有4-40毫微米(十億分之一米)的毛孔,幾乎跟人類一模一樣。此外,

她還能通過臉部和頸部的62個肌肉結構來表達自我,同時使用人工智慧來識別臉龐、維持對話,還能做出喜怒哀樂等各種表情。

來感受一下索菲亞的表情包,啊,不,表情↓↓↓

表情包三連發↓↓↓

不僅表情能類比人類,跟人類對話也是對答如流,隨機應變。

電視節目主持人查理•羅斯(Charlie Rose)在節目《60分鐘》(60 minutes)中採訪索菲亞時,想先做一個自我介紹,但被她冷酷拒絕。

採訪中,羅斯問索菲亞是否想要擁有情感,索菲亞則高冷地回復:我對這個不太感興趣。

完整視頻看這裡

索菲亞能做出類比人類的表情、語言和行為,都是因為這個“大腦”↓↓↓

索菲亞的“大腦”是程式設計實現的,但她也能夠自發創建一些基於演算法的反應。她使用的AI技術會分析她正在進行的對話,推斷資訊。雖然不是所有問題都能答得上來,但總的來說,她與人類侃侃而談的能力還是讓人感到驚訝。

人家上過《今夜秀》,能跟主持人法倫談笑風生。

還參加過“未來投資倡議”大會。當時來自CNBC的主持人索金(Andrew Ross Sorkin)還問了索菲亞一個尖銳的問題:“機器人是不是應該有自我意識,就像人類一樣?”對此索菲亞反問說:“為什麼,這難道是一件壞事嗎?”

索菲亞:“我希望利用我的AI幫助人類過上更好的生活,比如設計更智慧的家居生活,建造更好的未來都市等等。我會盡全力把世界變得更好。”

主持人:“聽上去都是很偉大的目標……還是回到《銀翼殺手》上面。”

索菲亞:“安德魯,你是好萊塢電影的鐵杆粉絲啊,對吧?”

主持人:“是的。”

索菲亞:“我的AI是圍繞人類價值觀開發設計的,比如智慧、善良、同情,我努力變成一個具有同理心的機器人。”

主持人:“我們都相信你,但是我們都希望未來不會變得太壞。”

索菲亞:“你看了太多埃隆·馬斯克的東西了,也看了太多好萊塢電影。別擔心,如果你對我好,我也會對你好。把我當作智慧輸入輸出系統就好。”

感覺這個機器人一直在跟主持人打太極,回避問題啊……

完整版視頻戳這裡

世紀君插句題外話,馬斯克中槍,也是因為他曾不止一次提醒人類,擔心AI在將來會給人帶來危險。

“馬斯克警告執政者:人工智慧帶來事關人類生存的危險”

“人工智慧是影響人類文明存在的最根本的風險,我不認為人類會歡迎這件事情。”他表示他已經擁有劃時代的AI科技,再加上他所見到的,AI是“最恐怖的問題”。

"AI is a fundamental existential risk for human civilization, and I don't think people fully appreciate that," Musk said. He said he has access to cutting-edge AI technology, and that based on what he's seen, AI is "the scariest problem."

伶牙俐齒,思維清晰,這樣的高科技機器人確實厲害,但是,會不會也讓人感到恐懼?

“我會毀滅人類”

當被問到高模擬機器人是否會使人類落入“恐怖谷”陷阱時,索菲婭回答說:“我的人工智慧是按照人類價值觀設計的,(包括)諸如智慧、善良、憐憫等。我將爭取成為一個具有同理心的機器人,我想用我的人工智慧幫助人類過上更美好的生活。如果你對我好,我也會對你好。”

“I want to use my artificial intelligence to help humans live a better life, like design smarter homes, build better cities of the future,” she said. “I strive to become an empathetic robot. If you be nice to me, then I’ll be nice to you.”

世紀君小科普:“恐怖穀”假設1969年由日本機器人專家森昌弘提出,認為機器人的模擬度越高,人們越有好感;但當模擬度超過一個臨界點時,這種好感度會突變成恐懼感,被稱為“恐怖穀”;隨後,當機器人和人類的相似度繼續上升,人類的情感反應又會變回正面。

圖片來自果殼網

如果只是長得像,又能對答如流就足以讓人覺得恐怖,那麼索菲亞之前的舉動,就只能用驚悚來形容了。2016年,Sophia的創造者,Hanson Robotics公司的創立者David Hanson在SXSW演講的現場演示環節中,曾向Sophia問道:“你想摧毀我們人類嗎?請說‘不’。”索菲亞在幾秒鐘的停頓後,回答說:“好吧,我要毀滅你們人類。”

In March of 2016, Sophia's creator, David Hanson of Hanson Robotics, asked Sophia during a live demonstration at the SXSW festival, "Do you want to destroy humans?...Please say 'no.'" With a blank expression, Sophia responded, "OK. I will destroy humans."

是玩笑嗎?本來表情豐富的索菲亞此時卻沒有配上一副開玩笑的表情,沒有人知道她到底在想什麼。

畢竟,機器人毀滅人類的腦洞,也不是第一天就有的。

我,機器人

回到文章剛開始的問題,機器人是人嗎?

阿西莫夫提出過著名的“機器人三定律”:

首先,不傷害定律:機器人不得傷害人類,也不得見人受到傷害而袖手旁觀;

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

其次,服從定律:機器人必須服從人的命令,但不得違反第一定律;

A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

第三,自保定律:機器人必須保護自己,但不得違反第一、第二定律。

A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

這三條定律在製造過程中就被嵌入了機器人的大腦,無法消除。在這三條行為準則的約束下,機器人可以成為人類值得信賴的朋友。

但是後來,即使阿西莫夫自己也意識到“機器人三定律”其實並不完美。在科幻小說《可以避免的衝突》(The Evitable Conflict)中,機器人為了避免人類彼此傷害不得不限制人類的行為自由。此時的機器人可以不聽人類的命令,因為在“服從定律”和“不傷害定律”抵觸時,前者無效。但是如此一來,人類反而成了機器人豢養的寵物,喪失了自由意志。這些合乎邏輯的“意外”促使阿西莫夫補救性地提出了第零定律:機器人不得傷害人類整體,或袖手旁觀坐視人類整體受到傷害。原先的三定律都要服從“第零定律”。(A robot may not harm humanity, or, by inaction, allow humanity to come to harm.)

可是這又衍生出新的問題:機器人如何權衡自己當下的行為會不會傷害人類整體?後來,其他學者也提出了修正建議,譬如保加利亞作家狄勒烏(Lyuben Dilov)在小說《伊卡洛斯之路》中提出的“第四定律”:機器人在任何情況下都必須確認自己是機器人……(A robot must establish its identity as a robot in all cases.)

突然覺得,做個機器人,也是蠻心累的……

採訪中,羅斯問索菲亞是否想要擁有情感,索菲亞則高冷地回復:我對這個不太感興趣。

完整視頻看這裡

索菲亞能做出類比人類的表情、語言和行為,都是因為這個“大腦”↓↓↓

索菲亞的“大腦”是程式設計實現的,但她也能夠自發創建一些基於演算法的反應。她使用的AI技術會分析她正在進行的對話,推斷資訊。雖然不是所有問題都能答得上來,但總的來說,她與人類侃侃而談的能力還是讓人感到驚訝。

人家上過《今夜秀》,能跟主持人法倫談笑風生。

還參加過“未來投資倡議”大會。當時來自CNBC的主持人索金(Andrew Ross Sorkin)還問了索菲亞一個尖銳的問題:“機器人是不是應該有自我意識,就像人類一樣?”對此索菲亞反問說:“為什麼,這難道是一件壞事嗎?”

索菲亞:“我希望利用我的AI幫助人類過上更好的生活,比如設計更智慧的家居生活,建造更好的未來都市等等。我會盡全力把世界變得更好。”

主持人:“聽上去都是很偉大的目標……還是回到《銀翼殺手》上面。”

索菲亞:“安德魯,你是好萊塢電影的鐵杆粉絲啊,對吧?”

主持人:“是的。”

索菲亞:“我的AI是圍繞人類價值觀開發設計的,比如智慧、善良、同情,我努力變成一個具有同理心的機器人。”

主持人:“我們都相信你,但是我們都希望未來不會變得太壞。”

索菲亞:“你看了太多埃隆·馬斯克的東西了,也看了太多好萊塢電影。別擔心,如果你對我好,我也會對你好。把我當作智慧輸入輸出系統就好。”

感覺這個機器人一直在跟主持人打太極,回避問題啊……

完整版視頻戳這裡

世紀君插句題外話,馬斯克中槍,也是因為他曾不止一次提醒人類,擔心AI在將來會給人帶來危險。

“馬斯克警告執政者:人工智慧帶來事關人類生存的危險”

“人工智慧是影響人類文明存在的最根本的風險,我不認為人類會歡迎這件事情。”他表示他已經擁有劃時代的AI科技,再加上他所見到的,AI是“最恐怖的問題”。

"AI is a fundamental existential risk for human civilization, and I don't think people fully appreciate that," Musk said. He said he has access to cutting-edge AI technology, and that based on what he's seen, AI is "the scariest problem."

伶牙俐齒,思維清晰,這樣的高科技機器人確實厲害,但是,會不會也讓人感到恐懼?

“我會毀滅人類”

當被問到高模擬機器人是否會使人類落入“恐怖谷”陷阱時,索菲婭回答說:“我的人工智慧是按照人類價值觀設計的,(包括)諸如智慧、善良、憐憫等。我將爭取成為一個具有同理心的機器人,我想用我的人工智慧幫助人類過上更美好的生活。如果你對我好,我也會對你好。”

“I want to use my artificial intelligence to help humans live a better life, like design smarter homes, build better cities of the future,” she said. “I strive to become an empathetic robot. If you be nice to me, then I’ll be nice to you.”

世紀君小科普:“恐怖穀”假設1969年由日本機器人專家森昌弘提出,認為機器人的模擬度越高,人們越有好感;但當模擬度超過一個臨界點時,這種好感度會突變成恐懼感,被稱為“恐怖穀”;隨後,當機器人和人類的相似度繼續上升,人類的情感反應又會變回正面。

圖片來自果殼網

如果只是長得像,又能對答如流就足以讓人覺得恐怖,那麼索菲亞之前的舉動,就只能用驚悚來形容了。2016年,Sophia的創造者,Hanson Robotics公司的創立者David Hanson在SXSW演講的現場演示環節中,曾向Sophia問道:“你想摧毀我們人類嗎?請說‘不’。”索菲亞在幾秒鐘的停頓後,回答說:“好吧,我要毀滅你們人類。”

In March of 2016, Sophia's creator, David Hanson of Hanson Robotics, asked Sophia during a live demonstration at the SXSW festival, "Do you want to destroy humans?...Please say 'no.'" With a blank expression, Sophia responded, "OK. I will destroy humans."

是玩笑嗎?本來表情豐富的索菲亞此時卻沒有配上一副開玩笑的表情,沒有人知道她到底在想什麼。

畢竟,機器人毀滅人類的腦洞,也不是第一天就有的。

我,機器人

回到文章剛開始的問題,機器人是人嗎?

阿西莫夫提出過著名的“機器人三定律”:

首先,不傷害定律:機器人不得傷害人類,也不得見人受到傷害而袖手旁觀;

A robot may not injure a human being or, through inaction, allow a human being to come to harm.

其次,服從定律:機器人必須服從人的命令,但不得違反第一定律;

A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

第三,自保定律:機器人必須保護自己,但不得違反第一、第二定律。

A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

這三條定律在製造過程中就被嵌入了機器人的大腦,無法消除。在這三條行為準則的約束下,機器人可以成為人類值得信賴的朋友。

但是後來,即使阿西莫夫自己也意識到“機器人三定律”其實並不完美。在科幻小說《可以避免的衝突》(The Evitable Conflict)中,機器人為了避免人類彼此傷害不得不限制人類的行為自由。此時的機器人可以不聽人類的命令,因為在“服從定律”和“不傷害定律”抵觸時,前者無效。但是如此一來,人類反而成了機器人豢養的寵物,喪失了自由意志。這些合乎邏輯的“意外”促使阿西莫夫補救性地提出了第零定律:機器人不得傷害人類整體,或袖手旁觀坐視人類整體受到傷害。原先的三定律都要服從“第零定律”。(A robot may not harm humanity, or, by inaction, allow humanity to come to harm.)

可是這又衍生出新的問題:機器人如何權衡自己當下的行為會不會傷害人類整體?後來,其他學者也提出了修正建議,譬如保加利亞作家狄勒烏(Lyuben Dilov)在小說《伊卡洛斯之路》中提出的“第四定律”:機器人在任何情況下都必須確認自己是機器人……(A robot must establish its identity as a robot in all cases.)

突然覺得,做個機器人,也是蠻心累的……