您的位置:首頁>科技>正文

機器人除了“搶飯碗”還會“犯罪”,能否判刑?

技術領域發展日新月異。 人工智慧(下稱AI)是具有智慧行為模仿能力的機器, 它是在電腦中, 模擬人類的行為和認知程式, 自然地學習所有知識的智慧大腦。 它正在越來越多地取代人類的活動, 同時也給人類帶來危險, 對此, AI所產生的現代性問題是:要將這些越發智慧的AI實體和其他法律主體一樣納入法律社會控制體系中來嗎?

在20世紀50年代, 美國科幻學家阿西莫夫為了預防AI可能產生的威脅, 設定了著名的機器人三條原則:

第一條:機器人不能對人類產生危害。 且不能因為忽略這種危險, 而導致危及人類安全。

第二條:機器人必須要服從人類所發出的命令。 但是, 所發出的命令如果違反第一條的話, 不在此限。

第三條:機器人只要在不違反前兩條規定的前提下, 必須保護自己。

但是, 這顯然並不能消除人類對於AI的恐懼。 為了防止未來AI對人類法益產生侵害, 國內外很多學者提出“人工智慧獨立承擔刑事責任”的觀點(下稱“獨立責任承擔說”)。 這種觀點認為AI的運算法則可能擁有很多的特質, 且這些特質遠超于一個普通的人。 但是這些特質並不是施加刑事責任所必備的。 當一個人或者企業同時滿足外部(危害行為)和內部(自由意志)要素,

就可以被追究刑事責任。 如果AI也可以滿足這些要素, 且事實上滿足的話, 則毫無疑問也要追究AI的刑事責任。 “獨立責任承擔說”的核心依據是AI符合施加刑事責任的內部要素, 即獨立的“控制能力與可培養的辨認能力”。 而外部要素的滿足並不成為“獨立責任承擔說”的阻礙, 他們認為, 隨著技術的發展, 讓“危害行為”脫離“生命體要素”“突破傳統理論顯然不足為奇且無可厚非”。 只要AI能夠機械地控制其肢體動作, 則任何動作都可以被認為是AI的行為。

在此基礎上, “獨立責任承擔說”為AI設定了有針對性的刑罰措施。 這包括對AI懲處罰金刑;對AI施以自由刑;對AI施加死刑, 包括對軀體的永久銷毀和對AI的資料予以刪除。

但筆者認為, 人工智慧獨立承擔刑事責任不具有理論自洽性, 理由是:

第一, AI的行為與自由意思密切關聯。 刑法上的行為被理解為通過意思而被控制的舉止, 所以, AI的舉止在外觀上看起來像是自己進行的行為。 確實, AI會通過四肢做出動作、通過系統發出語音、通過中央控制系統對周邊環境施加影響等等,

但是不能因此肯定地說這些舉止是基於自由意思進行的控制。 這其中的“意思”更可能是對AI進行程式設計的人或者使用AI的人的意思。 這樣的話, 就會將AI的舉止歸屬於機器背後的人, 而不是AI本身。 要承認AI的“行為”滿足刑法上的行為的要素, 就必須要在AI自身當中找到和人類意思完全相當的意思。

第二, AI不具備與人類等同評價的自由意思。 自由意思這一概念是為實現一定社會目的而設計的歸責產物。 但是, 責任並不是沒有限制地任意地予以歸責。 對於自身當前以及過去的自我決定, 無法通過倫理的評價基準體系進行評價的人, 也即, 沒有善惡判斷的人是無法進行倫理上的對話的, 因為他不能對倫理的非難進行回應,也即其不具有作為責任必要條件的自我反省能力。因此,將AI作和人類倫理的自我控制同樣的評價,還為時過早。

而且,即便AI具備了和人類同樣的倫理控制系統,也未必就具有了自由意思。德國聯邦最高法院曾就刑事責任作過如下經典表述:“責任非難的內在根據在於人道德上的成熟,與此同時,只要自由且道德地自我決定的能力沒有因為病理而短時間受到麻痹,抑或長時間受到阻礙,那麼就是有自由、答責且道德地自我決定的能力。因此,其就能夠決定遵循合法行為,抵抗不法行為,使得自己的態度符合法律的當為性規範,回避法律所禁止的行為。”

那麼何為道德上的成熟?道德的成熟需要社會認同。我們在認定刑法上的責任的時候,現實的社會關係中的期待和歸責被認為非常重要。今後隨著AI技術的進化,存在給人類認為AI完全可以自由進行決定的印象之可能性。但是,AI是否實際能夠通過自由意思進行行為並不重要。即便是人類的自由意思當中,實際上我們也不知道自己是否真的處於自由意思當中,我們不過是透過周圍第三者的評價,來判斷一個人是否有自由意思。因此,對於機器人來說,從第三者的觀點來看,該如何評價才是最重要的問題。因此,在AI達到能夠被人類社會所接納,進行同等交流,被評價為和人類完全無差異的狀態之前,儘管AI具備“控制和辨認”能力,也無法被人類評價為具有自由意思。

“未來已來,但不是說來就來”,對於AI時代的法律檢討應立足於當下,對於AI可能產生的威脅所做的刑法對策,應當根源於刑法的基本理論。當然,AI時代給我們帶來福利的同時,我們需要關注其可能出現的潛在危險。而預防這種技術風險,更應從倫理的角度高瞻遠矚,儘早確立嚴格的AI研發、生產技術倫理規則和法律標準,保障AI技術和產品的人類可控性,或許是當下更急需的時代命題。

文 | 儲陳城

來源 | 檢察日報

【免責說明:本文僅代表作者個人觀點,與本公眾號無關。其原創性以及文中陳述文字和內容未經本公眾號證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本公眾號不作任何保證或承諾,請讀者僅作參考。】

因為他不能對倫理的非難進行回應,也即其不具有作為責任必要條件的自我反省能力。因此,將AI作和人類倫理的自我控制同樣的評價,還為時過早。

而且,即便AI具備了和人類同樣的倫理控制系統,也未必就具有了自由意思。德國聯邦最高法院曾就刑事責任作過如下經典表述:“責任非難的內在根據在於人道德上的成熟,與此同時,只要自由且道德地自我決定的能力沒有因為病理而短時間受到麻痹,抑或長時間受到阻礙,那麼就是有自由、答責且道德地自我決定的能力。因此,其就能夠決定遵循合法行為,抵抗不法行為,使得自己的態度符合法律的當為性規範,回避法律所禁止的行為。”

那麼何為道德上的成熟?道德的成熟需要社會認同。我們在認定刑法上的責任的時候,現實的社會關係中的期待和歸責被認為非常重要。今後隨著AI技術的進化,存在給人類認為AI完全可以自由進行決定的印象之可能性。但是,AI是否實際能夠通過自由意思進行行為並不重要。即便是人類的自由意思當中,實際上我們也不知道自己是否真的處於自由意思當中,我們不過是透過周圍第三者的評價,來判斷一個人是否有自由意思。因此,對於機器人來說,從第三者的觀點來看,該如何評價才是最重要的問題。因此,在AI達到能夠被人類社會所接納,進行同等交流,被評價為和人類完全無差異的狀態之前,儘管AI具備“控制和辨認”能力,也無法被人類評價為具有自由意思。

“未來已來,但不是說來就來”,對於AI時代的法律檢討應立足於當下,對於AI可能產生的威脅所做的刑法對策,應當根源於刑法的基本理論。當然,AI時代給我們帶來福利的同時,我們需要關注其可能出現的潛在危險。而預防這種技術風險,更應從倫理的角度高瞻遠矚,儘早確立嚴格的AI研發、生產技術倫理規則和法律標準,保障AI技術和產品的人類可控性,或許是當下更急需的時代命題。

文 | 儲陳城

來源 | 檢察日報

【免責說明:本文僅代表作者個人觀點,與本公眾號無關。其原創性以及文中陳述文字和內容未經本公眾號證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本公眾號不作任何保證或承諾,請讀者僅作參考。】

Next Article
喜欢就按个赞吧!!!
点击关闭提示