技術領域發展日新月異。 人工智慧(下稱AI)是具有智慧行為模仿能力的機器, 它是在電腦中, 模擬人類的行為和認知程式, 自然地學習所有知識的智慧大腦。 它正在越來越多地取代人類的活動, 同時也給人類帶來危險, 對此, AI所產生的現代性問題是:要將這些越發智慧的AI實體和其他法律主體一樣納入法律社會控制體系中來嗎?
在20世紀50年代, 美國科幻學家阿西莫夫為了預防AI可能產生的威脅, 設定了著名的機器人三條原則:
第一條:機器人不能對人類產生危害。 且不能因為忽略這種危險, 而導致危及人類安全。
第二條:機器人必須要服從人類所發出的命令。 但是, 所發出的命令如果違反第一條的話, 不在此限。
第三條:機器人只要在不違反前兩條規定的前提下, 必須保護自己。
但是, 這顯然並不能消除人類對於AI的恐懼。 為了防止未來AI對人類法益產生侵害, 國內外很多學者提出“人工智慧獨立承擔刑事責任”的觀點(下稱“獨立責任承擔說”)。 這種觀點認為AI的運算法則可能擁有很多的特質, 且這些特質遠超于一個普通的人。 但是這些特質並不是施加刑事責任所必備的。 當一個人或者企業同時滿足外部(危害行為)和內部(自由意志)要素,
在此基礎上, “獨立責任承擔說”為AI設定了有針對性的刑罰措施。 這包括對AI懲處罰金刑;對AI施以自由刑;對AI施加死刑, 包括對軀體的永久銷毀和對AI的資料予以刪除。
但筆者認為, 人工智慧獨立承擔刑事責任不具有理論自洽性, 理由是:
第一, AI的行為與自由意思密切關聯。 刑法上的行為被理解為通過意思而被控制的舉止, 所以, AI的舉止在外觀上看起來像是自己進行的行為。 確實, AI會通過四肢做出動作、通過系統發出語音、通過中央控制系統對周邊環境施加影響等等,
第二, AI不具備與人類等同評價的自由意思。 自由意思這一概念是為實現一定社會目的而設計的歸責產物。 但是, 責任並不是沒有限制地任意地予以歸責。 對於自身當前以及過去的自我決定, 無法通過倫理的評價基準體系進行評價的人, 也即, 沒有善惡判斷的人是無法進行倫理上的對話的, 因為他不能對倫理的非難進行回應,也即其不具有作為責任必要條件的自我反省能力。因此,將AI作和人類倫理的自我控制同樣的評價,還為時過早。
而且,即便AI具備了和人類同樣的倫理控制系統,也未必就具有了自由意思。德國聯邦最高法院曾就刑事責任作過如下經典表述:“責任非難的內在根據在於人道德上的成熟,與此同時,只要自由且道德地自我決定的能力沒有因為病理而短時間受到麻痹,抑或長時間受到阻礙,那麼就是有自由、答責且道德地自我決定的能力。因此,其就能夠決定遵循合法行為,抵抗不法行為,使得自己的態度符合法律的當為性規範,回避法律所禁止的行為。”
那麼何為道德上的成熟?道德的成熟需要社會認同。我們在認定刑法上的責任的時候,現實的社會關係中的期待和歸責被認為非常重要。今後隨著AI技術的進化,存在給人類認為AI完全可以自由進行決定的印象之可能性。但是,AI是否實際能夠通過自由意思進行行為並不重要。即便是人類的自由意思當中,實際上我們也不知道自己是否真的處於自由意思當中,我們不過是透過周圍第三者的評價,來判斷一個人是否有自由意思。因此,對於機器人來說,從第三者的觀點來看,該如何評價才是最重要的問題。因此,在AI達到能夠被人類社會所接納,進行同等交流,被評價為和人類完全無差異的狀態之前,儘管AI具備“控制和辨認”能力,也無法被人類評價為具有自由意思。
“未來已來,但不是說來就來”,對於AI時代的法律檢討應立足於當下,對於AI可能產生的威脅所做的刑法對策,應當根源於刑法的基本理論。當然,AI時代給我們帶來福利的同時,我們需要關注其可能出現的潛在危險。而預防這種技術風險,更應從倫理的角度高瞻遠矚,儘早確立嚴格的AI研發、生產技術倫理規則和法律標準,保障AI技術和產品的人類可控性,或許是當下更急需的時代命題。
文 | 儲陳城
來源 | 檢察日報
【免責說明:本文僅代表作者個人觀點,與本公眾號無關。其原創性以及文中陳述文字和內容未經本公眾號證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本公眾號不作任何保證或承諾,請讀者僅作參考。】
因為他不能對倫理的非難進行回應,也即其不具有作為責任必要條件的自我反省能力。因此,將AI作和人類倫理的自我控制同樣的評價,還為時過早。而且,即便AI具備了和人類同樣的倫理控制系統,也未必就具有了自由意思。德國聯邦最高法院曾就刑事責任作過如下經典表述:“責任非難的內在根據在於人道德上的成熟,與此同時,只要自由且道德地自我決定的能力沒有因為病理而短時間受到麻痹,抑或長時間受到阻礙,那麼就是有自由、答責且道德地自我決定的能力。因此,其就能夠決定遵循合法行為,抵抗不法行為,使得自己的態度符合法律的當為性規範,回避法律所禁止的行為。”
那麼何為道德上的成熟?道德的成熟需要社會認同。我們在認定刑法上的責任的時候,現實的社會關係中的期待和歸責被認為非常重要。今後隨著AI技術的進化,存在給人類認為AI完全可以自由進行決定的印象之可能性。但是,AI是否實際能夠通過自由意思進行行為並不重要。即便是人類的自由意思當中,實際上我們也不知道自己是否真的處於自由意思當中,我們不過是透過周圍第三者的評價,來判斷一個人是否有自由意思。因此,對於機器人來說,從第三者的觀點來看,該如何評價才是最重要的問題。因此,在AI達到能夠被人類社會所接納,進行同等交流,被評價為和人類完全無差異的狀態之前,儘管AI具備“控制和辨認”能力,也無法被人類評價為具有自由意思。
“未來已來,但不是說來就來”,對於AI時代的法律檢討應立足於當下,對於AI可能產生的威脅所做的刑法對策,應當根源於刑法的基本理論。當然,AI時代給我們帶來福利的同時,我們需要關注其可能出現的潛在危險。而預防這種技術風險,更應從倫理的角度高瞻遠矚,儘早確立嚴格的AI研發、生產技術倫理規則和法律標準,保障AI技術和產品的人類可控性,或許是當下更急需的時代命題。
文 | 儲陳城
來源 | 檢察日報
【免責說明:本文僅代表作者個人觀點,與本公眾號無關。其原創性以及文中陳述文字和內容未經本公眾號證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本公眾號不作任何保證或承諾,請讀者僅作參考。】