華文網

天天談人工智慧 哪種才適合你?

最近,兩位全球著名的CEO艾倫·馬斯克(Elon Musk)和馬克·紮克伯格(Mark Zuckerberg)之間最近發生的公開論戰告訴我們,人造智慧領域(AI)仍然是一個非常有爭議的領域。對於外行來說,馬斯克公開表示,人工智慧在他看來是一個重大威脅,

迫切需要監管,甚至稱之為“文明存在的根本性風險”。與此同時,紮克伯格稱這樣的警告“非常不負責任”,他選擇強調人工智慧在醫療診斷和無人駕駛汽車拯救生命方面的好處。

很顯然,技術人員很容易把人工智慧放在一個盒子裡,

讓他們對如何影響人類的願景抒情。事實是,這是一個比你想像的更細緻的辯論,主要是因為人工智慧可以有多種形狀和大小。要明確的是,馬斯克和紮克伯格正在討論的形式主要涉及具有認知技能的人工智慧。

然而,這個辯論忽略的是,人工智慧在今天的商業環境中已經被很多人廣泛使用,而目前與之相關的風險並不在於是否會讓我們所有人陷入一堆廢墟中。

不要擔心這樣的世界末日的情景,我們應該把精力集中在這個技術所帶來的真正的危險上,如果它被錯誤地使用的話。這些風險可能包括監管違規、業務價值下降和重大品牌損害等。雖然對人類的影響不是災難性的,但它對組織的成敗還是有重大影響的。

當在商業環境中處理人工智慧風險時,並非所有的人工智慧都是平等創建的。具體而言,人工智慧具有兩種截然不同的風格,

透明和不透明,並且對於企業和用戶而言都具有非常不同的用途、應用和影響。這是技術性的一點:透明的人工智慧是一個其洞察力可以被理解和審計,允許人們對其每個結果進行逆向設計,以瞭解它是如何到達給定的決定的系統。另一方面,不透明的人工智慧是一個不能輕易揭示它的工作原理的智慧系統。與人類的大腦不同,任何試圖解釋它是如何得到某種見解或決定的嘗試都可能是一個挑戰。

但是,雖然“不透明”和“透明”這兩個各有其感性內涵,但重要的是不要讓這些影響我們。沒有“好”或“壞”的人工智慧,只有適當或不恰當的使用每個系統,這取決於你自己的需要。不透明的人工智慧有一些積極的方面,

它可以證明在適當的情況下有用。“透明”是對人工智慧的限制,會限制其功效,因此在某些情況下,不透明系統可能更可取。

在高度管制的行業中,這一選擇變得更加重要。例如在金融服務行業,在貸款中適當使用不透明的人工智慧會提高準確性減少錯誤。但是,如果要求銀行通過對決策過程進行逆向工程來證明這些操作改進是如何實現的,那麼這就成了一個挑戰,甚至是一個負擔。

不透明系統的另一個潛在問題是偏見蔓延。如果你不瞭解,不透明的人工智慧系統可能會支援破壞你品牌承諾的政策。人工智慧系統很容易使用中立的資料來計算出客戶的詳細資訊,然後用它做出非中立的決定。

那麼,如何知道你是否正確使用人工智慧,以及透明或不透明的是否最適合你?答案在於有多少組織願意信任它。為了完全信任人工智慧系統,要麼人工智慧必須是透明的,以便業務管理人員能夠理解它是如何工作的,或者如果人工智慧是不透明的,則需要在投入生產之前對其進行測試。

如前所述,還有其他的因素需要考慮,特別是那些把人工智慧作為客戶參與系統的一部分的組織。當GDPR於2018年5月在歐洲生效時,它將要求公司必須能夠準確解釋它們如何基於特定的演算法決策來決定客戶。

事實上,無論馬斯克和紮克伯格爭論什麼,我們還沒有處於人工智慧被證明是人類文明的垮臺或拯救的階段。然而,越來越清楚的是,當需要選擇適合他們的系統時,企業正處於十字路口。從理論上講,你可能會認為一個透明的系統能使它受阻礙小些,那麼它將會成為許多人的首選,但實際上這可能是一個非常艱難的決定。

例如,如果你知道一個“不透明”的替代品是可用的,而且更有可能正確診斷並挽救生命,那麼你會堅持使用一個“透明的”AI醫生來診斷患者嗎?問題的關鍵是,在某些情況下,決定因素可能是微不足道的,在組織能夠作出決定之前,需要考慮一些與盈利能力、客戶體驗和法規有關的問題。

你的人工智慧真的適合你自己麼?

那麼這就成了一個挑戰,甚至是一個負擔。

不透明系統的另一個潛在問題是偏見蔓延。如果你不瞭解,不透明的人工智慧系統可能會支援破壞你品牌承諾的政策。人工智慧系統很容易使用中立的資料來計算出客戶的詳細資訊,然後用它做出非中立的決定。

那麼,如何知道你是否正確使用人工智慧,以及透明或不透明的是否最適合你?答案在於有多少組織願意信任它。為了完全信任人工智慧系統,要麼人工智慧必須是透明的,以便業務管理人員能夠理解它是如何工作的,或者如果人工智慧是不透明的,則需要在投入生產之前對其進行測試。

如前所述,還有其他的因素需要考慮,特別是那些把人工智慧作為客戶參與系統的一部分的組織。當GDPR於2018年5月在歐洲生效時,它將要求公司必須能夠準確解釋它們如何基於特定的演算法決策來決定客戶。

事實上,無論馬斯克和紮克伯格爭論什麼,我們還沒有處於人工智慧被證明是人類文明的垮臺或拯救的階段。然而,越來越清楚的是,當需要選擇適合他們的系統時,企業正處於十字路口。從理論上講,你可能會認為一個透明的系統能使它受阻礙小些,那麼它將會成為許多人的首選,但實際上這可能是一個非常艱難的決定。

例如,如果你知道一個“不透明”的替代品是可用的,而且更有可能正確診斷並挽救生命,那麼你會堅持使用一個“透明的”AI醫生來診斷患者嗎?問題的關鍵是,在某些情況下,決定因素可能是微不足道的,在組織能夠作出決定之前,需要考慮一些與盈利能力、客戶體驗和法規有關的問題。

你的人工智慧真的適合你自己麼?