最近, 兩位全球著名的CEO艾倫·馬斯克(Elon Musk)和馬克·紮克伯格(Mark Zuckerberg)之間最近發生的公開論戰告訴我們, 人造智慧領域(AI)仍然是一個非常有爭議的領域。 對於外行來說, 馬斯克公開表示, 人工智慧在他看來是一個重大威脅, 迫切需要監管, 甚至稱之為“文明存在的根本性風險”。 與此同時, 紮克伯格稱這樣的警告“非常不負責任”, 他選擇強調人工智慧在醫療診斷和無人駕駛汽車拯救生命方面的好處。
很顯然, 技術人員很容易把人工智慧放在一個盒子裡, 讓他們對如何影響人類的願景抒情。 事實是, 這是一個比你想像的更細緻的辯論, 主要是因為人工智慧可以有多種形狀和大小。 要明確的是, 馬斯克和紮克伯格正在討論的形式主要涉及具有認知技能的人工智慧。
然而, 這個辯論忽略的是, 人工智慧在今天的商業環境中已經被很多人廣泛使用, 而目前與之相關的風險並不在於是否會讓我們所有人陷入一堆廢墟中。
當在商業環境中處理人工智慧風險時, 並非所有的人工智慧都是平等創建的。 具體而言, 人工智慧具有兩種截然不同的風格, 透明和不透明, 並且對於企業和用戶而言都具有非常不同的用途、應用和影響。 這是技術性的一點:透明的人工智慧是一個其洞察力可以被理解和審計, 允許人們對其每個結果進行逆向設計,
但是, 雖然“不透明”和“透明”這兩個各有其感性內涵,
在高度管制的行業中, 這一選擇變得更加重要。 例如在金融服務行業, 在貸款中適當使用不透明的人工智慧會提高準確性減少錯誤。 但是, 如果要求銀行通過對決策過程進行逆向工程來證明這些操作改進是如何實現的, 那麼這就成了一個挑戰, 甚至是一個負擔。
不透明系統的另一個潛在問題是偏見蔓延。
那麼, 如何知道你是否正確使用人工智慧, 以及透明或不透明的是否最適合你?答案在於有多少組織願意信任它。 為了完全信任人工智慧系統, 要麼人工智慧必須是透明的, 以便業務管理人員能夠理解它是如何工作的, 或者如果人工智慧是不透明的, 則需要在投入生產之前對其進行測試。
如前所述, 還有其他的因素需要考慮, 特別是那些把人工智慧作為客戶參與系統的一部分的組織。 當GDPR於2018年5月在歐洲生效時, 它將要求公司必須能夠準確解釋它們如何基於特定的演算法決策來決定客戶。
事實上,無論馬斯克和紮克伯格爭論什麼,我們還沒有處於人工智慧被證明是人類文明的垮臺或拯救的階段。然而,越來越清楚的是,當需要選擇適合他們的系統時,企業正處於十字路口。從理論上講,你可能會認為一個透明的系統能使它受阻礙小些,那麼它將會成為許多人的首選,但實際上這可能是一個非常艱難的決定。
例如,如果你知道一個“不透明”的替代品是可用的,而且更有可能正確診斷並挽救生命,那麼你會堅持使用一個“透明的”AI醫生來診斷患者嗎?問題的關鍵是,在某些情況下,決定因素可能是微不足道的,在組織能夠作出決定之前,需要考慮一些與盈利能力、客戶體驗和法規有關的問題。
你的人工智慧真的適合你自己麼?
事實上,無論馬斯克和紮克伯格爭論什麼,我們還沒有處於人工智慧被證明是人類文明的垮臺或拯救的階段。然而,越來越清楚的是,當需要選擇適合他們的系統時,企業正處於十字路口。從理論上講,你可能會認為一個透明的系統能使它受阻礙小些,那麼它將會成為許多人的首選,但實際上這可能是一個非常艱難的決定。
例如,如果你知道一個“不透明”的替代品是可用的,而且更有可能正確診斷並挽救生命,那麼你會堅持使用一個“透明的”AI醫生來診斷患者嗎?問題的關鍵是,在某些情況下,決定因素可能是微不足道的,在組織能夠作出決定之前,需要考慮一些與盈利能力、客戶體驗和法規有關的問題。
你的人工智慧真的適合你自己麼?