天天談人工智慧 哪種才適合你?
最近,兩位全球著名的CEO艾倫·馬斯克(Elon Musk)和馬克·紮克伯格(Mark Zuckerberg)之間最近發生的公開論戰告訴我們,人造智慧領域(AI)仍然是一個非常有爭議的領域。對於外行來說,馬斯克公開表示,人工智慧在他看來是一個重大威脅,
很顯然,技術人員很容易把人工智慧放在一個盒子裡,
然而,這個辯論忽略的是,人工智慧在今天的商業環境中已經被很多人廣泛使用,而目前與之相關的風險並不在於是否會讓我們所有人陷入一堆廢墟中。
當在商業環境中處理人工智慧風險時,並非所有的人工智慧都是平等創建的。具體而言,人工智慧具有兩種截然不同的風格,
但是,雖然“不透明”和“透明”這兩個各有其感性內涵,但重要的是不要讓這些影響我們。沒有“好”或“壞”的人工智慧,只有適當或不恰當的使用每個系統,這取決於你自己的需要。不透明的人工智慧有一些積極的方面,
在高度管制的行業中,這一選擇變得更加重要。例如在金融服務行業,在貸款中適當使用不透明的人工智慧會提高準確性減少錯誤。但是,如果要求銀行通過對決策過程進行逆向工程來證明這些操作改進是如何實現的,那麼這就成了一個挑戰,甚至是一個負擔。
不透明系統的另一個潛在問題是偏見蔓延。如果你不瞭解,不透明的人工智慧系統可能會支援破壞你品牌承諾的政策。人工智慧系統很容易使用中立的資料來計算出客戶的詳細資訊,然後用它做出非中立的決定。
那麼,如何知道你是否正確使用人工智慧,以及透明或不透明的是否最適合你?答案在於有多少組織願意信任它。為了完全信任人工智慧系統,要麼人工智慧必須是透明的,以便業務管理人員能夠理解它是如何工作的,或者如果人工智慧是不透明的,則需要在投入生產之前對其進行測試。
如前所述,還有其他的因素需要考慮,特別是那些把人工智慧作為客戶參與系統的一部分的組織。當GDPR於2018年5月在歐洲生效時,它將要求公司必須能夠準確解釋它們如何基於特定的演算法決策來決定客戶。
事實上,無論馬斯克和紮克伯格爭論什麼,我們還沒有處於人工智慧被證明是人類文明的垮臺或拯救的階段。然而,越來越清楚的是,當需要選擇適合他們的系統時,企業正處於十字路口。從理論上講,你可能會認為一個透明的系統能使它受阻礙小些,那麼它將會成為許多人的首選,但實際上這可能是一個非常艱難的決定。
例如,如果你知道一個“不透明”的替代品是可用的,而且更有可能正確診斷並挽救生命,那麼你會堅持使用一個“透明的”AI醫生來診斷患者嗎?問題的關鍵是,在某些情況下,決定因素可能是微不足道的,在組織能夠作出決定之前,需要考慮一些與盈利能力、客戶體驗和法規有關的問題。
你的人工智慧真的適合你自己麼?
那麼這就成了一個挑戰,甚至是一個負擔。不透明系統的另一個潛在問題是偏見蔓延。如果你不瞭解,不透明的人工智慧系統可能會支援破壞你品牌承諾的政策。人工智慧系統很容易使用中立的資料來計算出客戶的詳細資訊,然後用它做出非中立的決定。
那麼,如何知道你是否正確使用人工智慧,以及透明或不透明的是否最適合你?答案在於有多少組織願意信任它。為了完全信任人工智慧系統,要麼人工智慧必須是透明的,以便業務管理人員能夠理解它是如何工作的,或者如果人工智慧是不透明的,則需要在投入生產之前對其進行測試。
如前所述,還有其他的因素需要考慮,特別是那些把人工智慧作為客戶參與系統的一部分的組織。當GDPR於2018年5月在歐洲生效時,它將要求公司必須能夠準確解釋它們如何基於特定的演算法決策來決定客戶。
事實上,無論馬斯克和紮克伯格爭論什麼,我們還沒有處於人工智慧被證明是人類文明的垮臺或拯救的階段。然而,越來越清楚的是,當需要選擇適合他們的系統時,企業正處於十字路口。從理論上講,你可能會認為一個透明的系統能使它受阻礙小些,那麼它將會成為許多人的首選,但實際上這可能是一個非常艱難的決定。
例如,如果你知道一個“不透明”的替代品是可用的,而且更有可能正確診斷並挽救生命,那麼你會堅持使用一個“透明的”AI醫生來診斷患者嗎?問題的關鍵是,在某些情況下,決定因素可能是微不足道的,在組織能夠作出決定之前,需要考慮一些與盈利能力、客戶體驗和法規有關的問題。
你的人工智慧真的適合你自己麼?