您的位置:首頁>國際>正文

Axon設立AI倫理委員會 將研究人臉識別技術危害

據外媒報導, Axon近日推出了一個全新的AI倫理委員會以此來為公司的AI技術使用提供指導。 委員會未來每年將舉行兩場會議, 他們將就即將到來的Axon產品的道德問題特別是它們的使用可能對社區治安帶來的影響展開討論。

資料圖

對此, 隱私宣導機構敦促該委員會密切關注Axon的人臉識別技術開發。

Axon發言人Steve Tuttle告訴外媒The Verge:“他們可以讓我們對公眾負責, 並幫助我們為執法行動制定一套AI倫理準則。 ”

雖然這家公司目前還沒有開發出專門針對執法部門的即時人臉識別技術, 但CEO Rick Smith曾表示, 這種技術對於解決兒童誘拐或恐怖分子搜捕等極端案件非常有用。

直到去年, Axon的名字還叫Taser International, 新名字則來自其雲平臺。 這個平臺擁有20多億位元組的資料, Axon表示這使公司成為了美國甚至可能是全球最大的公共安全資料保管平臺。

由41個公民權利組織組成的團隊對這個新委員會做出回應, 他們希望Axon能將像即時人臉識別等技術產品定義為不道德行為。 該團隊在寫給Axon中的信件中說道:“沒有任何政策或保障能夠充分地緩解存在於即時人臉識別的風險。 ”

據瞭解, 面部識別演算法在處理種族和性別偏見問題時面臨困難, 女性和非白人的錯誤率更高。 雖然一些產品展現了不錯的錯誤率, 但許多演算法仍舊在這個問題上苦苦掙扎。 MIT今年的一項研究就發現,

IBM、微軟等提供的人臉識別演算法在種族上就存在明顯差異。 而如果在執法環境下, 這些錯誤率將引發更多的人力成本。

Tuttle在接受採訪時特別強調, 公司希望對AI的關注能夠領先於公眾。 另外他還表示委員會和Axon將會進行溝通交流, 這不僅包括上面提到的兩份年度報告還包括了電話、郵件等所有類型的交流途徑。

Next Article
喜欢就按个赞吧!!!
点击关闭提示