您的位置:首頁>正文

千里眼的辨識度原來如此的令人崩潰?

隨著AI人工智慧越來越新進, 倫敦警方表示未來兩三年內將開始利用圖像辨識技術來偵測虐兒事件。 不過就目前來看, 這項技術的實用性尚未明朗, 因為系統連裸體和沙漠(如下圖) 之間的差異都還分不出來:

倫敦市警電子辦案部門組長Mark Stokes表示:「有時它(系統) 會把一張無傷大雅的沙漠照片判定為猥褻影像。 」

「基於某些原因, 有許多人會用沙漠照片當螢幕保護裝置, 結果就這樣被系統判定為膚色。

qianli

冰冷的系統也缺乏情理法、法理情的概念, 例如去年臉書的自動辨識系統就強制移除了下圖這張贏得普立茲獎的越戰照片, 只因照片包含一名裸身女孩, 就被自動演算法判定為「猥褻」。 經多人抗議後, 臉書官方終於解除了該圖的封鎖,

並承認這不是一張兒童色情照片。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示