隨著AI人工智慧越來越新進, 倫敦警方表示未來兩三年內將開始利用圖像辨識技術來偵測虐兒事件。 不過就目前來看, 這項技術的實用性尚未明朗, 因為系統連裸體和沙漠(如下圖) 之間的差異都還分不出來:
倫敦市警電子辦案部門組長Mark Stokes表示:「有時它(系統) 會把一張無傷大雅的沙漠照片判定為猥褻影像。 」
「基於某些原因, 有許多人會用沙漠照片當螢幕保護裝置, 結果就這樣被系統判定為膚色。
qianli
冰冷的系統也缺乏情理法、法理情的概念, 例如去年臉書的自動辨識系統就強制移除了下圖這張贏得普立茲獎的越戰照片, 只因照片包含一名裸身女孩, 就被自動演算法判定為「猥褻」。 經多人抗議後, 臉書官方終於解除了該圖的封鎖,