
據外媒報道,Axon近日推出了一個全新的AI倫理委員會以此來為公司的AI技術使用提供指導。委員會未來每年將舉行兩場會議,他們將就即將到來的Axon產品的道德問題特別是它們的使用可能對社區治安帶來的影響展開討論。
對此,隱私倡導機構敦促該委員會密切關注Axon的人臉識別技術開發。
Axon發言人Steve Tuttle告訴外媒The Verge:“他們可以讓我們對公眾負責,并幫助我們為執法行動制定一套AI倫理準則。”
雖然這家公司目前還沒有開發出專門針對執法部門的實時人臉識別技術,但CEO Rick Smith曾表示,這種技術對于解決兒童誘拐或恐怖分子搜捕等極端案件非常有用。
直到去年,Axon的名字還叫Taser InternaTIonal,新名字則來自其云平臺。這個平臺擁有20多億字節的數據,Axon表示這使公司成為了美國甚至可能是全球最大的公共安全數據保管平臺。
由41個公民權利組織組成的團隊對這個新委員會做出回應,他們希望Axon能將像實時人臉識別等技術產品定義為不道德行為。該團隊在寫給Axon中的信件中說道:“沒有任何政策或保障能夠充分地緩解存在于實時人臉識別的風險。”
據了解,面部識別算法在處理種族和性別偏見問題時面臨困難,女性和非白人的錯誤率更高。雖然一些產品展現了不錯的錯誤率,但許多算法仍舊在這個問題上苦苦掙扎。MIT今年的一項研究就發現,IBM、微軟等提供的人臉識別算法在種族上就存在明顯差異。而如果在執法環境下,這些錯誤率將引發更多的人力成本。
Tuttle在接受采訪時特別強調,公司希望對AI的關注能夠領先于公眾。另外他還表示委員會和Axon將會進行溝通交流,這不僅包括上面提到的兩份年度報告還包括了電話、郵件等所有類型的交流途徑。