1000多名研究人员、学者和专家签署了一封公开信,反对使用人工智能预测犯罪。
任何看过科幻经典《少数派报告》的人都会对在犯罪发生前预测犯罪行为感到担忧。在理想的情况下,犯罪预测可以帮助决定将警察资源分配到哪里但现实情况将大不相同。
研究人员在即将出版的名为“利用图像处理技术预测犯罪行为的深度神经网络模型”的刊物前发表了上述言论。在这篇论文中,作者声称能够通过自动面部识别来预测一个人是否会成为罪犯。
哈里斯堡大学教授、论文合著者Nathaniel J.S. Ashby说:“通过不带偏见地自动识别潜在威胁,我们的目标是生产出受隐性偏见和情绪反应影响较小的犯罪预防、执法和军事应用工具。”
我们的下一步是寻找战略伙伴来推进这一使命。”
找到愿意合作的伙伴可能是一项挑战。公开信的签名者包括微软、谷歌和Facebook等科技巨头从事人工智能工作的员工。
在信中,这些签名者强调了当今人工智能技术的许多问题,这些问题让涉足犯罪预测变得非常危险。
在这些担忧中,最主要的是有充分证据证明的算法的种族偏见。目前的每个面部识别系统在识别白人男性时都更加准确,而且在执法环境中使用时经常会将巴姆社区的成员误认为罪犯。
然而,即使人脸识别算法的不准确性得到了解决,研究人员也强调了当前司法系统的问题。在最近几周乔治弗洛伊德被谋杀后,司法系统的问题成为人们关注的焦点。
在信中,研究人员解释道:
这一性质的研究及其对准确性的要求都建立在这样一种假设之上,即有关刑事逮捕和定罪的数据可以作为潜在犯罪活动的可靠、中立的指标。然而,这些记录远非中立。
正如众多学者论证的那样,历史法庭和逮捕数据反映了刑事司法制度的政策和实践。这些数据反映了警察选择逮捕谁,法官选择如何裁决,以及哪些人被判较长或较轻的刑期。
无数的研究表明,在法律体系的各个阶段,有色人种受到的对待要比处境相似的白人更为严厉,这导致了数据的严重扭曲。因此,在判断一个人是否具有‘罪犯的面孔’时,任何建立在现有刑事法律框架内的软件都会不可避免地重复这些偏见和基本错误。”
这篇有争议的论文的共同作者之一Jonathan W. Korn是一名博士生,他被认为是纽约警察局的老兵。科恩说,能够预测犯罪行为的人工智能将成为“执法机构的一大优势”。
虽然这样的系统会让执法人员的生活更轻松,但它的代价是隐私和自动化的种族定性。
“机器学习程序不是中立的;研究议程和他们使用的数据集往往继承了对世界的主导文化信念,”信的作者警告说。
“对默认假设的不加批判的接受,不可避免地导致了算法系统中的歧视性设计,重现了使社会等级正常化和使针对边缘化群体的暴力合法化的思想。”
- 上一篇: 国内智能巡检机器人公司TOP5大盘点
- 下一篇: 中国居全球第四!自然指数首次聚焦AI研究产出