视觉检测领先者
全国咨询热线:13812953225
产品中心
当前位置:首页 > 产品中心

用机器算法来断善恶?AI犯罪鉴别技术引争议

发布时间:2024-04-08 17:20:13   来源:下载雷火电竞亚洲先驱

至于这项研究本身的善恶对错,他们的回答令人深思:核物理学家该为造成的伤害负责吗? 每一...

产品介绍

  至于这项研究本身的善恶对错,他们的回答令人深思:核物理学家该为造成的伤害负责吗?

  每一部成功的犯罪题材影视作品,最引人入胜的元素,都是大反派最后的揭晓。而在现实中,确定嫌疑犯并公布其罪行,却并非易事。

  于是,人们把目光投向了方兴未艾的人工智能,希望已经秒杀人类智力的阿尔法狗们,能够在司法工作中扮演包公、狄仁杰或者福尔摩斯的角色。一系列的探索尝试已经进行,但也引发了围绕人性与科技关系的争议。

  因为一条与AI有关的消息,谷歌近日又上了热点新闻:三名美国科学家发表万字长文,批评中国某高校团队在半年前发布的一项旨在用AI技术辨认罪犯的研究。

  2016年,上海交通大学的两位科学家研发了一个神经网络系统,可以通过脸部识别技术辨认罪犯。他们使用一系列的机器视觉算法来检测一批包括罪犯和非罪犯的面部照片,并试验这一网络神经系统是否能辨别出罪犯。

  据媒体报道,在实验过程中,研究员使用了1856名男性的身份证照片,他们的年龄在18到55岁之间,其中一半的人有犯罪史。90%的照片用来训练这一AI算法,剩下的10%用来检验算法效果,结果十分惊人,这一系统的识别准确率高达89.5%。

  这套AI最终的结论是,犯罪分子与遵守法律的公民相比,他们长相和普通人之间的差异更大。换句话说,如果一个人的脸越大众,他们越不有几率会成为罪犯。这项研究对象几乎具有相同的种族背景,这就提出一个严重的问题,虽然犯罪行为可能有遗传因素,但大多数研究人员认为它与环境社会经济因素相关,而不是与遗传因素有关。

  而三名谷歌研究者的愤怒,恰恰来自于“长相”。他们都以为这不过又是以貌取人,是“科学种族主义”,并从历史、伦理出发,对相面术及其在机器学习时代的新形态进行了批评。

  文章指出,相面术试图从人的外貌推测其内在性格。虽然今天相面术被视为伪科学,但民间还是有人相信可以从面相或身材中鉴别出低级一点的人群。

  此外,也有人对中国学者研究的科学性抱有质疑。比如不足2000个样本非常容易导致机器过度学习,照片只是转瞬间(无意义)表情的记录等等,但伦理层面的问题依然是最受关注的。

  对于指责,中国学者强调该研究只呈现了其中的相关性。其中的因果关系,即到底是长相决定了天生的犯罪性,或者是人类社会对长相的歧视促成了犯罪概率的差异,则留待社会科学的解读。至于这项研究本身的善恶对错,他们的回答令人深思:核物理学家该为造成的伤害负责吗?

  尽管科研圈里的争吵思辨尚未结束,人工智能干涉司法是否正义还没定论,但心急的人已经将先进的技术加以应用。

  在好莱坞经典科幻大片《少数派报告中》,未来的警察能够借助“先知”对未来的预知,提前赶到并组织重大犯罪行为。现在,AI已经在许多地方扮演起先知的角色。

  迪拜警方2016年就发布了一款新型人工智能设备。这款设备利用犯罪识别软件,能够在违法犯罪事件发生之前对其进行精确的预测,由此减少违法犯罪事件的发生,降低人类警察可能会错过违法犯罪事件发生的概率。这款人工智能的应用程序,已经使得通过AI对违法犯罪行为进行预测的技术,更接近于现实。

  在美国,宾夕法尼亚大学统计学教授理查德·伯克开发了一种新的算法,能够预测哪些人会在未来犯罪的风险高。在此之前,他的算法已经能帮助监狱确定该把哪些犯人关到高度警戒区。假释部门用他的工具判断该对哪类假释人员采取更严格的监视手段,警官则用来预测曾因家庭暴力被捕的人是否会再次犯罪。他还编写过一个算法,能告诉美国职业安全与卫生管理局,哪些工作场所可能违反安全方面的规定。

  伯克的算法与“阿尔法狗”类似。他收集了从2009年到2013年约10万件家庭暴力的案例,使用了机器学习的方法,将这一些数据“喂”给电脑程序,包括年龄、性别、邮编、第一次犯罪的年龄以及一长串先前可能相关的犯罪记录。比如酒后驾车、虐待动物、涉枪犯罪等。

  借助这种机器学习,警方可以锁定哪些人重复犯罪,哪些二次犯罪风险较高的人需要监禁。伯克的研究可推测哪些人二次犯罪的风险较低,从而能抽出更多的警力监控那些犯罪风险较高的人。与法官的判断作对比的结果是:法官判断有20%的人会再犯,而计算机给出的比例仅为10%。

  除了家庭暴力的案件研究外,伯克在假释和缓刑方面的算法已得到美国费城政府的使用。伯克把费城所有缓刑和假释的人都划分到了高犯罪风险、中犯罪风险和低犯罪风险三个档次里。对于系统认定为低犯罪风险的人,市政府大幅度降低了对他们的监视强度。