警务中的人工智能-用例,伦理问题和趋势

库马拉斯Madhavan
《阿凡达》

Radhika Madhavan在Emerj报道人工智能创新。Radhika之前在三家技术公司从事内容营销工作,毕业于Sri Krishna工程技术学院,获得信息技术学位。

人工智能在警务中的应用

2018年7月,Daniel Faggella说话在国际刑警组织-联合国(区域间犯罪和司法研究所)关于人工智能和机器人对执法的机遇和风险的全球会议上。这是联合国和国际刑警组织首次在警务、安全和执法方面使用人工智能。

自该事件以来,丹尼尔和其他各种联合国和国际刑警组织的活动,因为Emerj一直在继续报道人工智能的应用国防和反恐。

当区域间犯罪和司法研究所计划编写一份关于用于执法的人工智能和机器人他们试图为那些对人工智能近期应用感兴趣的警察领导们创建一个入门课程。Daniel和Emerj团队帮助充实了用例部分,但完整的报告涵盖了广泛的主题,值得对执法和AI交叉感兴趣的任何人考虑。本文总结了报告的内容和Emerj对执法中真实世界人工智能用例的报道。

犯罪和司法研究所的报告和本文讨论了以下一些重要问题:

  1. 将人工智能整合到执法中有什么好处?
  2. 执法部门能做些什么来预测和减缓人工智能和机器人的武器化?
  3. 执法部门如何成功地在现实世界中实现人工智能和机器人的某些用例?
  4. 人工智能系统如何在隐私和安全之间保持平衡?
  5. 为什么要对人工智能的道德使用进行明确的分类,并在执法中予以实施,作为其他领域和行业的参考框架?

以下部分对犯罪和司法研究所报告的主要观点进行了全面总结,并详细阐述了在执法中工作的人工智能应用,并链接了我们对Emerj的其他用例覆盖。

人工智能的应用和威胁

该报告将执法部门的人工智能和机器人应用分为四大类:预测和分析,识别,探索,通讯-如下图所示:

国际刑警组织1

图片来源:执法中的四类人工智能使用案例

(报告:执法领域的人工智能和机器人)

报告称,由于人工智能的一些局限性,目前执法人员将只专注于狭窄的人工智能和半自主代理,以增强执法人员。在下一节中,我们将详细讨论一些可以被认为是AI在执法中的好处的用例。

该报告认为,人工智能和机器人完全可以武器化,因为它们可以在预防犯罪的警务工作中得到永久执行。报告称,“最近,来自14个机构(包括学术界、民间社会、和行业)深入调查了这个问题,并提出,许多可能让人工智能和机器人对执法部门有吸引力的特性(比如规模、速度、性能、距离)可能也会让人工智能和机器人对犯罪分子和恐怖组织同样有吸引力。”

根据这份报告,该报告确定了三个主要的攻击领域:

  1. 数字攻击,例如自动鱼叉式网络钓鱼,自动发现和利用网络漏洞。
  2. 政治攻击例如假新闻或媒体的扩散,以制造混乱或冲突,或使用换脸和欺骗工具来操纵视频,危及人们对政治人物的信任,甚至导致证据的有效性在法庭上受到质疑。
  3. 物理攻击比如可以识别人脸的武装无人机或走私违禁品的无人机。在数字攻击的背景下,该报告进一步指出,人工智能可以被用来直接实施有害行为,或通过毒害数据集来颠覆另一个人工智能系统。”

报告警告说,尽管人工智能和机器人的武器化没有像预期的那样在社会中扩散,但未来几年将看到人工智能和机器人用于犯罪和恐怖目的的兴起。

例如,该报告提供了过去实时的恶意事件,如向日本东京首相办公室分发放射源的无人机、伊拉克和黎凡特伊斯兰国(ISIL)用作无人机简易爆炸装置等。

为了打击这种潜在的犯罪用途,报告建议执法部门现在就采取行动,谨慎实施战略方针,有意识地在警务人工智能方面投入精力和资源。

人工智能入门1200x200@2x

警察中的机器人和人工智能——用例探索

Emerj很荣幸能够帮助UNICRI提供人工智能和机器人案例研究和执法应用的实时实例——但分类用例的有用框架来自报告的作者和国际刑警组织的工作人员。

区域间犯罪和司法研究所和国际刑警组织用例图

虽然在分析执法中的人工智能应用方面有许多潜在的有用“透镜”,但该报告使用了上述四大类,并结合了应用相对成熟的标准。以下是完整报告中的一个示例图表:

国际刑警组织2

图片来源:用例会话的结果

(报告:执法领域的人工智能和机器人)

在未来两年,我们预计将看到更多新颖的计算机视觉应用程序进入第一世界警察部队的主流——在发达国家资金极其充裕的城市中,预测性警务发挥着越来越大的作用。采用的增加部分将归因于IT工具自然而缓慢的升级——但部分将归因于成熟的人工智能供应商生态系统,该系统能够构建具有更简单和直观用户界面的人工智能工具。

关于Emerj的与警察相关的AI用例覆盖

对于这些主题的详细探索,我们建议读者在以下主题上探索我们更深入的用例探索:

追求道德的平衡——隐私与安全

执法用人工智能和机器人技术报告指出,随着用例日益扩展到增强的监控能力,对道德和隐私权的担忧不可避免地会出现。

考虑到在执法中使用人工智能和机器人所涉及的几个哲学、背景和情境的复杂性,该报告列出了“安全和隐私之间的平衡”的四个基本特征:

  • 公平:不得侵犯言论自由、无罪推定等权利。
    • 例子:如果一个人工智能系统判定男性(或特定种族的男性)更有可能是暴力犯罪的施暴者,那么是否应该将这些训练数据考虑在内,以便对潜在施暴者进行跟踪?
  • 问责制:人和机器必须在机构和组织层面负责。
    • 例子:如果人工智能系统协助了错误的指控,或者人工智能监控工具的错误给无辜的人造成了个人损失,谁将为错误负责,如何解决?系统的创造者会受到质疑吗?那些负责维护算法的人会以某种方式对公众负责吗?如果是的话,又该如何负责?
  • 透明度:AI系统所做的决定必须是透明的,而不是“黑盒子”。
    • 例子如果一个人工智能系统指示警察应该在哪里巡逻以防止暴力犯罪,那么这些建议的基础(可能是权衡的因素,以及它们是如何权衡的)对人类用户来说是清楚的吗?
  • Explainability:人工智能系统做出的决定必须让人类能够理解。
    • 例子:如果一个人工智能系统将某些沟通渠道标记为高风险或值得调查,它能否说明为什么一个信息(或人)被标记,而另一个没有?用户是否可以问“为什么”——或者提示机器的结论出现故障?

这些原则在不同的国家会有不同的解释。然而,对于几乎所有国家来说,随着人工智能的出现,所有监控模式都有可能得到改善——而这一不可避免的浪潮是每个社会都将努力应对的

该报告引用了一些参与制定人工智能伦理原则的大型国际机构,包括:

  • “电气和电子工程师协会(IEEE)发表了一篇关于自主和智能系统伦理(伦理对齐设计)的全球论文,以使技术符合道德价值观和伦理原则……”(我们已经涵盖了IEEE的伦理设计工作前一篇深入的文章).
  • “欧洲议会也这么做了提出一项咨询行为准则机器人工程师指导机器人的道德设计、生产和使用,以及一个考虑机器人法律地位的法律框架,以确保某些权利和责任。”

报告的作者坚持执法AI用例可以被视为重要的测试用例,可以设置道德的规范和机构使用人工智能和机器人技术对其他行业和组织中,并采用值得考虑在这个相对新生的阶段。

我们要特别感谢联合国区域间犯罪和司法研究所和国际刑警组织的工作人员,他们创建了一个论坛来探索执法中的人工智能,并努力编写本文所基于的原始报告(链接于本文开头)。

关于这个话题的更多细节,请点击播客人工智能伦理如何影响底线——一个实际问题的概述,或观看丹尼尔的YouTube短视频人工智能伦理:透明、问责和传递过去的美德信号

标题图片来源:CUInsight

保持在AI曲线的前面

发现区分未来商业赢家和输家的关键人工智能趋势和应用。

订阅《人工智能优势》通讯:

" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Thanks - check your inbox for a confirmation email">
" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Error - There was some problem.">
订阅
subscribe-image
保持在机器学习曲线的前面

加入超过2万名专注于人工智能的商业领袖,并接收我们每周发布的最新人工智能研究和趋势。

感谢您订阅Emerj“AI优势”时事通讯,请查看您的电子邮箱确认。