商业领袖的人工智能道德——有人应该关心吗?

丹尼尔Faggella
《阿凡达》

丹尼尔是Emerj的研究主管。在联合国、世界银行(World Bank)、国际刑警组织(INTERPOL)和许多全球企业的呼吁下,丹尼尔成为了一名颇受欢迎的专家,研究人工智能对企业和政府领导人的竞争战略影响。

IEEE AI的文章

本文是与IEEE合作撰写的。有关内容伙伴关系的更多信息,请访问Emerj合作页面

直到最近,关于人工智能的“道德担忧”一直被视为荒谬的,是科幻小说中的东西。对一些人工智能研究人员来说,将“伦理学”和“人工智能”放在同一句话中似乎还为时过早。

IEEE在伦理上对齐设计V1
IEEE在伦理上对齐设计V1

今天人们关注的不仅仅是施瓦辛格的电影杀手回形针的机器然而,。人工智能研究领域的一些成员认为,如今更紧迫的问题是:人工智能偏见(根据种族、性别或其他标准)、个人隐私和算法透明度(明确机器决策的规则和方法)。

电气和电子工程师协会(IEEE)已经开发了几十年的技术标准(针对流行的技术,如Wiki协议,以及更小众的技术)。2016年,他们决定做一些新的事情:围绕自主和智能技术建立道德标准。2016年12月,IEEE发布了一份题为《符合伦理的设计:用人工智能和自主系统优先考虑人类福祉的愿景》的报告第一版。

我的兴趣是在听到了这份新报告(在加入“幸福感”委员会电话和头脑风暴的数量),但我意识到如果我想介绍这一研究中,我必须找到一个办法,这样会为我的生意带来洞察力和价值的读者。所以我问了同样的问题,当我为Emerj的观众写文章时,我总是问:

“......为什么要企业领导关心这个吗?”

这并不是因为我认为商界人士冷漠,不关心伦理或道德问题。相反,这是因为企业领导人有紧迫的当前问题需要解决,他们没有时间去考虑30年后的威胁。他们所关心的不仅是抽象的道德推理,还包括保持员工的工资,通过创收和在市场上击败竞争对手来维持公司的生存。

所以我决定澄清某些所有的IEEE P7000™标准工作组的负责组建文档的主席,我问他们只是两个简单的问题:

  1. 哪些类型的企业应该考虑到你的标准,为什么?(即为什么现在有关业务人员,这些标准?)
  2. 在真实的商业环境中,遵守这个标准会是什么样子呢?

我的目的不是为了证明或反驳的AI对企业家的道德问题的实用性,而是提供一个平台,让他们通过我们这里Emerj商业领袖读者进行探讨。当谈到Emerj的终极使命,几个任务比周围激起我们的技术可能把我们的方向道德话语更有意义。

背景上自治的道德与智能系统的IEEE的全球倡议(以下简称“IEEE全球倡议”)

IEEE全球倡议的使命如下:

确保参与自主和智能系统设计和开发的每个利益相关者受到教育、培训和授权,优先考虑伦理方面的问题,从而使这些技术为人类造福。

在我与IEEE领导人会谈(特别是与约翰·黑文斯,在我的采访Konstantinos Karachalios- IEEE标准协会的常务董事),很明显,第一个版本的符合伦理的设计是为了激发对话和充实可能性,而不是围绕“软”的伦理问题强加硬性的界限。这似乎是开始的正确方式,我建议读者在阅读下面列出的原则时,采用同样开放的心态。

在下面的文章中,我们将探讨由IEEE P7000系列标准组成的11个标准工作组,所有这些标准都是受到IEEE全球倡议组织成员在编写符合伦理的设计时的启发。每个部分包括标准工作组的总结(由IEEE提供),大多数部分还包括这些工作组的一个或多个主席对我上面提到的两个问题的回答。

Note that I only mention the Chairs who replied and are responsible for the answers seen below, and note that while many of these Chairs have many distinctions and titles, I’ve chosen one that seems most pertinent to this article, and I’ve included links to learn more about the individual Chairs themselves.

事不宜迟,我们将深入探讨了P7000标准的“肉”工作组和主席的有关的一些人工智能的伦理问题的潜在业务相关的发言稿:

P7000 -系统设计过程中处理伦理问题的模型过程

标准的总结:

P7000概述了一种识别和分析系统或软件程序中潜在的伦理问题的方法。基于价值观的系统设计方法在开发的每个阶段都考虑伦理因素,以帮助避免负面的意外后果,同时增加创新。

(P7000工作组的来源/联系信息)

椅子回应:

约翰天堂他是IEEE自治和智能系统伦理全球倡议的执行董事

萨拉Spiekermann,霍夫博士维也纳经济贸易大学管理信息系统研究所(吴维也纳)所长

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

即建立或任何类型的企业部署的技术系统可以使用P7000。这将有助于这些企业通过重点围绕价值品质的系统可以有启发整个系统的设计过程中,以提高他们的客户价值主张。什么是最重要的:由系统破坏任何人的价值观受到威胁或可能将继P7000进程和提出处理它们的机制来识别。通过这种方式,企业对从项目开始他们的雷达伦理或价值相关的挑战,并能减轻在技术层面上早很多风险。

在真实的商业环境中,遵守这个标准会是什么样子呢?

坚持P7000将意味着新的技术项目经历一个展望未来的早期阶段,应用理性的决策工具来理解它们的价值图景。这需要一些时间,但不会太多。这是一个严格的、以价值为中心的开发阶段的开始。

P7001 -自治系统的透明性

P7001 -自治系统的透明性标准的总结:

P7001为开发自主技术提供了一个标准,该标准可以评估用户自己的行为,并帮助用户理解为什么一项技术在不同的情况下会做出某些决定。该项目还提供了为系统提供透明度和可靠性的方法,以帮助指导和改进系统,例如在自动驾驶汽车中集成事件数据记录器或从设备的传感器访问数据。

(P7001工作组的来源/联系信息)

椅子回应:

艾伦·温菲尔德他是西英格兰大学(University of the West England)机器人伦理学教授

内尔沃森,人工智能与机器人学院,奇异大学

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

任何一个企业开发自主系统(即自主机器人或认可 - 包括嵌入式认可当然机器人)是 - 如果他们做出错误的决定 - 可能对人体造成危害。这包括身体伤害(伤害或死亡),财务或心理伤害,并涵盖了非常广泛的系统和应用程序。

高调的例子包括:无人驾驶汽车,无人驾驶飞机和辅助生活(保健)机器人。

而属于同一类别的软人工智能系统将包括医疗诊断AI(即使它们只是“推荐”系统)、贷款/抵押贷款申请推荐系统或“伴侣”聊天机器人。

要想知道一个系统是否属于我所考虑的范畴,一个很好的测试方法是问问自己,在他们的系统出了问题并造成一些严重的损害之后,开发人员是否会最终走上法庭。

在真实的商业环境中,遵守这个标准会是什么样子呢?

对于P7001来说,这个问题更难回答,因为我们还处于起草的早期阶段,但是标准将为每个“涉众”团体定义可测量的、可测试的透明度“级别”。这些群体包括用户、安全认证工程师和事故调查人员(以及其他我们仍在研究的人)。很容易看出,一个老人为了理解她的看护机器人在做什么而需要的透明度与一个工程师为了保证它的安全性而需要的透明度是非常不同的。同样,无人驾驶汽车中乘客所需的透明度与事故调查员所需的完全不同。因此,我们在P7001中有效地起草了几个标准——每个标准都为不同的涉众群体定义了透明级别。

一个企业发展的自主系统将使用P7001进行自我评估他们对我们在P7001定义级别制度的透明度,对于每个不同的利益相关者群体的 - 我们希望 - 鼓励使用以提高其产品的透明度级别更高级别的透明度(我们预计将在要求苛刻的设计师来实现)作为目标瞄准。

这样做的好处是,他们可以宣称他们的机器人符合IEEE P7001等级4(用户)、5(认证工程师)等标准。我们不期望P7001是强制性的,因为它是一个通用的、基本的标准。然而,我们希望会有一些衍生标准,例如P7001.1、P7001.2……每一个都适用于特定的应用领域。其中一些——尤其是对安全至关重要的人工智能系统(如无人驾驶汽车或无人机自动驾驶仪)——可能会在监管范围内强制执行。

P7002 -数据隐私的过程

P7002 - Data Privacy Process标准的总结:

P7002规定了如何管理收集个人数据的系统或软件的隐私问题。它将通过定义涵盖公司数据收集政策和质量保证的需求来做到这一点。它还包括用于开发涉及个人信息的应用程序的组织的用例和数据模型。该标准将通过提供利用隐私影响评估来识别和测量系统中隐私控制的方法来帮助设计者。

(P7002工作组的来源/联系信息)

椅子回应:

的Aurélie罗尔斯首席富有远见和联合创始人,介意你的隐私

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

所有数据驱动的组织/业务在某个时候都涉及到唯一地标识个人或可识别的个人组是对你问题的第一部分的直接回答。由于数据是一种新的电力,公司越来越多地把信心放在刺激增长、捍卫利润上,个人或其代理人数据使用的后果正越来越多地影响着我们的生活。

这种数据狂热侵蚀和重新洗牌了我们社会的基本权利,通过我们,我们的家庭,孩子或亲人的选择,信号和从这些选择中产生的计算出的决定。

在欧洲,“尊严”是国内首创的“6项权利”内的认可欧洲联盟基本权利宪章。第一条人的尊严的会谈是不可侵犯的,第7和8分别是尊重私人及家庭生活,以及保护个人资料的说法。

这些基本原则影响了可追溯至1995年的数据保护立法的改革。

到2018年5月,《一般资料保护规例》将适用于所有处理在欧盟内的资料当事人的个人资料的业务,不论是否成立(以及在特定情况下)。

为了保证问责性,在举证责任倒置的同时GDPR这还带来了新的罚款,最高可达全球营业额的4%,即2,000万欧元,这是有史以来最高的。

在真实的商业环境中,遵守这个标准会是什么样子呢?

源自P7002现行大纲:

其目标是定义一个流程模型,该模型定义了如何最好地针对用例和数据模型(包括元数据)预形成一个面向QA的可重复流程,以考虑使用员工、客户或其他个人数据的产品、服务和系统的数据隐私。

通过提供具体的步骤、图表和检查表,本标准的使用者将能够根据具体的隐私实践和/或机制进行基于需求的符合性评估。隐私影响评估(PIAs)还将作为一种工具,用于识别哪些地方需要隐私控制和措施,以及确认这些控制和措施是否到位。PIAs的元素还充当记录的数据系统。

通常,这将意味着至少,并且与GDPR对齐,有一个过程来代替,以限定当需要(d)PIA - GDPR的文章35:

一种处理在特定的使用新技术,并考虑自然、范围、背景和处理的目的,可能会导致高风险自然人的权利和自由,数据控制器应当进行处理之前,评估影响的设想对保护个人数据处理操作。”

将建立补救措施以限制风险,并使这种检测和这些措施成为健全过程的一部分。

P7003 -算法的偏差问题

P7003 - Algorithmic Bias Considerations标准的总结:

P7003为自主或智能系统的算法开发人员提供协议,以避免其代码中的负偏差。偏见可能包括使用主观的或不正确的数据解释,比如错误地将相关性与因果关系联系起来。该项目提供了具体的步骤,以消除负面偏见的问题,在创建算法。该标准还将包括基准测试过程和标准,用于选择验证数据集、建立和通信算法所设计的应用程序边界,以及防止意外后果。

(P7003工作组的来源/联系信息)

椅子回应:

Ansgar Koene,卡斯马高级研究员,理学院,诺丁汉大学

Paula Boddington,牛津大学,计算机科学系,部会员

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

应考虑P7003的企业是那些正在使用或计划使用自动化决策(支持)系统(这可能会或可能不会涉及AI /机器学习)的过程中,影响客户体验。典型的例子包括与个性化或个人评估任何东西。这会产生不同的结果对某些人比其他任何系统是开放的,认为有偏见的挑战。可能包括:

  • 该检测被盗或可疑行为监控摄像机的应用
  • 根据个人喜好和行为校准报价、价格或内容的营销自动化应用程序
  • 等等……

此外,任何系统,执行过滤功能,通过选择优先级,客户将发现一些项目,而不是其他(如搜索引擎或推荐系统)。

需求规格说明由P7003标准提供的服务将允许创作者传达给用户,监管机构,在设计中使用的最高最新的最佳实践,测试和算法的评估,以试图避免意外,不合理和不恰当的差对用户的影响。

这些都是相关的,因为现在在媒体上的呼声越来越高。https://www.theguardian.com/news/datablog/2013/aug/14/problem-with-algorithms-magnifying-misbehaviour)及立法者(例如https://ec.europa.eu/futurium/en/blog/open-call-tenders-algorithmic-awareness-building-study)约创建或通过算法恶化可能隐藏偏差。

在真实的商业环境中,遵守这个标准会是什么样子呢?

由于该标准的目的是考虑不同用户(如企业)的合法目的,因此它应该帮助企业向客户保证,他们已经采取措施,确保公平符合他们所声明的业务目标和实践。例如,它可以帮助保险公司的客户更加确信,他们不会因为算法的隐藏操作而得到更糟糕的交易。

作为一个实际的例子,一个在线零售商开发一个新的产品推荐系统,可以使用P7003标准如下:

早在开发周期中,概述了新系统P7003指南的预期功能后,通过考虑可能的客户群体的过程中,开发人员,以确定是否有需要特别考虑(例如,有视觉障碍的人)小组。在发展的下一阶段中的显影剂被建立测试数据集,以验证是否如所期望的系统执行。引用P7003开发商提醒的某些方法来检查,如果如果所有客户群体都在测试数据足够的代表,以避免某些客户群体服务的质量降低了测试。

在整个开发过程中,P7003要求开发人员明确地考虑推荐过程中使用的标准和基本原理,即为什么这些标准是相关的,为什么它们是适当的(在法律上和社会上)。编制这些文档将有助于企业应对客户、竞争对手或监管机构可能提出的关于该系统所产生的建议的未来挑战。同时,这个分析过程将帮助企业了解这个推荐系统可以放心使用的环境,以及哪些使用需要额外的测试(例如客户的年龄范围、产品类型)。

P7004 -关于儿童和学生数据治理的标准

标准的总结:

P7004提供了透明度和问责程序和认证的教育机构这意味着处理数据,以保证学生的安全。该标准定义了如何访问,收集,在任何教育或机构设置与儿童和学生分享,并删除数据,他们的信息将是访问,存储或共享。

(P7004工作组的来源/联系信息)

P7005 -雇主数据治理标准

P7005 -雇主数据治理标准标准的总结:

P7005提供关于以道德和透明的方式存储、保护和使用员工数据的指南和证书。该项目推荐一些工具和服务,帮助员工根据个人信息做出明智的决定。该标准将有助于为员工如何在安全可信的环境中共享信息,以及雇主如何在这一过程中与员工保持一致,同时仍能利用常规工作流程所需的信息提供清晰度和建议。

(对于P7005工作组的源/联系人信息)

椅子回应:

乌尔夫·本特松,经理,经理在索尼移动Communicatins AB

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

每一家公司都有员工的电子信息。公司越大,它就越重要。这主要有两个原因:

  1. 立法规定在全世界超过100个国家的最低标准。从长远来看,遵循满足这些不同立法标准的标准将节省资金。例如,未完成欧盟gpr的罚款最高可达年营业额的4%,或2000万欧元,以最高(http://www.eugdpr.org/)。
  2. 为了确保以保持员工的完整性,从而造就了公司,这将有利于高级人才招聘了良好的口碑。

在真实的商业环境中,遵守这个标准会是什么样子呢?

我没有看到基础,坚持具体业务情况这一标准,除非潜在客户请求做生意,像如坚持ISO 9000这是更多的是公司基建的事情,以确保业务能持续下去(见第一个问题的答案)。

P7006 -个人资料及智能代理工作小组标准

P7006 - Standard on Personal Data AI Agent Working Group标准的总结:

P7006地址的担忧引发了机器无需人工输入时做出决定。该标准希望教育政府和行业为什么最好是建立机制到位,以实现的,这将减轻伦理问题时,AI系统可以组织和分享自己的个人信息系统的设计。作为一种工具,允许任何个人基本上是创建自己的个人“的条款和条件”为自己的数据,人工智能代理将为个人来管理和数字化和虚拟世界控制他们的身份的技术工具。

(对于P7006工作组的源/联系人信息)

椅子:

国务秘书Hasselbalch联合创始人,DataEthics

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

创新意味着以新的方式满足新的需求。该标准针对的是大数据时代的一个转变,即企业必须保持领先地位,以保持竞争优势。消费者开始担心缺乏控制数据和缺乏洞察力的原理和机制,定义他们的机构在大数据环境中,他们已经开始采取行动,寻找服务和企业,为他们提供控制和机构。

在数据分析、知情同意、透明度和问责制等方面,相关立法也在对企业做出类似的调整,提出了新的严格要求(2018年5月生效的新的欧盟数据保护立法就是一个例子)。根据这些变化开发服务和产品的公司不仅要处理即将到来的正式需求,而且还要处理总体上的未来社会需求。

P7007 -本体论标准在伦理驱动机器人与自动化系统

伦理驱动的机器人和自动化系统的本体论标准标准的总结:

P7007建立了一套与包含的概念,定义和有必要建立道德驱动的方法对机器人和自动化系统的设计公理不同的抽象层次本体。

(P7007工作组的来源/联系信息)

椅子:

埃德森普雷斯特,披机器人研究小组,UFRGS的教授兼系主任

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

任何涉及或计划涉及机器人与自动化(R&A)的业务。公众和民间机构更了解在日常生活中使用人工智能和R&A系统的伦理含义。但是,它们没有明确的术语和准则来判断和处理这些影响。P7007旨在填补这一空白。

P7007势必会影响利益相关者应当从R&A系统,这反过来将影响R&A的产品将从道德角度来感知的期望。我们毫不怀疑,伦理问题将在不久的将来增加价值,任何R&A制度。我们认为,加入P7007的公司将是一个(或两个)步骤领先于竞争对手。通过介入有此举措的权利,利益相关者将能够使P7007更深,更广,更强,也更准备向即将到来的变化。我们也希望P7007将有关企业在相关领域的工作,如机器学习,大数据,物联网等。

在真实的商业环境中,遵守这个标准会是什么样子呢?

几个例子来立即在脑海中。政府机构将被迫由市民按照道德标准规范机器人的发展。P7007可以用作起始点以创建调节,无论是作为一组的强制性要求或作为参考文件。

在这种情况下,公司将使用P7007为手动,帮助他们了解和遵守相关法规。这可能会导致新的市场,以及降低业务风险。在一个更技术说明,在P7007的本体可能在很多情况下被用来作为一个框架,像定义软件结构的具体道德行为或改善人类与机器人和机器人的机器人通信。

对于前一种通信方式,a公司可以考虑在机器人上增加软件模块,以保证用户数据的隐私,保护用户数据不被外部第三方操作。

对于后者,可以设计接口来监视和通知用户机器人的任何故障、异常情况或机器人的日常活动。例如,一个机器人保姆可以告诉父母它和孩子在一起的时间和所做的活动,警告孩子缺乏与人接触的不健康情况,这可能会损害他们的认知发展。

P7008 -用于机器人、智能系统和自主系统的道德驱动轻推的标准

P7008 -用于机器人、智能和自主系统的道德驱动轻推的标准标准的总结:

P7008建立了一个典型的轻推(目前正在使用或可以创建)的描述,其中包含了必要的概念、功能和好处,以建立和确保机器人、智能和自主系统设计的伦理驱动方法。机器人、智能系统或自主系统所展示的“轻推”被定义为旨在影响用户行为或情绪的公开或隐藏的建议或操作。

(对于P7008工作组的源/联系人信息)

椅子:

劳伦斯Devillers他是巴黎索邦大学(University of Paris-Sorbonne)计算机科学教授

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

推动使用人工智能应用程序的电脑,聊天机器人和机器人现在世界上稳步增加,在私人和公共部门例如健康、福利(例如,将人工智能工具使我们少喝酒吗?),和教育应用中,政府公共政策的税收,为私营部门营销等。

为什么是轻推标准相关的公司吗?

AI得到了巨大的机会,不仅提高效率,降低成本,而是建立轻推过程与责任和伦理规则。

无锚定到稳健的合规性和核心价值观部署AI可能暴露于显著风险,包括数据隐私,健康和安全问题。潜在的罚款和制裁可能危及经济。

的意想不到的后果随着技术的发展的影响,可能会导致名誉受损,在最坏的情况下,客户的信任的损失和股东价值。

在真实的商业环境中,遵守这个标准会是什么样子呢?

我们的目的是,这个轻推标准将被用于多种方式,包括:

  • 在机器人,智能和自治系统的发展为方针,
  • 作为“积极推动策略类型”的参考,使来自不同社区(包括机器人、智能和自主系统、伦理和相关专业领域)的成员之间能够进行清晰和精确的沟通。

使用本标准有以下几个好处:

  1. 语言无关表示法中特定领域的“轻推”的形式定义;
  2. 工具用于分析轻推功能和优点以及它们与用户的认可和信赖的关系;
  3. 来自不同制造商和用户的机器人、智能系统和自主系统之间的通信过程中使用的语言。

这个标准对于真实的业务用例非常有用,比如下面两个真实的例子:

  • “轻推营销”是推动农产品销售的最有效策略(例如:Nudge.ai)
  • 家庭机器人轻推老年人保持社会和活跃。例:ElliQ,老年人目的的机器人伴侣,以促进活动,并通过轻推他们参加数字和物理活动解决寂寞。
    • 类似这样的应用程序(如上)可能会受益于围绕其意图来影响人类行为的move公开标准和实践的使用。在未来,这种预期的行为改变的透明度(以及鼓励这种改变的方法)可能会受到质疑,而拥有明确标准的公司更有可能获得信任,并避免法律上的麻烦。

P7009 -自治和半自治系统的故障安全设计标准

P7009 - Standard for Fail-Safe Design of Autonomous and Semi-Autonomous Systems标准的总结:

P7009确立具体的方法和工具的开发,实施和自主和半自治系统有效的故障安全机制使用一个实用,技术基线。该标准包括(但不限于):用于测量,测试和认证系统对从弱规模安全无法能力强于业绩不理想的情况下改善明确的程序和说明书。该标准可作为开发人员,以及用户和监管机构的基础上,在一个强大的,透明的和负责任的方式来设计的故障安全机制。

(对于P7009工作组的源/联系人信息)

椅子:

Danit加他是北京大学燕京学者、清华大学国际问题研究中心战略顾问

艾伦·温菲尔德他是西英格兰大学(University of the West England)机器人伦理学教授

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

每个企业,无论大、中、小,甚至是初创阶段,在设计、部署和使用自治和半自治系统时都应该考虑这个标准。原因很简单,这个世界上没有什么是万无一失的。我们设计这样的系统是为了尽可能的安全,超越了普通人类实时计算、预测和应对外部威胁的能力。

我们擅长设计产品以使其平稳运行,但却常常忽略了在产品出现故障时如何停止运行,以及在此情况下可以和应该做些什么来确保用户的安全。能够预测各种各样的系统故障并对其进行实时管理和响应是设计安全系统的核心部分。不把这一关键组件作为我们设计的一部分意味着对我们交付给用户的产品质量的严重损害。

在真实的商业环境中,遵守这个标准会是什么样子呢?

在真实的业务环境中遵守这个标准将是利用开发的特定方法的技术基线,以帮助工程师度量、测试和验证系统安全失败的能力。这为开发人员提供了必要的工具来考虑系统故障的不同可能性,并设计出安全响应它们的方法。至少在我们能成功预防之前。

该标准将设计得足够灵活以适应不断发展的产品规范和用户需求,但又足够严格以提供可靠的故障安全度量工具。我们考虑的一些关键应用是自动驾驶车辆、无人机、伴侣机器人和自动武器系统。

设想以下潜在的用例:

  • 你坐在自动驾驶汽车里,带着两个孩子去上学,在上午9点的重要会议前喝早茶。突然你的车被黑了,你失去了对自动驾驶仪的控制。
  • 这些黑客勒索你,要不就给你一百万美元,要不就把你逼入绝境。你是做什么的?
  • 也许你可以按下死亡开关,但如果你在高速公路上,突然停车会让你和你周围的人处于危险之中。
  • 我们需要一个替代的解决方案,这些有意或无意的故障,可以预期并当场妥善解决。例如,在一个地方失败,证明协议取代当前的系统和安全航行汽车边线和关闭可以在多个生命和减少损害保存到周围环境中出现上述情况。

系统失败。我们必须随时随地做好准备。

P7010 -幸福度指标:伦理、人工智能和自主系统的标准

P7010 - Wellbeing Metrics Standard for Ethical Artificial Intelligence and Autonomous Systems标准的总结:

P7010将确定并突出显示福祉与直接受智能和自治系统人为因素指标和建立的各类客观和主观数据的这些系统应该分析,包括基线(在他们的规划和运作),以主动提高人类福祉-存在。

(P7010工作组的来源/联系信息)

椅子:

约翰天堂他是IEEE自治和智能系统伦理全球倡议的执行董事

劳拉Musikanski她是幸福联盟的执行董事

哪些类型的企业应该考虑使用你的标准,为什么?(即为什么现在有关业务人员,这些标准?)

尽管可以理解组织全球都意识到需要将可持续性措施,其努力的一部分,底线的现实,季度推动股东增长是一个传统的度量标准在大社会中的优先级。凡成功一个更大的社会生态系统的等值指数增长,由GDP或类似的财务指标作为反映存在的组织,这些公司将继续承压取得成果不完全纳入社会和环境的措施和目标与现有的财务必要性一起。

以及如何将可持续发展措施超出合规意识的加强可以受益的积极与组织在公共领域的品牌,优先增加整体的福利,公司也承认,在那里他们可以保存或赚钱,增加创新的过程。

例如,当一个配备有测量老年人情绪的辅助生活环境的伴侣机器人可能会以典型的“快速行动和打破常规”的技术制造模式启动,这种模式主要以财务指标为成功的优先级,这些设备可能会因为采用有限而在市场上失败。

然而,当他们也考虑到数据与测量情绪、抑郁或其他因素(包括生活满意度、影响和目的)的统一度量标准一致时,该设备可能在幸福量表上得分非常高净推荐值今天广泛使用。如果根据来自像可信源的度量该装置可以降低显著抑郁世界卫生组织在美国,对早期版本的系统进行测试的学术机构将更有能力获得所需的资金,全面推进自主和智能幸福感研究。

在真实的商业环境中,遵守这个标准会是什么样子呢?

IEEE P7010标准的目标不是创建一个新的度量标准,而是直接将人工智能设计和制造与现有的、已建立的指标联系起来。其他组织也在这样做,比如经合组织在2017年2月的研讨会上,在测量人们的福祉业务影响

同样的,B-公司运动为“一种利用商业力量解决社会和环境问题的新型公司”创造了独特的法律地位。”Focusing on increasing “stakeholder” value versus just shareholder returns, forward-thinking B-Corps are building trust and defining their brands by provably aligning their efforts to holistic metrics of well-being.

类似的努力已经通过创建世界经济论坛的包容性发展指数正如他们的文章所概述的,对经济增长的以人为中心的模式

就IEEE P7010如何适应这一情况而言,我们的目标是创建一种方法,能够将来自人工智能设备或系统的数据输出与各种经济指标相关联,从而拓宽价值视野,而不仅仅局限于财政问题。否则,所有的人工智能都将以指数级增长为优先级,而这将冒着加速自动化的风险,主要是作为一种财政理由,而不是普遍可用性,以及这项令人惊叹的技术对所有人的好处。

世界经济论坛的这篇文章是这样阐述与当今商业相关的总体需求的:

21世纪需要一种新的领导方式,来激发人们对技术增强人类潜能的信心,而不是取代人类潜能。正是这种领导力,让我们相信自由主义的国际经济秩序有能力在发达经济体和新兴经济体融合的过程中提高它们的生活水平,提升我们,而不是把我们分开。

要点和讨论

这是从主席的意见明确指出,P7000标准正在开发中,并预计商业和社会的关注,这将(或可以)在我们的日常生活中的个人数据和人工智能的扩散所引起。

目前正在制定的标准的“业务价值”(由主席们自己阐述)似乎可以分为以下几类:

1 - 避开了法律风险或PR灾害

作为欧盟引入的立法和指导方针个人数据的使用,更多地区可能会效仿。随着Facebook因允许俄罗斯当局操纵美国大选结果而受到批评,其它公司可能也会受到类似的审查。

个人资料的“狂野西部”可能即将结束,IEEE P7002的主席认为,商家应在标准制定过程的一部分,因为他们将是那些与当局在技术是如何在市场上应用摔跤。

2 -预期透明度

IEEE标准工作组的主席们似乎相信,我们的共同技术将需要更大的透明度。IEEE P7001似乎认为,“烘烤”透明度(以一种清晰的、结构化的方式)可以帮助公司适应对这种透明度可能不可避免的要求。

没有这些标准的公司可能不仅要处理消费者的信任问题,还要对那些没有考虑到透明度和标准的健壮的人工智能系统进行更昂贵的升级。

与消费者和监管者建立信任和善意

消费者可能会对使用他们的数据或通过目标算法影响他们行为的系统越来越警惕,对清晰度和道德标准的总体需求可能会增加。在很大程度上,企业似乎有必要尽可能多地隐藏自己的“秘密武器”(算法、决策过程、数据的战略使用),但社会压力可能会导致企业开放(或至少假装开放,就像许多企业现在所做的那样)。

各工作组主席似乎认为,公司谁引领透明度努力的包可以被看作是更多的社会意识和仁慈的 - 在几乎相同的方式,围绕产假进步政策或变性员工可能同样帧公司作为“好人。”知觉的管理是任何企业(尤其是上市公司)的重要。

商业领袖可能有必要梳理以上各部分,并确定可能对其业务产生压力或在其利益相关者心中产生重要影响的重点领域(如算法透明度、儿童和学生数据的使用等……)。全文阅读伦理上一致的设计这激发了这些标准工作组(在这里可以找到什么)可能是卓有成效的,除了头脑风暴大约在未来的岁月“如果 - 那么场景”为自己的业务。

参与并感谢IEEE

这篇文章需要大量的编辑工作,以及来自不同P7000工作组的十几位IEEE成员的参与。我要感谢IEEE全球倡议和标准工作组的成员贡献了他们的材料,感谢IEEE的John C. Havens为了收集Emerj的观点而接触所有工作组。

想要参与人工智能伦理讨论的企业可以自由地联系IEEE的工作组(参见上面工作组总结部分的链接),并考虑在这些标准继续发展的同时加入并通知正在进行的对话。

标题图片来源:无忧实验室

订阅图像
保持在机器学习曲线的前面

在Emerj,我们拥有最大的关注人工智能的在线商务读者群体——加入其他行业领袖的行列,每周收到我们发送到您收件箱的最新人工智能研究、趋势分析和访谈。

感谢您订阅了Emerj“AI Advantage”时事通讯,请检查您的电子邮件收件箱以进行确认。