企业如何能够并可能如何应对明智的治理政策

拉巴拉
《阿凡达》

Raghav是Emerj的分析师,负责报道主要行业更新的人工智能趋势,并进行定性和定量研究。他曾在Frost & Sullivan和英菲尼迪研究公司(Infiniti Research)工作。

企业如何能够并可能如何应对明智的治理政策

关于人工智能伦理和人工智能可能影响政策的方式的讨论必然涉及三个利益相关者:世界各国政府和政策制定者、行业领袖和法规遵从机构,以及制定战略决策的企业高管。

企业可以说已经开始为人工智能应用建立有效的投资回报率,特别是在医疗保健金融和防御。话虽如此,人工智能在未来10年可能带来的伦理挑战仍存在一些问题。商界领袖和政府官员可能都在努力解决这些问题,而商界领袖可能会以相反的方式回应这些问题。

未来社会和全球人工智能计划最近公布了他们的调查结果,一个全球公民辩论的AI。这项调查对公众开放,在2017年9月至2018年3月期间吸引了2000多名参与者,为他们提供了一个讨论人工智能伦理考量的各种话题的论坛。结果报告部分涉及智能管理。智能治理涉及理解AI的影响,并制定政策来调节技术。

我们列出了一些伦理问题是建立AI公司和那些希望实现AI可能要以考虑最好地满足他们的业务目标,并保持良好的公共关系。最起码,我们推测在大型企业和小型企业将如何应对这些问题和机构如何监管应对可能开始关注相关的智能治理策略:

  • 在市场竞争保
  • 算法偏差
  • 算法的透明度

在这篇文章中,我们的目标是详细阐述这些考虑,并为大公司和小公司的商业领袖对公众舆论和监管机构的期望描绘一个可能的空间。未来社会调查的受访者也提供了他们对如何处理这些伦理问题的想法,我们将在下面对此进行更详细的讨论。

了解人工智能在未来可能或不可能实现的伦理考量,可能会在未来成功实现这项技术时发挥更大的作用。

在市场竞争保

AI的出现,鼓励风险投资;AI很可能是一个赢家通吃的投资机会,因为这可以访问大多数数据和最好的AI产品的公司很可能将有机会获得更多的数据在未来。更多的数据又会使其AI产品进行改进,更好的产品意味着更多的用户,更多的用户,更多的数据。

“数据是新的石油。”这是在数据科学界通过围绕一个共同的比喻,它引用了带有企业利用大数据的潜在破坏力。这就是说,并不是每一个公司拥有相同级别的数据访问权限,也没有获取数据的资源。在这种情况下,对数据的访问和拥有,加上良好的人工智能产品,可能会导致一个大公司可能成为“数据主导者”的市场。这可能会扼杀竞争。

例如,它不太可能是一个将军在线市场将能够在任何接近亚马逊的水平上竞争,因为亚马逊可以访问大量的数据,而其他公司在其领域没有。这些数据为其推荐引擎提供了动力,因此,与潜在的竞争对手相比,亚马逊仍然拥有最好的产品。

一个全球公民辩论的AI受访者担心,数据所有权,并反过来,人工智能技术,会在少数大公司和富人所拥有的资源来获取他们的手中积聚。受访者建议开放的源代码,更透明的机器学习算法,以及旨在减轻贫富差距尽可能的方式来对冲这个未来的经济政策。

企业将如何回应人工智能的伦理考量

在中国,Facebook、谷歌、亚马逊(Amazon)甚至百度等大公司已经是明显的数据主导者。因此,商业领袖们可以期待这些公司淡化他们在数据领域的主导地位。避免让人们注意到它们在人工智能方面具有的道德上有争议的优势,符合这些大公司的自身利益。由于成为唯一的数据主导者只会巩固一家公司作为市场领导者的地位,他们不太可能是开启有关数据公平使用和数据隐私的对话的人。

另一方面,绝大多数的小公司、初创公司和非科技公司没有足够的数据来启动任何有意义的人工智能项目。如果他们这样做,他们只是刚刚开始探索人工智能在他们行业的可能性空间。像Facebook和亚马逊这样的大公司是基于人工智能的,因此在数据访问方面远远领先于其他公司。这些小公司反对大公司在数据方面的主导地位,可能是出于自身利益的考虑,从而使他们出售产品的市场的公平性受到质疑。

商业领袖们可能会在未来几年里期待这一点,而这些小公司可能正在做对他们最有利的事情,公开反对数据主导者。加入对数据主导者的担忧的公众抗议,可能会对监管机构施加压力,以削弱以数字为基础的大型企业的主导地位。也就是说,如果这些小公司能够获得大量的数据,他们可能根本不会引起骚动。换句话说,企业方面任何道德上的愤怒都可能只会助长他们的商业目标。

企业如何将响应AI法规

《未来社会》的报告指出,企业有“将绩效置于安全之上”的历史。例如,金融和医疗公司可能会从客户那里收集敏感信息,比如他们的贷款和医疗记录。在a的情况下数据泄露例如:发生了什么事Equifax公司脸谱网在美国,欺诈者可以利用这些公司的数据窃取其客户的身份

安全措施可能花费的金钱和人力资源的大量实施,在此之前他们的品牌转而反对他们的舆论作为数据泄露的结果,企业可以不考虑这些。公司现在才得知他们需要并响应准备一个日益数字化的世界的伦理方面的考虑,以及AI,它运行在大数据,是下一个合乎逻辑的考虑。

企业领导人可以将现有的法规作为从政府机构那里得到的启示。U。美国政府有反垄断法或竞争法,这些法律通过确保在开放市场经济中存在公平竞争来保护消费者免受掠夺性商业行为的侵害。

因此,可以将这些规则扩展到数据和数据管理。这些未来的数据政策可能取决于大公司如何成功地为可能对他们有利的具体立法进行游说。与此同时,它们也可能取决于初创企业和小型企业在多大程度上成功地影响政策制定者或大众来实施调查受访者提出的一些建议,比如开放源代码政策。

拥有大量数据的大公司的c级管理人员可能想要计划万一发生的情况,并开发方法在这两种情况下都保持市场领先地位。如果政府决定将反托拉斯法扩展到数据领域,大公司可能需要根据规定确定它们愿意放弃的数据类型和数量,以及它们可能希望在法庭上争取的数据。对于较小的公司来说,做同样的事情可能不那么重要,因为它们可能存储更少的数据。

算法偏差

在大多数情况下,机器学习软件可以被归类为“垃圾输入,垃圾输出”系统。它们的好坏取决于它们所消费的数据。

机器学习训练的数据集通常由人类收集和标记。当这些人去收集和标记数据时,他们有自己的偏见和偏见。这使得向机器学习算法输入无偏数据变得极其困难。即使这些人没有意识到他们的偏见,最终得到的模型可能会和那些收集并标记其所训练的数据的人一样带有同样的偏见。

有没有代表性或有偏颇的数据开发的AI应用程序可能会引入算法偏差的系统,这反过来可能会无意中放大这些固有的偏见。例如,未来社会的报告指出,一些法官使用AI预测被告再犯率。这个分数通知的方式,法官判决被告。从理论上讲,在保超过法官的直觉估计累犯客观的,统计方法似乎可取的和公平的。

在现实中,AI其实并不客观。在该软件的试运行,有证据显示,非洲裔被告更有可能被误认为在对累犯比白人被告,谁是更容易被误认为低风险高风险。这个标记的数据然后进料到该计分在他们的再犯被告的算法。其结果是,该算法被训练上这是种族偏见的数据集。人类标注的数据,在本质上,灌输自己的种族偏见进入机器学习模型。

与大多数人所想的相反,考虑到人工智能的当前状态,将复杂的人类价值观整合到人工智能项目中,并期望它们根据特定的社会规范发挥作用,要实现自动化要困难得多。

据德国之声报道在美国,算法偏见是研究人员多年来一直致力于消除的问题,但收效甚微。商业领袖可能不得不接受这样一个事实,即他们今天可以获得的数据可能总是存在某种偏见。

企业如何应对对算法偏见的担忧

也就是说,那些想要建立机器学习模型的大公司最好避开那些包含有争议数据点的数据集。刑事判决中的偏见是一个公共部门的问题,在诸如底线之类的商业术语中没有真正的后果。在这个问题上的负面报道可能会影响人们的投票方式,但政府官员失去工作的可能性比私人公司大规模建立和实施这种有偏见的模式要小。

大企业应该意识到参与建设机器学习模型的PR风险。这样做时,他们可能会避免从他们用来训练他们的模型中的数据集省略某些类型的数据转向公众反对他们。例如,他们可以从他们的数据库馈入机器学习算法之前删除种族和性别的数据。然后,该算法可以根据身高数据,而不是,这在目前不太可能让公司在与大众的麻烦做出预测。

大公司可能会想办法利用这些有争议的数据,同时保持积极的公共关系。小公司可能有必要利用这一点作为卖点。例如,他们可以说他们的算法不考虑有争议的数据点。对于小型企业高管来说,最好的选择可能是希望他们的业务决策被大多数客户认为是好的。在现实中,可能没有一个决定能让每个人都满意。

算法的透明度

此外,将可解释性构建到机器学习系统中是一项极具挑战性的任务,而且对于大多数应用程序来说,它仍然没有足够好的解决方案。例如,在图像识别等深度学习应用中,人工智能软件可以被训练来识别视频中的人或物。

但深度学习本质上是复杂的,在某些情况下,研究人员只能猜测为什么该软件将视频中的实体归类为人或物体。其复杂性在于分析算法中各个计算节点的值,从而得出最终的图像分类结果。在机器学习研究中,这被称为机器学习的“黑匣子”。

算法透明度可能是另一个原因伦理关怀。例如,人工智能软件可能做出向哪里投资大量的决定投资者的钱。投资经理可能需要向投资者解释为什么人工智能会做出这些决定。如果他们不能,投资者可能会起诉他们工作的公司。类似地,基于人工智能软件做出诊断的医生可能需要向病人解释为什么软件会给他们诊断。如果病人的命运是由机器而不是由医生决定的,他们可能会感到非常不舒服。希望构建人工智能软件来做出此类决策的企业可能会发现,既要解决与该地区相关的公关难题,又要维护投资公司和医院等企业希望使用的产品,是一件很困难的事情。

未来公司将如何开展人工智能活动

AI应用程序可以从图像识别大大改变,从文件中提取文本。过这样的广谱性,语音的某些伦理附图可能是难以定义。这似乎是创建AI与来自偏见,总是用“人的价值是解决这些道德问题的显而易见的方法。但“人类价值”、“无偏见”和“好”等术语可能只有在与现实世界的人工智能应用相关时才有价值。

企业领导者可以理解的思维任何AI行动第一层应该在业务环境。如果AI应用不提供任何的回报,企业或许不应该在所有实现它,更不用说考虑它的伦理问题。

通常情况下,企业不具有伦理倾斜接近AI应用。这是比较常见的,一个企业都绕具有约他们已经实施了三个四个AI项目后,才AI的伦理方面的考虑的对话。对于一个小企业,还有可能需要一段时间AI道德成为一个重大问题他们。这可能工作,他们的优势,因为他们可以当它涉及到PR在未来几年他们的公关策略上的大数据统治者将面临可能的不可避免的困难建模。

关于构建道德AI的建议

未来社会报告说,只有少数受访者提出的ISO标准的AI和人权验厂为这些标准的建立。然而,在光谱的另一端,一些与会者还认为,ISO本身可能不是防止AI的滥用理想的屏障。

一些受访者还建议在人工智能系统中建立可惩罚的规则。然后,人工智能软件可能能够“学习”它可以操作的边界,并理解如何遵守这些规则。这可能有助于维持一个开放的市场和防止偏见。这些类型的解决方案在遥远的未来可能是有价值的,因为根据未来社会,任何这样的努力都需要对当前的法律制度和责任分配进行巨大的改变。

标题图片来源:西方杂志

保持在AI曲线的前面

发现关键的人工智能趋势和应用程序,在未来的业务中区分赢家和输家。

报名参加“人工智能优势”通讯:

" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Thanks - Check your email and open our welcome email to confirm your email address with Emerj">
" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Error - There was some problem.">
订阅
订阅图像
保持在机器学习曲线的前面

在Emerj,我们拥有最大的关注人工智能的在线商务读者群体——加入其他行业领袖的行列,每周收到我们发送到您收件箱的最新人工智能研究、趋势分析和访谈。

感谢您订阅了Emerj“AI Advantage”时事通讯,请检查您的电子邮件收件箱以进行确认。