人工智能
实施人工智能技术的IT领导人可能会感到一些恐惧,这有着充分的理由。
人工智能在拥有数十年发展和应用历史的同时却有着奇怪的定位,但对于许多人来说,人工智能仍然是一种未来主义的感觉。实际上人工智能并不是新事物,但它始终是一个永恒的“新”领域。没有人可以确切地知道其发展到底会何去何从。
对于不了解的事物,一些人会感到害怕。而人工智能的未来发展也让很多人彻夜难眠,这是有道理的,尤其是考虑到可能出现的不利后果时。人们可以合理地假设任何重大技术发展都是如此:它们将会产生变化,从而令人感到恐惧。但是,与人工智能相关的恐惧却有不同的优先级。例如,大多数人不知道什么是微服务架构,即使他们每天使用的一些应用程序是以分离的方式构建的。但是像微服务这样的技术进化并不会像人工智能那样对潜在的社会和经济影响产生这样的情感反应。微服务也不会在流行文化中一直存在。
这主要说明了人们对人工智能发展前途并不明朗的担忧,当人们的想象力失控时,就会很难评估它们的有效性。这对于如今试图构建实用人工智能战略的IT领导人和其他高管来说并不是特别有用。然而,很多人会对人工智能感到恐惧,并且有着充分的理由。对于人工智能的入门者来说,他们更容易失败,因为他们通常基于当前的现实,而不是未来的推测。
加州大学欧文分校神经科学研究助理、ContinualAi公司联合负责人Keiland Cooper表示,“人们对人工智能的恐惧类型取决于人们所谈论的人工智能类型。与当今普遍使用的更现实的人工智能算法相比,理论性更强、更遥远的‘通用人工智能’(一种能够完成人类所能做的所有事情的计算机)将引发更多的恐惧。”
以下了解一下当今有关人工智能的五个问题,以及专家为解决这些问题而提供的建议,这样就不会破坏企业实施人工智能的计划。
1. 恐惧:人工智能会产生有偏见的结果
人们越来越关注人工智能系统中的偏见和其他问题及其导致的决策或结果的可能性。与好莱坞电影的一些更富想象力的人工智能故事不同,人们应该对于人工智能的偏见感到恐惧。
SkyMind公司联合创始人兼首席执行官Chris Nicholson说,“人工智能的算法只和训练数据一样好。因此,如果一个数据集包含了组织的历史偏见,那么它所做的预测将反映这一历史行为,例如,如果一家公司通常会将拥有常春藤名校学位的白人男性提升到权威职位,那么经过培训的人工智能算法可以识别出未来的领导才能,并将其重点放在同一类型的应聘者身上,并且忽略不属于该类别的应聘者。”
解决方法:
人们应该接受这种恐惧并采取行动。无需担心人工智能偏见会增加其不受控制地扩散的可能性。
人工智能算法不应免除个人和组织对结果的责任。人工监督和管理是绝对必要的,并且有很好的例子说明了另一种恐惧(不再需要人类)可能有点言过其实。
Nicholson说,“人们不能相信人工智能能够知道一切或做出完美的决定。人工智能算法是由人类创造的,但人类也会犯错。所以每个公司都要做的是建立一个系统来检查人工智能,或者定期抽取人工智能的决策样本并展示给专家,并询问他们:这看起来正确吗?而其结果至少不会比专家差,这是企业最初所希望的结果。”
这在医疗、保险、银行、政府等行业可能尤为重要。但事实上,在任何地方这都是一个重要的问题。
Tara-Ai公司联合创始人兼首席执行官Iba Masood表示,“人工智能从业者和机器学习工程师必须确保他们在一定程度上遵守算法责任制,IT主管应该有专门的数据团队为他们现有的数据集构建消除偏见的程序。这将有助于在利用系统进行决策过程中,特别是在涉及最终消费者的情况下,需要实现一定程度的公平和公正。”
这是一个道德和公平的问题。Masood认为,人工智能伦理也可能成为一种竞争性的区分标准。
Masood说,“我相信,未来五年将会有更多的具有公平意识的消费者,他们希望与那些在人工智能辅助下的决策过程中部署公平机制的公司进行交易。通过努力减轻用于基于决策的系统的数据集的偏差,IT团队可以在这种消费者行为转变中产生重大影响。”
2.恐惧:人们不知道人工智能为什么会这么做
这是对未知事物的另一种自然恐惧:许多人工智能的结果很难解释。
Nicholson说,“人工智能先进的形式能够对数据做出最准确的预测,但也最难解释为什么做出这种预测。”
这有时被称为人工智能的“黑盒”,指的是缺乏对人工智能系统决策的可视性,这对许多组织来说可能是一个重要的问题。
Nicholson说,“在许多情况下,人们都需要知道为什么要做某事。在受到严格监管的行业组织中尤其如此。例如医疗保健行业不希望人工智能算法在不知道为什么做出决定的情况下就患者的诊断或治疗做出决定。”
Cooper提供了另一个场景,指出黑盒模型在出现问题时变得特别重要。
Cooper说,“假设训练一种算法来挑选优秀股票,并且做得很好,可能赚取9%的利润。如果在金融投资中获得了足够或更好的回报(如果Cooper的假设合理的情况下),那么可能就不太在乎其原因。毕竟已经获得。但是如果损失了9%的成本应该怎么办?如果失去了一切那么该怎么办?人们可能会更关心的是为什么。”
他说,“问题在于,在许多情况下,人们不知道为什么要选择它所选择的东西。这很可怕,因为它不仅使人们减少了与正在使用的人工智能系统的联系,而且如果它做错了什么,也不会带来太多的洞察力。”
解决方法:
解决这种恐惧的方法之一是确保即使在人工智能技术得以改进的情况下,人类的智能和决策仍然是任何过程中至关重要的部分,在某些情况下还是最终的部分。换句话说,即使人工智能在这些流程和决策中的作用不断扩展,也可以通过确保人们保留对流程和决策的适当控制来缓解这种恐惧。
Nicholson说:“在医疗保健案例中,最好采用人工智能作为人类专家的决策支持形式。也就是说,不能让人工智能独自运作并且不受监督。可以将人工智能集成到现有的决策过程中,在此过程中可以向人类专家提出建议,并且专家将是做出最终决策的人,他们将能够解释做出该决定的原因。”
3.恐惧:人工智能将会做出错误的决定
人工智能将会做出错误的决定,这是一个非常明确的问题。如何评估人工智能结果的准确性和有效性?如果它做出错误的选择会怎么样?(可以看到这些恐惧的某些组合是如何产生复合效应的:如果人工智能做出错误的决定而无法解释原因,将会发生什么情况?)假设所有人工智能产生的结果都是“良好”的结果,那么即使是对于人工智能应用最乐观的人士也会感到不舒服。
偏见会导致错误的决定。不过,这实际上是一种更为广泛的恐惧,这种恐惧除了其他负面影响之外,还可能导致团队不信任任何的人工智能得出的结果。当人工智能团队之外的人(或者IT部门)分析结果时,这种可能性就更大。它还可能导致组织的业务发展停滞。
Very公司工程主管Jeff McGehee说,“许多人担心人工智能会做出错误的决定。从技术角度来看,这种恐惧通常是非常广泛的,但它总是归结为人们认为“这个决定是不正确的。对于从业者来说,这一点很难确定,尤其是在无法给出‘良好’决策的量化定义的情况下。”
解决方法:
人为因素的重要性再次占据主导地位。如果人们无法量化什么是积极的结果,那么需要提出一个定性的框架,同时确保依靠正确的人员和信息组合来解决诸如偏见之类的实际问题。
McGehee说:“为了确定这样一个定义,利益相关者必须认真考虑所有可能的关于好/坏决策的定义。正确性可能是理想的,但是某些类型的错误通常更容易接受,或者更像是人为的。此外,‘正确性’可能指的是人们是否满足某些标准的预测列表,但如果此列表包含固有的人为因素偏见,这可能是一个不好的目标。当非技术利益相关者评估人工智能决策的质量时,所有这些因素都可以发挥作用。”
4.恐惧:人工智能将导致匿名性的丧失
McGehee指出了一个鲜为人知的问题,它可能成为人工智能安全中一个更引人注目的领域:当匿名性假定为给定时,将会丧失匿名性或隐私性。
McGehee说,“在以前,人工智能从业者普遍认为,一旦机器学习模型得到训练,其权重(使其能够进行预测的参数)就不包含任何可追踪的训练数据。”然而,最近出现了一些技术,这些技术将使恶意行为者能够检查经过训练的机器学习模型,并对用于训练的各个数据点进行有意义的推断。这与个人数据点是否是希望保持匿名的人有关。”
解决方法:
同样,通过认识到恐惧背后的合法问题,人们可以采取措施来解决它。在必要时保护数据的隐私或匿名性是一个组织可以采取主动措施作为其总体安全策略一部分的领域。这也是机器学习中正在进行的一个研究和开发领域。
McGehee说,“虽然这是一种有效的恐惧,但对模型权重进行适当的保护和加密可以减少它们落入坏人手中的可能性,而创造不易受这种威胁影响的新的机器学习技术将是一个活跃的研究领域。”
5.恐惧:人工智能会让人们失业
人们可能面临这个很大的恐惧,它弥合了当前现实和更多推测场景。大多数专家都认为,人工智能将会取代更多的工作岗位。在某些情况下,这将意味着失业。
在可预见的未来,越来越多的人工智能(以及更广泛的自动化)的应用比电脑时代更为广泛,当时电脑的兴起也引发了人们类似的担忧。研究发现,电脑在影响工作岗位的同时创造了更多的工作岗位。
解决方法:
Nicholson说,“从历史上看,新技术不仅使工作实现自动化,而且可能带来新的工作岗位。考虑一下采用电脑完成的所有工作。新技术通常需要人们对其进行掌握、支持和维护,而人工智能也不例外。”
积极应对这种恐惧将是人工智能在商业领域成功的关键,否则人们将无法参与其中。人们将会注意到,以上这些不仅要求人类参与其中,还要积极管理组织中的人工智能。
Nicholson说,“需要理解的关键是,未来的工作将是人类与机器之间的协作。但是机器仍然需要人类来操作和维护。人工智能就是如此。”
责任编辑:ct
全部0条评论
快来发表一下你的评论吧 !