人工智能
哈佛大学贝尔弗科学与国际事务中心网络安全项目主任Michael Sulmeyer等发表文章称,人工智能可提升网络空间适应能力。
Michael Sulmeyer等在文章中表示,最近该中心的一位成员在中国与一群中美学者就未来战争进行了为期一周的讨论。所有人都在猜测人工智能所扮演的角色,但令人惊讶的是,许多中国学者几乎把人工智能等同于杀人机器大军。
可以理解的是,大众的想象力和当前的人工智能研究倾向于关注人工智能更迷人的方面——科幻小说和终结者电影里的内容。虽然致命的自主武器是近年来的热门话题,但随着人工智能变得越来越复杂,这只是战争的一个方面会发生变化。正如Michael Horowitz在《德克萨斯国家安全评论》(Texas National Security Review)中所写的那样,人工智能本身不会仅仅作为一种武器出现;相反,它是一个能够支持广泛技术的推动者。我们一致认为人工智能最重大的影响可能会在讨论其潜力时被隐藏起来。因此,我们应开展更全面的对话,认识到人工智能在网络空间的潜在影响,不是通过促进网络攻击,而是通过提高资产意识和最小化源代码漏洞来大规模提高网络安全。
关于网络空间的战斗,最常见的说法之一就是进攻比防守有优势:进攻只需要成功一次,而防守则需要时刻保持完美。尽管这种说法一直以来有点夸张,但我们相信人工智能有显著改善网络防御的潜力,能帮助调整网络空间的攻防平衡。
很多网络防御都是关于对自己资产的态势感知。前白宫网络安全协调员Rob Joyce在2016年USENIX大会上也说过同样的话:“如果你真的想保护你的网络,你就必须了解你的网络,包括网络中的所有设备和技术。”一个成功的网络攻击者通常“比设计和运行网络的人更了解网络”。通过数据、计算能力和算法的正确组合,人工智能可以帮助防御者更好地掌控自己的数据和网络,发现异常变化(无论是来自内部威胁还是来自外部黑客),并迅速解决配置错误和其他漏洞。这将减少敌人可利用的黑客入侵机会(被称为攻击面)。通过这种方式,网络防御者可以将他们的资源集中在最复杂和致命的国家支持的网络攻防中。
这不是科幻小说:美国国防部高级研究计划局(DARPA)在2016年的“网络大挑战”(Cyber Grand Challenge)上试验了这种自我修复型电脑。在挑战中,团队为开发自动防御系统展开竞争,这种系统要能够检测软件缺陷,并设计和运行补丁以实时修复它们。通过人工智能的自动识别和修复,团队不仅能够自我修复他们的系统;而且与之前所需要的数天相比,他们在几秒钟内就完成了这项工作。
人工智能可以帮助缓解的另一个网络防御挑战与代码重用的流行有关。程序员并不总是从头开始编写自己的代码,像GitHub这样的网站存储了模块化插件,允许程序员利用其他人以前的工作成果。正如专注于保护开源代码的初创公司SourceClear的首席执行官马克•科佩希(Mark Curphey)所说,“每个人都使用开源……90%的代码可能不是他们所创建的东西。”虽然这会带来极大的效率,省去了白费力气做重复工作的必要,但也有风险,因为没有人对应用程序和固件核心代码的完整性负责。没有一个程序员(或者他们工作的软件公司)有动机将资源用于审计数百万行代码的艰苦工作中。
人工智能可以帮助公司和政府评估和识别代码中的错误,以支持现有应用程序、固件和程序的防御。这可以通过机器学习来实现,机器学习是人工智能的一种方法,它允许机器从训练集中获取数据,并在常规之外识别出细微的模式,比如恶意软件。因此,假设有正确的训练数据,参与者可以更容易地返回并清理之前发布的版本,以减少妥协的风险。他们可以在新产品生产周期中列入人工智能审查。正确地进行代码审查需要时间:在识别错误、确定纠正算法检测到的错误的最佳方法方面,人类的作用仍然很重要。但如果成功的话,人工智能可能会大大降低未被发现的漏洞和众所周知的漏洞的流行程度。
美国的政策制定者,尤其是军方的决策者,能做些什么来获取人工智能在网络安全和未来战争中其他不致命方面的潜在优势?答案是部署实施。美国国防部高级研究计划局的竞赛表明,美国军方已经具备了创建个人资产的态势感知和审核代码完整性的新能力,私营部门也具备必要的能力和专门知识。Cylance和Sift Science等公司声称利用人工智能——更具体地说,是机器学习——来检测欺诈和漏洞,瓶颈在于在政府中取得和实施这些进展。
因此,军方必须继续资助并将商业研究、人才和公司整合到政府系统中。重要的是,美国国防部已经展示了自己的态势感知能力;该组织以前被称为“国防创新单元实验”(Defense Innovation Unit Experimental,简称DIUx),最初是一个临时的政府机构,现在是一个常设部门。事实上,正是“国防创新单元实验”授予ForAllSecure公司的故意伤害网络推理系统(2016年网络大挑战的获奖技术)一份防御合同。尽管2017年的合同向正确的方向迈出了一步,但商业和政府的人工智能网络安全之间仍存在差距。
鉴于网络安全是人工智能的一个潜在应用,网络防御是更广泛讨论的一部分,讨论内容是国防部应该如何以(包括但不限于)杀手机器人在内的方式看待人工智能。已经有报道称,国防部正在制定一项人工智能战略,这将是至关重要的一步,整个部门和庞大的预算齐头并进、朝着几个共同目标努力。国防部知道,这项战略的一个关键部分是如何与在人工智能领域取得巨大进展的私营企业开展最好的合作。当谷歌的一些员工了解到公司与美国军方在人工智能方面的合作时,该公司的反应应该是具有启发性的:并非所有科技公司都会欣然接受与美国军方合作的机会,即使利润丰厚的政府合同也岌岌可危。当然,这其中有一部分与市场规模有关,因为商用人工智能市场要大得多。政府必须认真对待这些担心,以便将公共和私营部门的所有关键人工智能参与者召集到一起,制定和实施国家人工智能战略。
与此同时,政府不能让这些担忧给人工智能研究(不仅仅是自主杀戮领域)的机会蒙上阴影。改进网络安全的研究对美国国家安全的重要性可能不亚于任何杀手机器人的进步。
虽然针对人工智能的专门战略将有助于国防部统一工作,但国防部还需要在现有能力中注入人工智能。尽管我们都在使用人工智能的简写,但它并不是指单一的技术或能力:不同程度的自主性很重要,机器学习和神经网络之间也有重要的区别。国防部长办公室、联合参谋部、作战司令部和各军种需要系统地思考人工智能如何更好地帮助他们在各个领域实现目标,包括网络安全。他们必须避免概念上的陷阱——仅仅声称人工智能很重要,一旦我们能用人工智能解决问题,我们就会过得更好。
美国国防部的人工智能战略还应考虑如何与盟友以及合作伙伴合作,以改善人工智能的集体努力,进而改善集体防御。如今,像Alphabet(谷歌的母公司)的子公司DeepMind这样的公司正在取得革命性的进展。值得注意的是,DeepMind总部位于英国,它提出了这样的问题——伦敦的做法将是什么,各盟国如何最好地合作,以支持这类研究,同时限制滥用的可能性。这不仅是美国的问题,美国还可以在其盟友和合作伙伴中发挥带头作用,促进负责任的网络安全研究和应用。
最后,军方必须与国会合作,确保无论出现何种人工智能战略,都能在长期内获得有效资源。如果国防部在人工智能上的努力陷入传统的采购机器中,而这种做法需要30年才能交付一架战斗机,那么它已经输掉了下一场战争。在保护网络能力的投资免受官僚主义之害方面,国会表现出了领导力和创造力。它可以也应该通过为人工智能投资创建一个新的主力项目——为一个特定任务汇集资金来源——来为人工智能做同样的事情。通过这种方式,政府将提高整个部门人工智能预算的透明度。无论如何,国会的支持对于确保聪明的人工智能战略能够帮助美国在物理和网络领域战胜对手至关重要。
为了让美国政府从网络应用的人工智能中获益,国防部需要在更大范围内对人工智能采取开明的做法。然而,华盛顿正在努力解决如何对人工智能进行优先排序、激励和接纳不同的研究成果。中国官员看到了这一点,并正在为他们的2030年计划制定一个更加深思熟虑(尽管可能不那么灵活)的路线。无论如何,尽管美国、中国和其他国家都会自然而然地寻找人工智能的应用,以实现新的和改进的权力投射形式,但美国的政策制定者不应忽视人工智能如何增强美国的防御能力,并最终提高网络空间的适应能力。
全部0条评论
快来发表一下你的评论吧 !