人工智能
所有人都会做梦。人在睡眠的时候,脑细胞同样也进入了休息和放松的状态,但有一部分脑细胞并没有完全休息,一些微弱的刺激就会引发它们的活动,从而让人们进入梦境。
在大多数情况下,梦是使人愉快的。当我们睡觉时,我们记忆中的视觉和音频碎片结合成无意义的片段和全新的故事。松散的回忆瞬间融合了生动、形象的场景,在梦中我们会与已知人物形成的角色进行互动。
做梦并不是睡眠的副产品,而是我们大脑工作的必要过程之一。做梦时,我们的大脑过滤了清醒时收集的信息,然后神经系统开始发挥作用——抛弃不相关的东西,巩固重要的东西,以及形成和储存记忆,这些机制在整个哺乳动物界几乎都是相同的并且非常行之有效。
那么问题来了:人工智能也需要同样的机制来过滤、处理信息吗?
意大利的一组科研人员在数学模型上模拟了这个过程,并将其输入了一个人工智能系统,结果得出了一种算法,即通过强制它们进入离线睡眠状态来扩展人工智能网络的存储容量,在此期间它们强化有用的存储信息并删除了不相关的信息。
Adriano Barra是意大利萨兰托大学的理论物理学家。Barra与他的同事Elena Agliari和Alberto Fachechi正在研究大脑这样复杂的系统,并为人类大脑制作了神经生物学的数学模型。
“我们的理论物理学家比工程师有着一些优势,”Barra说。“由于数学模型是相同的,所以我们可以将我们的结果应用于人工智能。我们是神经生物学和工程学之间的桥梁。”
在搞清楚“做梦模型”能为人工智能带来什么之前,我们先要了解一下现在的人工智能神经网络的一些问题。
人工智能神经网络的经典蓝图之一是Hopfield模型。它由John Hopfield于1982年开发,这个模型描述了人工智能神经网络如何模仿真实大脑的模式识别等机制来学习和检索信息。这个模型虽然发明于30多年前,但是一直沿用至今,并且在机器学习、联想记忆、模式识别、优化计算等方面依然存在着广泛的应用,是现今人工智能进行深度学习的重要理论基础之一。
Hopfield神经网络是一种单层互相全连接的反馈型神经网络,网络中的每一个神经元都将自己的输出通过连接权传送给所有其他神经元,同时又接收着其他神经元传递过来的信息。
Hopfield神经网络最受欢迎的学习规则是赫布学习法,它提出了在学习过程中如何加强神经元之间的突触(一个神经元的冲动传到另一个神经元或传到另一细胞间的相互接触的结构)。赫布学习法对全球的人脑研究做出了巨大的贡献,对现今的神经科学、认知科学、计算机科学、行为科学等研究产生着深远的影响。
然而,这个经典蓝图存在一个缺点,通常情况下它只能存储有限数量的信息。以数学的方式表示,即该对称网络的最大存储容量为 α~0.14。但是,理论极限是1,或α= 1。
处于“清醒”或在线状态的人工智能神经网络总是在学习新的信息模式。然而,除了理想的模式,他们还收集不相关的,甚至是假的模式。神经网络可以通过网络储存重要的模式,但存储错误不可避免地会出现,导致不相关的假模式同样被储存。
全部0条评论
快来发表一下你的评论吧 !