电子说
人工智能还有很长的路要走。
它需要明白在树干上爬的动物不一定是松鼠,也可能是猫咪;尖头长条的物体也不一定是灯塔,有可能是风铃;在鲜艳物体上的小生物不一定是蜜蜂,也可能是蜗牛。
虽然人工智能在飞速的进步之中,但它目前还并没有我们想象的那么强大。它也会犯错,有些错误在我们看来甚至有些“低级”。
加州大学伯克利分校的博士生们就介绍了一些真实的案例。在他们展示的7500个图片案例中,AI基本都在“自然对抗性案例”中败下阵来,精度下降了90%,准确度也只有2%左右。
虽然这些图像在我们眼里都非常好辨别。但在AI的算法中,蘑菇会被认成椒盐卷饼,绿色的蜻蜓被认成了井盖,呆萌的松鼠也被认成了比他们大数倍的海狮。
不只认图出现了较大错误,并且想要好好“调教”AI,将它引导回正确的道路上也不容易。实验中的案例证明了AI识别当前分类器有着深层缺陷,它们会过分依赖颜色、纹理和背景提示。同时,博士们发现提高鲁棒性的流行训练技术也收效甚微。
这个数据库是ImageNet的一个子集,它由不断欺骗人工智能的图像组成,包含了超过1400万幅手工标记的图像用于训练AI。如果你想让AI 在看到猫的时候就能辨认出这是猫,你只需要把它指向猫的类别,然后让它去识别就可以了。
虽然故意让AI犯错似乎是一件无聊且琐碎的事情,但这都是有意义的。AI如果在实际运用中出现错误,那可能会造成无法弥补的严重后果。比如自动驾驶的汽车将行人误认为红绿灯,就可能会引发不幸的交通事故。
互联网也需要AI的识别功能帮忙鉴别图像内容。Facebook就曾披露它如何使用AI工具完成内容审核。Facebook的自动化AI工具主要表现在裸体、暴力、恐怖内容、仇恨言论,垃圾邮件,虚假账户和自杀预防七个方面。
如果社交网络中裸露和暴力的图片能成功被AI技术检测,AI就能为图片中的敏感元素进行标记,进行更高效地处理和提示。而这些图片如果交给人工进行审核,那不仅效率低,也会给审核人员带来更多的工作量和精神压力。
扎克伯格自己也说过“建立一个可以检测具体某个不良信息的人工智能系统,要比确定什么是令人不适的语言要容易的多。”
AI进行图像识别就像在盲文上进行阅读,图像中的元素是一个个信息点,最终要通过信息点做出一个最为合理的猜测。这也像一个管道系统,不同的管道连接最终形成了系统。这种方法让AI在特定的图像视觉处理上能轻易地超过人类。比如说在动植物物种的识别上,它就比我们更为专业。
但部分的成功还不能让人对AI图像识别充满信心,约克大学研究员Amir Rosenfeld就表示“有各种各样奇怪的事情发生,告诉我们目前的物体检测系统是多么脆弱。”
这些“自然对抗性案例”的存在显示了现有的 AI 还没那么智能,它们的“深度学习”也需要更长的时间、更多的训练。
全部0条评论
快来发表一下你的评论吧 !