试图解构AI思维逻辑台大徐宏民力赞可信任的AI

人工智能

636人已加入

描述

  「病人有甲症状,所以建议给特别处方一」、「病人肝脏颜色异常,请使用乙处置方式」,或许部分的医疗人工智能(AI)系统会给予类似的建议,然而,以医师的角度来说,为什么要给这样的处置?这样的处置是如何判断的?如果有错误,那应该有哪里些配套措施?希望协助产业提高对于AI信任的国立台湾大学信息工程学系教授徐宏民表示,AI的黑盒子大家都想打开,但也坦言不太容易。然而,提升人类对于AI的信任度,绝对有助于AI在各场域更加流畅且融入流程地帮助人类。

  可解释的AI 系统提升人类信任进而可能提高采用数

  团队的「可解释性人工智能」(XAI)模块xCos,提供了人脸高辨识率以外,较为特别的还提供「条理」的解释,让开发者、各场域、各情境使用者都能明白AI产出结果的原因。「希望透过可解释的特色,提升人类使用AI时的信任度,进而促进产业正向循环。」

  徐宏民分享,如果说,今天计算机系统显示,「你感染了COVID-19(新冠肺炎)」那医师也会很好奇,计算机系统到底是如何得知?依照哪里些数据判断出来确诊?在知其然也知其所以然的力量驱使之下,2018年与团队开始构思这套可解释性的AI,目前在各大领域都有合作应用,在医学领域也与台大医院合作内科肝脏相关疾病,看看怎么样的细胞排列组合,对应着怎么样的疾病。不仅可以帮助医师处理数量庞大的数据,也可以让精准医疗再上层楼。

  不必左右为难高效能与高解释性同时推升

  一般来说,效能(正确率)与可解释性呈现负相关的关系,也就是说,可解释性越高,效能就越差;效能越高,可解释性就越低。透过大量参数成长的深度学系模型就属于后者。徐宏民分享多年的数据分析经验说道,10多年前的数据分析,一般来说参数约莫只有几百个,几千个参数就已经算是很多的了;然而,以自然语言处理(NLP)为例,数千万个、数十亿个参数都开始成为新常态,也因此,如何在如此的多参数、高效能的新资料分析世界当中,持续提升可解释性,也就是学界与产业都相当注重的发展。

  深度学习等类神经网络,快速且大量消化资料后,计算机会自己订规则,藉由千万条件产出更高精准度的答案,但「怎么来的?」始终是人类的疑惑,推论过程与原理的了解对于开发者与使用者都相当重要,徐宏民举例说明,在金融理财方面,若是系统建议使用者「要购买某档基金」,使用者可能狐疑不解,然而,若是与使用者说, 「因为你现在30岁,并且有想要结婚的男朋友,因此在3年内可能会生1~2个小孩,而未来3年内这档基金所追踪的投资标的,可能可以帮你在未来5~ 10年,创造每年约莫3~5%的育儿成长教育基金。」试问,这样「具有解释性」的AI分析结果,相对只是告知「购买某档基金」,是否更能体现人类顾问的贴心与暖心「可信任价值」?

  希望持续探询与解释AI决策过程关键,提升AI决策透明度与解析解构的徐宏民认为,AI等智能技术,已经且会加速渗入各产业,也相当看好与期待未来取得开发者、使用人员、环境、产业的信任。「不只是冲正确率,同时可信度也相当重要。」

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐
  • AI

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分