人工智能研发负责什么问题

人工智能

636人已加入

描述

北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所等,共同发布《人工智能北京共识》,《共识》涵盖15条有益于人类命运共同体构建和社会发展的原则。当天,北京智源人工智能研究院人工智能伦理与安全研究中心揭牌成立。

《共识》针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则。

其中,研发方面,提倡要有益于增进社会与生态的福祉,服从人类的整体利益。设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人。要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果。

在使用方面,提倡善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,应确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响。

在治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终对社会有益。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分