人工智能
纽约大学AI Now研究所发布了第三份关于人工智能现状的年度报告。 2018年AI Now报告重点关注行业AI丑闻和不平等加剧等主题,还评估了人工智能道德与有意义的问责制之间的差距,并研究了组织和监管在人工智能中的作用。
关键要点
需要针对具体部门的AI治理和监管方法
今年的报告通过扩大特定部门机构(如美国联邦航空管理局和国家公路交通安全管理局)的权力来审计和监控基于域的这些技术,从而反映出需要加强人工授精法规。
人工智能系统的发展正在兴起,没有足够的治理,监督或问责制度来确保这些系统遵守人工智能的道德规范。该报告指出,一般的AI标准和认证模型如何不能满足卫生,教育,福利等不同部门的专业知识要求,这是加强监管的关键要求。
需要对面部识别AI系统更严格的监管
该报告强调了“影响识别”,一种声称能够检测个性,内心感受,心理健康等的面部识别子类,取决于面部的图像或视频,需要特别注意,因为它是不受管制的。
它阐述了这些主张如何没有足够的证据支持,并且以不道德和不负责任的方式被滥用。
似乎正在这方面取得进展,就像昨天微软建议科技公司需要发布文件来解释技术的能力,局限性和后果,以防面部识别系统在公共场合使用。
人工智能治理需要新的方法
技术公司的内部治理结构无法有效实施人工智能系统的问责制。
“政府监管是一个重要组成部分,但人工智能行业的领先企业也需要超越道德准则的内部问责制结构”,报告中写道。这包括董事会,外部道德咨询委员会的普通员工代表,以及独立监督和透明度工作。
需要放弃商业秘密和其他法律索赔
在政府中使用AI和自动决策系统的供应商和开发商应同意放弃任何限制公众对其软件进行全面审计和理解的商业秘密或其他法律索赔。根据报告,公司保密法是一个障碍,因为它们很难分析偏见,竞争决策或纠正错误。希望在公共部门使用这些技术的公司应该要求供应商在达成协议之前放弃这些索赔。
公司应该保护工人免受道德问题的影响
员工组织和抵制技术以促进问责制和道德决策已经变得很普遍。这些技术公司有责任保护其员工组织,举报和促进其项目的道德选择的能力。
在AI产品的广告中需要更多的事实
围绕人工智能的炒作导致营销承诺与实际产品性能之间存在差距,从而给个人和商业客户带来风险。
根据报告,人工智能供应商在做出承诺时应该保持高标准,特别是当没有足够的信息来说明这些承诺背后的后果和科学证据时。
需要解决工作场所内的排斥和歧视问题
技术公司和人工智能领域专注于“管道模型”,旨在培训和雇用更多员工。
但是,对于技术公司而言,评估工作场所内基于性别,种族等的骚扰等更深层次的问题非常重要。 他们还应该研究排他性文化与他们建立的产品之间的关系,从而建立不会使偏见和歧视长期存在的工具。
“全栈供应链”的详细说明
根据该报告,有必要更好地了解人工智能系统的各个部分以及它所依赖的完整供应链,以便更好地追究责任。
这个过程被称为人工智能系统的“完整堆栈供应链”,这是更负责任的审计形式所必需的。完整的堆栈供应链考虑了AI系统的真实环境和劳动力成本。这包括能源使用,内容审核和培训数据创建的劳动力使用,以及依赖工人维护AI系统。
更多资金和支持诉讼,以及人工智能问题的劳工组织
该报告指出,需要增加对法律补救和公民参与的支持。
这包括向代表因算法决策而获得豁免社会服务的人的公共倡导者,民间社会组织和支持面临失业和剥削危险的群体的劳工组织者提供支持。
大学人工智能课程需要扩展到计算机科学学科之外
报告指出,大学课程和教学大纲需要扩大其学科定位。这意味着在大学AI课程中包含社会和人文学科。为了真正发挥社会影响的人工智能,有必要培养计算机科学系的教师和学生,研究社会世界。很多人已经开始实现这一点,例如,Mizhell Baker董事长,Mozilla的联合创始人谈到了技术行业通过引入人文科技来扩展技术技能的必要性。
全部0条评论
快来发表一下你的评论吧 !