安全政策遭质疑 OpenAI解散AGI(通用人工智能)团队

描述

前不久OpenAI决定解散专注于AI的长期风险的“超级对齐”团队(Superalignment team),现在又突发AGI团队解散事件。OpenAI的安全政策遭业界质疑。要知道面对越来越强大的AI技术,很多AI企业在安全政策上持续加大投入;但是OpenAI似乎在退步?要知道AI技术如果不加以控制可能会带来灾难性的后果。若缺乏有效的监管与规划,AGI的进展将面临更多的不确定性与风险。现在;对于AGI (通用人工智能)OpenAI真的准备好了吗?世界真的准备好了吗?

据外媒报道,OpenAI公司正在解散其“AGI筹备”团队,团队负责人Miles Brundage离职,OpenAI公司的AGI团队就OpenAI自身处理日益强大的人工智能技术的能力以及世界管理人工智能技术的准备情况向公司提供建议。

而OpenAI的AGI筹备团队负责人Miles Brundage在周三通过Substack发布的帖子中宣布了这一消息,Miles Brundage透露已经完成了他在OpenAI的目标。Miles Brundage想要减少偏见;可能会自己成立一家非营利组织,或加入现有的非营利组织,未来将专注于人工智能政策研究和倡导。

事件发生在OpenAI董事会可能计划将公司重组为营利性企业之际;这就更让业界担心其安全性。以前的OpenAI是一个开源公司、非营利组织,但现在OpenAI似乎真的变了,OpenAI正在设法实现利润最大化。

 AI落地实践的进程中;目前业界多认为在研究、开发和应用人工智能技术时,需要遵循的道德准则和社会价值观,以确保人工智能的导向正确,如何让引导AI;使其是受控制的;这是一个大的前提。确保AI的目标是为了让世界变得更加美好;尽管甚至可以达到比人类更智能的AI系统。技术创新与安全性兼顾的可能性是需要重点考虑的。






 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分