chatGPT一种生产力的变革

电子说

1.3w人已加入

描述

面对互联网内容生产效率提升的迫切需求,是否能够利用人工智能去辅助内容生产?这种继专业生产内容(PGC)、用户生成内容(UGC)之后形成的、完全由人工智能生成内容的创作形式被称为AIGC。最初的AIGC通常基于小模型展开,这类模型一般需要特殊的标注数据训练,以解决特定的场景任务,通用性较差,很难被迁移,而且高度依赖人工调参。后来,这种形式的AIGC逐渐被基于大数据量、大参数量、强算法的大模型取代,这种形式的AIGC无须经过调整或只经过少量微调就可以迁移到多种生成任务。

2014年诞生的生成对抗网络(GAN)是AIGC早期转向大模型的重要尝试,它利用生成器和判别器的相互对抗并结合其他技术模块,可以实现各种模态内容的生成。而到了2017年,变换器( Transformer)架构的提出,使得深度学习模型参数在后续的发展中得以突破1亿大关。2022年11月30日,开放人工智能研究实验室(OpenAI)发布了名为ChatGPT的超级人工智能(AI)对话模型。ChatGPT不仅可以清晰地理解用户的问题,还能如同人类一般流畅地回答用户的问题,并完成一些复杂任务,包括按照特定文风撰写诗歌、假扮特定角色对话、修改错误代码等。此外,ChatGPT还表现出一些人类特质,例如承认自己的错误,按照设定的道德准则拒绝不怀好意的请求等。ChatGPT一上线,就引发网民争相体验,但也有不少人对此表示担忧,担心作家、画家、程序员等职业在未来都将被人工智能所取代。

虽然存在这些担忧,但人类的创造物终究会帮助人类自身的发展,AIGC无疑是一种生产力的变革,将世界送入智能创作时代。在智能创作时代,创作者生产力的提升主要表现为三个方面:一是代替创作中的重复环节,提升创作效率;二是将创意与创作相分离,内容创作者可以从人工智能的生成作品中找寻灵感与思路;三是综合海量预训练的数据和模型中引入的随机性,有利于拓展创新的边界,创作者可以生产出过去无法想出的杰出创意。
 

技术伦理成为发展的重要关注点

AIGC技术的发展无疑是革命性的。它可以改善我们的日常生活,提高生产力,但也面临着诸多技术伦理方面的挑战。

一个典型的AIGC技术伦理问题是AI所生成内容的危险性。科学家正尝试运用一些技术手段避免这些具有潜在风险的事件发生。通过改善数据集,增加更多的限制性条件以及对模型进行微调,可以使得人工智能减少对于有害内容的学习,从而降低人工智能本身的危险性。甚至我们可以“教会”人工智能如何更尊重他人,减少判断当中的偏见,更好地和人类相处。借鉴强化学习思想(RLHF)方法就是减少人工智能生成危害性内容的典型措施,ChatGPT就是采用这种方式训练的。在RLHF的框架下,开发人员会在人工智能做出符合人类预期回答时给予奖励,而在做出有害内容的回答时施加惩罚,这种根据人类反馈信号直接优化语言模型的方法可以给予AI积极的引导。然而,即便采用这种方式,AI生成的内容也有可能在刻意诱导的情况下具有危害性。以ChatGPT为例,在一位工程师的诱导下,它写出了步骤详细的毁灭人类计划书,详细到入侵各国计算机系统、控制武器、破坏通讯和交通系统等。还有一些人表达了对RLHF这类安全预防性技术措施的质疑,他们担忧足够聪明的人工智能可能会通过模仿人类的伪装行为来绕过惩罚,在被监视的时候假装是好人,等待时机,等到没有监视的时候再做坏事。

除了从训练角度对AIGC潜在技术伦理问题进行预防外,在使用上及时告警停用的技术措施更显必要。AIGC产品应该对生成的内容进行一系列合理检测,确保其创作内容不被用于有害或非法目的,一旦发现此类用途,人工智能应该可以立刻识别,停止提供服务,并且给出警告甚至联系相关监管或者执法机构。
 

监管法律正待完善

随着全球范围内的相关法律法规的不断完善,无论是赋能产业升级还是自主释放价值,AIGC都将在健康有序的发展中得到推进。标准规范为AIGC生态构建了一个技术、内容、应用、服务和监管的全过程一体化标准
体系,促进AIGC在合理、合规和合法的框架下进行良性发展。
以美国为例,虽然美国在AIGC技术领域起步较早,且技术布局一直处于全球领先地位,但迄今为止还没有关于AIGC的全面联邦立法。考虑到AIGC所涉及的风险以及滥用可能造成的严重后果,美国正在加速检查和制定AIGC标准的进程。例如美国国家标准与技术研究院(NIST)与公共和私营部门就联邦标准的制定进行了讨论,以创建可靠、健全和值得信赖的人工智能系统的基础。与此同时,州立法者也在考虑AIGC的好处和挑战。根据不完全统计,2022年,至少有17个州提出了AIGC相关的法案或决议,并在科罗拉多州、伊利诺伊州、佛蒙特州和华盛顿州颁布。

审核编辑 黄宇

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分