OpenAI发布人工智能文本生成系统,声称可能打开了潘多拉盒子

OpenAI公布人工智能写作工具

OpenAI研究实验室近日发布了能够生成文本的人工智能AI系统的完整版本,专家警告说,该系统可能用于恶意目的。

该机构最初于今年 2月发布了GPT-2系统,但由于担心该程序的完整版本会被用于传播假新闻,垃圾邮件和虚假信息,拒绝发布该程序的完整版本而是发布了一个删简后的GPT-2版本。在本周的博客中,OpenAI现在表示“没有明显的滥用证据”,因此决定发布该系统的完整版本。

GPT-2是新一代文本生成系统的一部分,它们以最少的提示生成连贯的文本的能力给专家留下了深刻的印象。该系统接受了从网络上抓取的800万个文本文档的培训,并且可以响应用户提供的文本片段。例如,给它提供一个伪造的标题,它将撰写一个新闻故事;给它一首诗的第一行,它将完成整首诗。

目前很难准确定义GPT-2的输出质量,但毫无疑问的一点是,该模型通常会产生令人信服的文字,这些文字常常看起来出自知识分子之手(这并不是说GPT-2具备任何认知能力) 。但是,在该系统上玩了足够长的时间,其局限性开始凸显。该系统最大的问题是很难保证长期一致性;例如,在故事中一致地使用角色的名称和属性,或者在新闻文章中使用单个主题。

感受GPT-2的能力的最佳方法是自己尝试一下。您可以在TalkToTransformer.com上访问Web版本,然后输入自己的提示。(“Transformer”是用于创建GPT-2及其伙伴的机器学习架构的组成部分。)

除了GPT-2的原始功能外,该模型的发布还值得注意,这是有关AI研究人员逃避和推卸其研究成果社会危害和责任长期争论的话题之一。专家指出,尖端AI工具的公开化可能会帮助坏人发动攻击。例如,通过使用Deepfake深度伪造移花接木的色情影片,我们已经看到了这种趋势。正是这种担忧,OpenAI一度对系统采取了限制性发布。

但是,并非所有人都对OpenAI实验室的方法表示赞赏。许多专家批评了这一决定,称发布不完整版本限制了其他人为研究人员对该系统危害的研究,同时也助长了对人工智能威胁夸大的宣传。

在本周发布GPT-完整版本后,OpenAI指出GPT-2可能会被滥用,并援引第三方研究表明,该系统可以帮助产生极端意识形态立场的“综合宣传”。但OpenAI也承认,担心该系统将被用来生成海量关联的垃圾邮件,制造压倒性的社交媒体信息海啸,这种担忧绝非空穴来风。

该OpenAI实验室还指出,它自己的研究人员创建了自动检测系统,可以识别GPT-2的输出文本,准确率达到95%。但是这个数字不足以“独立检测”,这意味着任何用于自动识别伪造文本的系统都需要与人类法官协作。不过,对于此类审核任务而言,这并不鲜见,因为内容审核任务通常依赖于流程中的人员来发现伪造的图像和视频。

OpenAI表示将继续观察社区和公众如何使用GPT-2,并将在负责任的AI研究出版方面进一步完善其政策。

第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom

   

除非注明,本站文章均为原创或编译,未经许可严禁转载。

相关文章:


关于作者