11月8日消息,据外媒报道,人工智能研发组织OpenAI日前发布了其完整版的自动文本生成AI系统,专家警告称该系统可能被用于恶意目的。
OpenAI最初在今年2月宣布了名为GPT-2的系统,但由于担心它会被用来传播假新闻、垃圾邮件和虚假信息,因此保留了该程序的完整版本。但该机构发布了不太复杂的GPT-2简化版本,借此研究人们对其接受情况。OpenAI现在表示,该组织没有看到GPT-2“被滥用的确凿证据”,为此决定发布其完整版本。
GPT-2是新一代文本生成系统的一部分,这些系统给专家留下了深刻印象,它们能够从最少的提示中生成连贯的文本。该系统接受了从网上抓取的800万份文本文档的培训,并对用户提供的文本片断作出响应。例如,给它个假标题,它就能写出新闻报道;给它一首诗的第一行,它就能续写整首诗。
要弄清楚GPT-2的输出有多好有点儿困难,但该模型经常产生既令人害怕又令人信服的文字,这些文字常常会给人一种充满智慧的感觉。不过,随着使用这个系统的时间足够长,它的局限性也变得很明显,尤其是其面临长期一致性的挑战。例如,在故事中始终如一地使用同样的人名或坚持某个角色独有的个性。
除了推出GPT-2的更多原始功能外,该模型的发布也是关于AI研究人员减轻其工作造成伤害的责任的持续辩论的一部分。专家指出,容易获得的尖端AI工具可能也更容易滥用。例如,我们已经看到使用深度伪造(deepfakes)来生成复仇色情内容的趋势。由于这种担忧,OpenAI限制了其模型的发布。
然而,并不是每个人都对OpenAI的做法表示欢迎。许多专家批评这一决定,称此举限制了其他人可以为减轻该模型危害而进行的研究,而且它也引发了关于“AI危险”的不必要炒作。研究人员Delip Rao曾说:“‘太危险’这个词在没有经过深思熟虑或实验的情况下就被随意抛出了。我不认为OpenAI花了足够的时间来证明GPT-2真是危险的。”
在本周发布的完整版中,OpenAI指出,GPT-2可能被误用,该组织还援引第三方研究称,该系统可能有助于对极端意识形态立场进行“广泛宣传”。它也承认,担心该系统会被用来产生大量连贯的垃圾邮件,使社交媒体等在线信息系统不堪重负,但这些担心尚未成为现实。
OpenAI还指出,其研究人员已经创建了自动系统,可以约95%的准确率识别GPT-2的输出内容,但这个数字还不够高,不足以进行“独立检测”,这意味着任何用于自动识别假文本的系统都需要与人类审核人员配合。这类合作并不罕见,因为这些任务经常依赖于人类来识别假图像和视频。
OpenAI表示,它将继续观察GPT-2如何被社区和公众使用,并将进一步制定其负责任AI研究的政策。