透视全球AI治理十大事件:站在创新十字路口,人工智能会失控吗?(13)

但是 , 如果 GPT-2 可被用来写假新闻 , 理论上 , 也有可能被用来生产仇恨语言和暴力言论 , 包括垃圾邮件、虚假社交言论等 。 由于 GPT-2 生成的文本都不是单纯复制粘贴来的 , 而是 AI 的即时生成 , 这导致负面文字无法被有效地追踪和清理 。

对此 , OpenAI 一方面强调 , 工具只是为政策制定者、记者、作家、艺术家等人群服务 , 并由他们在测试 GPT-2 能帮忙撰写什么 。 另一方面也表示 , 这样一个强大的工具可能会构成危险 , 因此只发布了一个较小、功能较单一的模型 。

一些研究人员认为 , 人类发布假新闻通常具有一定的目的性 , 然而 , 语言模型生成文本是没有目的性的 。 类似 GPT-2 这样的语言模型是为了生成看起来更加真实、连贯、与主题相关的文本 , 事实上 , 想要用它们来产生大规模的假新闻并没有那么简单 。

而且 , 这些研究人员也发现 , 这套模型擅长各种有趣的生成方向 , 但其中最不擅长的 , 反而是人们原本担心的生成虚假信息或者其它不良内容 。

不少技术人员更愿意从技术谋求对策 , 比如 Grover , 识别 AI 生成的虚假新闻的最佳方式是创建一个本身能撰写假新闻的 AI 模型 。

推荐阅读