媒体人请听题:把生成式AI关进笼子里,一共分几步?


随着国内大厂纷纷加码大模型,AI技术的热度仍在持续升温 。类ChatGPT产品给传媒业带来的冲击 , 不亚于互联网的出现 。
根据世界报业和新闻出版协会(WAN-IFRA)的最新报告,已有49%的新闻机构在使用生成式AI技术 , 但只有五分之一的媒体制定了相应的指导方针 。
随着AI技术不断迭代并渗透到包括传媒在内的各个行业中,如何高效且合规地应用这项技术已变得非常紧迫 。因此,《Gazeta Wyborcza》报社、《连线》杂志、路透社等外媒所制定的相关指导方针,或能带给我们一些新的启发和思考 。
源于一项生成式AI测试
Boleslaw Breczko是波兰最大的新闻媒体之一《Gazeta Wyborcza》报社的一名采访人员 。今年4月初 , 他使用ChatGPT撰写了一篇题为《马斯克 vs OpenAI:创造新的人机界面竞赛》的文章,并署上自己的名字在报社网站上发布 。
两周后,他撰写了一篇反思的文章《还需要采访人员吗?我的上一篇文章是ChatGPT写的》,揭示了他们进行的一项实验 , 即测试读者和编辑是否能够分辨文章作者是人类还是生成式AI 。
通过实验,他们发现尽管ChatGPT被投喂了多篇Breczko的作品并要求模仿Breczko的风格,但其写作质量仍远不及人类采访人员 。Breczko邀请了几位被蒙在鼓里的采访人员和编辑同事进行盲测,结果他们发现这篇文章存在许多低级错误,如糟糕的文风和上下文不连贯 。
当Breczko公开实验结果时 , 编辑部所有人都松了一口气,也更加坚信生成式AI暂时取代不了媒体人 。但Breczko认为ChatGPT将来能胜任写作任务,现阶段已对依赖新闻报道和开源消息撰写文章的采访人员造成威胁 。
他认为虽然AI提供便利的同事 , 也带来了新的威胁,即用户会盲目地相信AI提供的信息,即使它的答案可能基于不正确的信息或完全是编造的 。
实际上,今年1月,《Gazeta Wyborcza》已经组建了一个由60多人组成的研究团队,以推进生成式AI技术的应用 。经过一段时间的测试,团队制定了两条使用ChatGPT的规则:禁止将其作为文本写作工具或者信息来源,禁止与ChatGPT共享机密内容,以保证信息安全 。
《Gazeta Wyborcza》旗下网站Wyborcza.pl的副主编Aleksandra Sobczak提到,研究团队曾经考虑使用AI生成图像作为少量新闻文章的配图 。由于AI在借鉴其他艺术家作品生成图像时存在道德风险,所以最终放弃了这一决定 。
然而,Sobczak不排除在将来使用AI生成文章 。她表示现在要定义AI如何影响媒体市场和未来还为时过早,但新闻媒体必须学习如何有效使用AI以及如何报道AI 。技术变化非常快 , 媒体必须不断尝试,保守的态度会导致落后 。Sobczak还强调AI会导致假新闻泛滥,因此许多人求助于重视新闻可靠性的传统媒体,坚守新闻质量是媒体使用这种工具的红线要求 。
谨慎而积极的态度
世界著名科技月刊《连线》近期发表了一篇文章,来阐明其使用生成式AI工具的方式,明确编辑将会使用这些工具做什么和不做什么 。《连线》杂志希望能够站在新技术的前沿,同时保持适当的谨慎和符合伦理规范 。《连线》的规范主要分为文本生成器和图像生成器两个方面 。
使用文本生成器(如LaMDA、ChatGPT)的规则如下:
一是不会发布带有AI生成文本的故事,除非AI是故事的重点 。
二是不会发布AI编辑的文本,因为文本编辑需要人工判断 。
三是可以尝试使用AI生成标题或社交媒体的短文,但是需要人工审核通过 。
四是可以尝试使用AI生成故事创意 , 但是需要人工评估 。
五是AI可以作为研究或分析工具,但是应保持与传统研究相同标准 。
使用图像生成器(如Dall-E、Midjourney、Stable Diffusion)的规则如下:
一是在某些限制条件下可以发布AI生成的图像或视频 。
二是不用AI生成的图像代替图库中的摄影师作品 。
三是可以用AI工具来激发创意,但是还要用普通方式创建原始图像 。
长期而必要的探索
路透社170年历史上第一位女主编亚历山德拉·加洛尼(Alessandra Galloni)在今年3月份与伦理编辑Alix Freedman联合制定了AI的4项使用原则,并以“确保采访人员能够有效地利用该技术,同时保持全球最受信任的新闻机构之一的声誉”为目标 。
原则一,她指出,路透社一直“拥抱新技术” , 包括使用自动化工具获取并分析重要的经济和企业数据 。“自动化新闻对一些媒体来说可能是一个新的概念,但它已经是路透社一项长期而必要的实践 。”
原则二,Galloni写道:“路透社的采访人员和编辑将全面参与并负责审核任何依赖人工智能制作的内容 。无论由谁制作或如何生成,路透社的报道都是路透社的报道,都必须遵循我们的编辑伦理和标准 。”
原则三,她还承诺,会向用户提供有关该新闻社使用AI工具的“全面、公开的披露” 。“我们将向读者和客户提供尽可能多的关于新闻故事来源的信息 。这并不意味着我们将公开编辑过程的每一个步骤 。但如果使用特定的人工智能工具对发布结果有影响 , 我们将公开告知 。”
原则四,她表示,“探索新一代工具提供的可能性是必要的 - 尽管我们仍在研究如何更合理地使用它们 。”但她提醒采访人员必须“保持警惕 , 确保我们的内容来源真实可靠 。”我们的准则是:持怀疑态度,进行必要的验证 。
未告知而引发的丑闻
CNET是一家广受欢迎的科技新闻媒体,从2022年11月就开始就使用AI技术生成了一系列金融评论员文章,并且没有向读者明确这些文章是如何生成的 。
这些文章的署名均为“CNET Money Staff”,只有读者点击文章作者信息时才会知晓真正的作者身份 。作者信息会提示读者“这篇文章是使用自动化技术生成的,并由编辑人员进行了仔细的事实检查和编辑 。”
CNET至今已经发布了70余篇AI生成的文章 , 这个AI内容生成实验相当低调,没有正式宣布过该计划 。
但是有消息称 , CNET所发布的AI生成文章在经过仔细检查后,许多文章存在相当严重的错误 , 甚至明显存在抄袭 。CENT的流量随后暴跌 。在丑闻发生后CENT的员工遭到了大幅裁员,CNET的员工对此强烈不满 , 认为AI的使用威胁到了他们的工作和名声 。
CNET的员工成立了CNET媒体工会并宣称:“我们各种内容团队需要行业标准的工作保护,公平的薪酬和编辑的独立性,以及在决策过程中的发声,特别是在自动化技术威胁到我们的工作和声誉的情况下 。”
CNET媒体工会的发言人表示当前迫切需要围绕AI使用建立全行业的伦理准则,最好的方式就是通过劳资谈判协定来维持新闻行业的高标准,AI制作的内容永远也不能替代作者 。
结语
传媒业对生成式AI的应用有更高的标准和要求 , 因此,媒体人需要保持理性乐观的态度 。
尽管这项技术具有革命性的影响力,我们必须及时跟进并研究其发展态势 , 但使用AI技术必须谨慎并遵守相关的伦理规范,以避免发布误导性报道和假新闻的风险 。
【媒体人请听题:把生成式AI关进笼子里,一共分几步?】版权、数据隐私和泄密等风险必须认真考虑 。充分、全面和及时的信息披露是至关重要的 。同时,我们必须加强人工对AI生成内容进行二次审核 , 以保证媒体的权威性和公信力 。

    推荐阅读