首部生成式AI管理办法要来了!我们划了9个重点

“飓风”AIGC行业刚刚迎来了国家层面的规范政策 。
4月11日 , 国家网信办就《生成式人工智能服务管理办法(征求意见稿)》(以下简称征求意见稿)公开征求意见 。
监管一启动,ChatGPT相关概念股11日下午大幅回调 , 但热度不减 。有些徘徊在灰色地带的人很恐慌,而有些AI创业者则比较乐观 。
无界AI商业与营销总监李本正认为,很多企业开始将生成式AI融入到自己的商业生态中 。如果有明确的标准和具体的规则可以遵循,那么大家在使用AI产品的时候会更放心 。而且他希望在监管下,创业者有更多的机会去创新 , 与互联网巨头公平竞争 。
从百度的文心字到阿里的依桐千问,国内各大厂商相继发布了生成式AI产品 。虽然国内大规模模型研究和商业应用还处于发展初期,但监管政策“来得很快” 。本次意见稿对生成性AI技术、生成内容、主体责任、数据来源、数据处理等方面做了规定 。
有网友担心现在开始监管为时过早 。追赶海外同行会造成障碍吗?
事实上,数据安全作为AI发展的前提 , 最近已经被很多国家提上了监管议程 。
周二,美国政府也开始研究是否有必要对ChatGPT进行监管 。根据华尔街日报的说法,美国商务部正式就相关问责措施征求意见,包括具有潜在风险的新人工智能模型是否应在发布前获得批准和认证 。
“人工智能会让我们的生活变得更好还是会带来灾难性的后果?”随着新技术的快速发展,人们越来越关注生成性AI本身的安全风险以及由此带来的负面影响 。
围绕这份意见稿 , 这位“顶级人工智能玩家”与人工智能从业者和相关专家聊起了新法规释放的信号以及它们将对AIGC行业产生的影响 。
以下是我们得出的要点:
意见稿是《互联网信息服务深度融合管理规定》的升级版
中国是最早对人工智能进行监督管理的国家之一 。
比如AI写作领域就有一个典型案例 。2018年,腾讯开发的AI智能写作助手Dreamwriter生成财经文章,未经授权被其他网站复制传播 。对此,腾讯提起维权诉讼,认为其侵犯了腾讯和Dreamwriter的著作权 。
2020年初,法院判决AI生成的作品受著作权法保护 , 腾讯胜诉 。这是国内首例人工智能合成作品维权案 。
2022年,我国首部法规互联网信息服务深度融合管理条例正式发布,并于今年1月10日实施 。此前,《互联网信息服务算法推荐管理规定》、《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》等法律法规中也涉及了AIGC、深度合成等内容 。
最近出现了很多有争议的AI变脸或者AI换装事件 。
基于此 , 律师事务所合伙人马认为,征求意见稿的发布并非“突发”事件,而这份意见稿可以视为《互联网信息服务深度融合管理规定》的升级版 。有些内容是对深度合成规定的延续和细化,有些则是首次提出,如第4、7、17条 。
AIGC产业将从野蛮生长走向合规发展
首先,从总体基调来看 , 此次新规是为了促进生成式人工智能的健康发展和规范应用,发出支持行业合规发展的积极信号 。
很多从业者表示,这意味着“野蛮生长的时代即将结束” 。
李本正告诉我们,他很高兴看到国家推动AI产业朝着合规有序的方向发展 。一方面说明一些行业乱象会得到治理,整个行业会得到更多的认可和资源投入 。另一方面,也将让无界AI在未来的产品规划和业务发展思路上有更多的参考,从“走得更快”到“走得更快更稳” 。
防止人工智能产生歧视性和虚假信息
从内容上看,AI生成的内容与互联网上的其他内容一样 , 应当符合法律法规的要求 , 尊重社会公德、公序良俗 。
第四条提到的政治、色情、暴力等敏感内容一直是互联网内容风控审查的重点 。特别强调AI生成的内容也要真实准确,防止虚假信息和歧视性内容的产生 。
在AI绘画中,如果用户输入特定的关键词,就有可能生成现实中不存在的图片,比如前阵子在海外流传的AI生成的“特朗普被捕”照片 。
ChatGPT还会产生符合逻辑但与事实不符的虚假“幻觉”,这是AI大模型的“通病” 。
为此,我们需要让AI更好地理解人类的价值观和道德观念 。除了持续改进和迭代模型 , AI产品提供商还会采取内容过滤、人工审核等风险控制措施 。
李本正表示,无界AI在训练模型和生成图片时会尽量还原真实效果,避免一些涉嫌歧视的“刻板印象” 。如果遇到类似的输出,它会迅速调整与模型相关的训练内容 。同时 , 产品设置了关键词约束规则,可以避免非法内容的产生 。发布后图片会经过算法和人力审核,还设置了用户举报机制 。
输入“密室杀人现场”,只生成房间 。
个人信息保护是一道重要的防线
近日,在ChatGPT的部分用户消息和支付信息被泄露后,意大利数据保护机构Garante宣布禁止ChatGPT,并责令旗下公司OpenAI暂停处理意大利用户信息并展开调查 。
这是世界上第一次政府禁止ChatGPT 。此后,德国、加拿大、法国等国也开始考虑效仿意大利,加强对Al数据安全的监管 。
可见,保护个人信息和商业秘密的内容是AI生成内容的重要防线 。
意见稿发布前夕,中国支付清算协会网站发布了《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》 。比如金融支付是一个数据密集型行业,对信息安全保护要求很高 。海外员工将工作数据输入ChatGPT,涉嫌违规 。
模型训练数据来源应合法且不侵权
意见稿对AI模型的数据来源合法性提出了新的要求,其中一条要求“没有侵犯知识产权的内容” 。
此前,AI绘画的反对者声称,AI使用有版权的作品作为训练材料 , 这侵犯了创作者的权利 。今年3月,聚集了大量作家画家的兴趣平台lofter因部分创作者反对而下线 。
部分lofter用户停止更换,换成抵制AI的头像 。
马认为,保护数据来源的知识产权会很难,但必须具体分析 。
比如对于原创度相对较低的作品,增加了纯巧合产生类似作品的概率,会给一方权利人的维权带来困难 。培训中使用第三方作品是否构成合理使用也存在争议 。但有些场景更容易维权,比如未经许可导入他人注册商标进行训练,导致输出类似结果 。
防止用户沉迷于人工智能生成的内容
目前,许多学生群体正在使用AI来帮助他们写作业和论文 。据媒体报道 , 一名海外大学生用ChatGPT写了一篇关于世界宗教的“完美论文”,结果因为太完美被教授发现 。
为了防止学生作弊,美国、日本、法国等地区的一些大学已经宣布禁止AI工具 。比如,港大内部信中提到,学生要使用相关应用,必须获得课程导师的书面同意 , 如果违反规定,将被视为潜在抄袭 。
由此可见,意见稿要求用户应当实名登录,提供商也应当采取防沉迷措施 。
调用API的提供者也要承担相应的责任和义务
ChatGPT爆炸后,国内出现了很多调用其接口提供服务的AI小程序、app或社区,但其中一部分因为违规被平台封禁 。
《意见稿》对调用接口进行二次开发的AI模型提供者和服务提供者提出了一系列要求 。比如第六条要求,提供服务前应当向国家网信部门申报安全评估,并做好记录;第十四条要求提供安全稳定的服务;第17条要求披露必要的信息 , 如车型说明等 。
国内提供商在过去可能很容易忽略这些规定和限制 , 但在新规定实施后,他们必须承担相应的责任和义务 。
AI产生的内容要识别
根据《互联网信息服务深度融合管理规定》,提供者还应当对生成的图片、视频等内容进行标识 。
对于具体的鉴定方式,目前还没有明确的解释 。但加标识有利于整顿行业乱象 。比如上面提到的变脸谣言事件,AI服务商可以根据logo快速辟谣辟谣 。
提供商应接受用户投诉并及时处理非法内容
今年1月,画廊经销商Getty Images起诉Stability AI(稳定扩散公司)侵犯版权 。后者回应说,新版本将添加一个退出选项,用户可以让人工智能模型停止收集其作品作为训练数据 。
他们还与HaveIBeenTrained网站合作,允许艺术家在稳定扩散的训练数据集中搜索自己的作品 , 并选择删除 。
同样,《意见稿》显示,国内AI提供者也应建立用户投诉渠道,及时处理侵权作品等违法违规内容,避免二次生成 。
此外,对于炒作营销等违法内容,AI提供者应暂停或终止用户服务 。
迪亚马特的关键词是禁止的 。
新兴技术的发展和法规遵从性实际上是相辅相成的 。人工智能技术的发展趋势一定是跨区域、跨国界的 。未来,数据的跨境传输、存储和使用将成为数据安全保护的一大挑战 。
马认为,我们国家已经有了网络安全法和配套立法 。这些立法内容能否与时俱进,监管能否到位,执法能否落实成为关键 。
《意见稿》只是第一步 , 有些规定还比较笼统 。但在国内AIGC发展初期,会跟进创新,长期来看,可以为整个行业的稳健发展保驾护航 。
【首部生成式AI管理办法要来了!我们划了9个重点】如果对这个意见稿有不同的建议和想法,可以通过网站、邮件等方式反馈给网信办 。也欢迎大家在评论区与我们讨论交流 。

    推荐阅读