一、定义

前六条基本上是各种管理规定里的例行条例。

这里比较重要的是第二条,对算法推荐服务的定义:

第二条:前款所称应用算法推荐技术,是指应用生成合成类(图片视频AI生成)、个性化推送类(推荐、Push)、排序精选类(热榜)、检索过滤类(搜索)、调度决策类(外卖、网约车等)等算法技术向用户提供信息内容。

括号内容是我理解的场景,不是原文。可以看到这里基本上囊括了互联网产品中涉及到的大部分算法技术服务,不过有一块例外——广告业务,当然广告可以视为每个场景下的商业化方案,广告内容也可以作为内容的一种纳入监管,但也有一些场景不在上面的范围内,比如联盟广告。

而广告又是比较容易引起用户关注隐私问题的场景(常见案例:输入法DMP带来的广告精准投放),所以这块还是要看后续怎么界定。

二、内容风控

接下来第七条到第九条是对互联网平台内容风控提出的要求,可以预见大厂未来对这块的投入应该还要持续增加,中小厂可能会找一些第三方的解决方案(比如数美之类),对内容安全行业和从业人员持续利好。

这一部分条例值得讨论的有两点。第一点是关于第八条提到的不得设置诱导用户沉迷的算法模型这块,基本上就是点名各短视频平台了:

第八条:算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷或者高额消费等违背公序良俗的算法模型。

但短视频平台推荐模型的优化目标,核心就是浏览时长,这是业界多年累积下来的、能够和商业化目标更一致的经验,那这算不算是「诱导用户沉迷」呢?如果算的话,也不可能退回到优化点击率的模型去,只能是往多目标优化发展,那这样是不是能够稍微圆回来一些呢?

所以这个地方,我觉得平台可能更多能做的,是反过来思考:你的防沉迷系统,有没有做得足够好(尤其是未成年人防沉迷)?然后祈祷不会出现各种抨击短视频导致用户沉迷、抨击「信息茧房」的新闻报道。第二点是第九条,关于生成合成信息(图片视频AI生成)这块:

第九条:算法推荐服务提供者应当加强信息内容管理,建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序。发现未作显著标识的算法生成合成信息的,应当作出显著标识后,方可继续传输。发现违法信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信部门报告。发现不良信息的,应当按照网络信息内容生态治理有关规定予以处置。

目前AI生成图片和视频这块的技术,说实话已经要比想象中成熟很多了,比如隔一段时间就火一阵的换脸App。好在目前还都是娱乐用途为主,比如B站上面各种大司马的换脸视频,但保不齐也会被人用来恶意制作篡改、传播谣言,所以这个条例还是有必要的。

但怎么说呢,AI生成是基于生成对抗网络(GAN)的技术,本身就是用一个生成器和一个判别器来对抗,直到判别器也真假难辨的时候生成器生成的图片或视频方能出山。所以这块对AI生成内容的鉴定,无论是人还是机器来做,我觉得未来都是一个大的挑战。

三、核心条例

接下来的第十条到第十八条,是围绕各互联网算法推荐场景做出的规定,我们一个一个来聊。

第十条:算法推荐服务提供者应当加强用户模型和用户标签管理,完善记入用户模型的兴趣点规则,不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容,不得设置歧视性或者偏见性用户标签。

用户画像:像什么「好色」、「好赌」这种用户标签,以后就都不允许存在了。当然这里面可能不仅仅是标签名字的问题,用户画像使用的数据源也要符合条例当中的规定,否则这两个标签改成「喜欢异性」、「喜欢刺激」不就好了?

第十一条:算法推荐服务提供者应当加强算法推荐服务版面页面生态管理,建立完善人工干预和用户自主选择机制,在首页首屏、热搜、精选、榜单类、弹窗等重点环节积极呈现符合主流价值导向的信息内容。

第十二条:算法推荐服务提供者应当综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响、引发争议纠纷。

第十三条:算法推荐服务提供者不得利用算法虚假注册账号、非法交易账号、操纵用户账号,或者虚假点赞、评论、转发、网页导航等,实施流量造假、流量劫持;不得利用算法屏蔽信息、过度推荐、操纵榜单或者检索结果排序、控制热搜或者精选等干预信息呈现,实施自我优待、不正当竞争、影响网络舆论或者规避监管。

第十一到第十三条主要是对算法推荐服务提供者干预算法模型做出的相关规定,里面甚至提到了「去重」、「打散」等术语,可以说是相当专业了。

这个部分也有两块值得一提,一个是第十三条第一款提到的:算法推荐服务提供者不得利用算法……实施流量造假、流量劫持。事实上,条例中提到的虚假注册账号等这些行为,压根用不上算法,这样的措辞反而会让人觉得,我不用算法做这些事情,是不是就可以了?

所以,「利用算法」这四个