自主学习型算法共谋的事前预防与监管*
2021-08-30 15:51 来源:深圳社会科学
在初步了解各算法实现的基本原理后,有几点值得在探究自主学习型算法时注意。一是在构建算法模型时,设计者使用、设置训练样本的偏好会对算法模型的构建产生影响。如在训练样本上预先标记人种、性别等参数,则很有可能使得动态定价模型在构建时产生人种、性别层面的歧视;二是随着训练样本模糊度的提升,算法往往需要更多的时间对数据进行分析、建模。这意味着在设计如动态定价算法等复杂算法时,设计者通常需要在本地预先对算法进行长时间的训练;三是当涉及强化学习算法时,设计者对于反馈的设置也将对算法模型的倾向产生影响。再以动态定价算法为例,如若设计者对合作行为给予奖励(正强化)或对背离行为进行惩罚(负强化)则很有可能使得算法模型体现出倾向于共谋合作的特征。这些特征对于自主学习型算法共谋规制框架的具体建构有着较好的借鉴意义,尤其是在涉及去模型化的强化学习算法共谋类型时值得注意。如一项由英国牛津大学、美国加州大学伯克利分校、OpenAI实验室等机构发起的联合实验表明,即使在算法设计之初不预设合作相关的算法内容,计算机算法同样能够基于利益最大化的需求而学习合作。[19]这类算法由于在设计之初并没有明显的功能设置、偏好设置,且在数据分析、处理过程中并不会提供决策的依据,对反垄断执法机构而言无异于是不透明的“黑匣子”。对其分析应当从其相关特征针对性入手,例如供算法训练的训练样本是否有偏好、反馈的设置是否有偏好等。
[19]Jakob N. Foerster and others,"Learning with Opponent-Learning Awareness", Cornell U. Libr.,Working Paper,2018:2.