中国人民大学未来法治研究院主办的“算法分类分类分场景规制”

2021-05-09 14:42:25 作者: 中国人民大学

近日,由中国人民大学未来法治研究院主办的“算法分类分场景规制”研讨会在中国人民大学举行。“算法批量规模化生产决策结果,只要愿意投入成本,算法一定程度是可控的。”北京科技大学文法学院副教授张凌寒在研讨会上如是说。

北京科技大学文法学院副教授张凌寒来源:主办方供图

在张凌寒看来,算法是平台贯彻主观意图与价值观的一种方法。“推荐算法是在信息过载的时代,用户获得信息最好的方式。无论是搜索引擎,还是视频网站排序,这些算法生成的结果质量就是企业竞争力。”

张凌寒指出,算法技术提高了企业的生产规模和生产效率,但也带来了信息茧房、算法偏见与歧视、用户隐私与安全等问题。“种种问题,实际上是新的数字生产方式跟我们既有的法律规则不相适应的结果。”

“部分企业将平台出现的问题归结为算法的自动运行,我认为这是企业‘甩锅’的一个做法。”张凌寒称,很多人认为算法很高深,企业对算法结果不可控、算法具有不可解释性,实际上并非完全如此。企业宣称算法结果不可控,更多是从生产效率角度考虑。比如外卖平台称骑手的配送时间由系统自动计算得出的,但企业完全可以通过算法设置延长配送时间,但这将会降低平台的配送的订单量。

以互联网平台每天生产和推送的海量内容为例,在张凌寒看来,平台在推荐算法监管方面确实存在痛点难点,但难控制不等于不能控制,只要愿意投入成本是可以在一定程度上实现控制的。“头部平台企业有庞大的队伍进行人工内容审核和内容标记,所以我们很难在互联网上看到违反底线的内容,这是平台付出大力气去人工控制算法生成内容的结果。同样,在国外Facebook也在全球分布着几万人的审核队伍。在技术手段无法达到的情况下,平台对算法结果控制的背后都是人工成本。”

张凌寒认为,除了人工审查,还可以通过提高技术的方法来控制算法,以技术手段把违法违规的算法推荐结果的文字、图片、视频等进行拦截、屏蔽、过滤。“然而,平台内容是否低俗很难界定,因为低俗具有动态化、个性化的特征,所以这种网络生态治理的要求需要把算法监管的时点前移,考虑事前评估算法影响。”

“我觉得非常遗憾的是,劳动者的福利尚不在算法影响评估要素当中。”张凌寒介绍道,企业是追求利润的,它对算法影响的评估往往是内容有没有踩红线?有没有构成垄断、屏蔽竞争者?有没有大数据杀熟等问题。相信随着社会舆论与监管部门对劳动者福祉的关注度提升,这些因素也可能会成为算法影响评估的要素。

“无论是个性化推荐算法还是企业平台其他场景下的算法,企业所设置算法决策的要素和权重,我们绝对不可能逐一地进行检查。最重要的还是要提出价值观的导向,让企业自己去做可以控制的事情,这也是算法未来治理的一个必然趋势。”张凌寒称。