当前位置:河南热线 > 科技 > 正文
全球看点:陈旭:算法公平需兼顾用户满意度和商品公平性
2022-07-15 21:11:05 来源: 中新经纬
关注河南热线


(相关资料图)

中新经纬7月15日电 (王玉玲)近日,由对外经济贸易大学数字经济与法律创新研究中心主办的“算法公平治理与实现”研讨会在线上举行。中国人民大学高瓴人工智能学院助理教授陈旭对推荐算法领域公平性进行了介绍。

推荐算法是今日头条、优酷等各大网站中标配的组件,它可以缓解信息过载问题,帮助用户节省大量时间,找到自己感兴趣的商品、视频和其他信息,也可以帮助企业提升销量,在互联网当中应用广泛。

陈旭介绍道,从人工智能角度来讲,推荐算法和传统人工智能,包括计算机视觉、自然语言处理有所差别,后者偏向客观AI,前者偏向主观AI,公平性指标对其更为重要。由于推荐系统用户本身的差异,基于用户的公平性在实现过程中更关注不同组用户对推荐结果满意度的公平,而不局限于追求推荐结果的一致性。主观AI以提升利益方的效益为目的,而并非单纯提升准确度,利益方包括用户、商家、其他人员,如骑手等。“效益比准确度的范围要大很多,公平性就是效益的一个重要方面。”陈旭说道。

对于推荐系统领域的公平性,陈旭将其分为三类,包括基于用户的公平、基于商品的公平和基于用户和商品的公平。基于用户的公平有两种比较常用的定义,第一种是希望对于不同组的用户,推荐结果应该尽量相似。但推荐结果相似,对于个人来讲满意度可能会降低,所以在这个基础上人们又提出基于用户满意度的公平性。比如对于不同用户,并不需要给他们推荐相似结果,只需要让不同用户之间满意度比较相似即可。如果有的用户满意度比较高,有的用户满意度比较低,则被认为是不公平的。所以基于推荐结果的满意度公平性目前在推荐系统领域较为推崇。基于商品的公平性希望热门商品被推荐的概率稍微低一点,冷门商品被推荐的概率尽量高一点。基于用户和商品的公平性是将上述两类方法融合在一起。

从实现的角度来讲,基于公平性的推荐算法通常可以分为三类,第一是前处理方法,这类方法往往直接去除敏感变量或通过调整权重、删除样本等方式使敏感变量和预测结果相互独立;第二是中处理方法,它希望模型学习产生的结果本身就是公平的,而无需对数据进行预处理;第三是后处理方法,在这类方法中,人们通常先预训练推荐模型,然后对推荐结果进行重排序,使得它能够满足群组或个体的公平性约束。对于推荐算法的公平性,未来仍需研究三个问题:第一,个人如何能够感受到算法是否公平;第二,算法公平性的定义众多,以何种标准来定义公平更为合适;第三,对于多敏感变量,特别是相互矛盾的敏感变量,如何权衡实现公平。(更多报道线索,请联系本文作者王玉玲:wangyuling@chinanews.com.cn)(中新经纬APP)

责任编辑:hN_1527
    独家