当前位置:河南热线 > 科技 > 正文
当前速读:于洋:算法公平性提升,需兼顾效率等功能诉求
2022-07-15 17:16:32 来源: 中新经纬
关注河南热线


(资料图片仅供参考)

中新经纬7月15日电 (王玉玲)近日,由对外经济贸易大学数字经济与法律创新研究中心主办的“算法公平治理与实现”研讨会在线上举行。清华大学交叉信息研究院助理教授于洋表示,人工智能算法歧视可能涉及到根本的理论性的重大问题。如今,知识问答,智能的法律审判,都是基于语言模型。

于洋分享了一个很重要的结论,如果我们纠正算法性别歧视或者种族歧视,算法完成其他功能的能力也随之下降。在这种情况下,几乎所有模型,没有歧视的同时也完不成任务,或者水平很好,但是歧视程度很高。

由此带来了一个疑问,人工智能到底能不能不歧视?就是人工智能只学会干好事,不学会歧视。于洋表示,要是人工智能这个工具本身不可能只学会干好事,不学会歧视,或者说歧视就是干好事前提的话,那这对人工智能算法的使用、监管会带来很多新的思考,这是一个很重要的理论问题。

于洋认为,其中训练数据和路径至关重要。在人工智能设计中,训练数据影响结果有三条路径。第一,训练的数据影响了输入,把输入的词转化为向量,向量本身会直接对预测结果产生影响;第二,向量作为输入本身,也会通过模型里面的参数,最后影响输出;第三,训练数据决定了模型里面的参数,也影响了结果的输出。在这三条路径中,如果歧视是因为数据导致的,我们去纠正路径所带来的歧视,不会影响模型表现。

于洋表示,如果我们知道影响歧视的路径和原理,我们就可以想办法纠正。还有一些需要处理的技术难题,比如我们并不知道没有歧视的情况是什么样的,我们要通过不断搜寻排除,找到一个不那么歧视的状态。(中新经纬APP)

编辑:张澍楠

责任编辑:hN_1527
    独家