人工智能时代的算法正义与秩序构建

被引:44
作者
董青岭 [1 ]
朱玥 [1 ,2 ]
机构
[1] 对外经济贸易大学国际关系学院
[2] 天津外国语大学滨海外事学院
关键词
算法政治; 算法歧视; 算法偏见; 算法正义; 算法秩序;
D O I
暂无
中图分类号
TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
算法从来就不是客观和中立的,通常算法由谁来制定、遵循何种规则和如何被执行反映的是设计者的价值选择与社会分配正义问题。就此而言,算法即规则,而规则即统治,算法已然成为人工智能时代社会变革的关键驱动力量和新秩序的塑造者。然而,作为一种新式的权利和财富分配工具,算法在赋权一部分人的同时,算法滥用、算法误用以及算法垄断也在排斥和边缘化另外一部分人。算法歧视主要源自以下三种形成机制:原生性偏见、学习性偏见和外源性偏见。算法偏见与一般偏见不同,一旦形成不仅难以消除,而且极易产生社会放大效应。治理和规约算法偏见需要遵循以下四原则:授权同意原则、透明性原则、问责求偿原则以及人的价值和尊严优先原则。进而,在算法开发者、应用者、销售者、传播者以及管理者之间建立沟通桥梁并设立管控机制,以便将算法伤害和算法偏见收缩到最小,形成一个公平、公正的算法秩序。
引用
收藏
页码:82 / 86+178 +178
页数:6
相关论文
共 5 条
[1]  
被算法操控的生活[M]. 湖南科学技术出版社 , 大卫·萨普特, 2019
[2]  
Fair, Transparent, and Accountable Algorithmic Decision-making Processes[J] . Bruno Lepri,Nuria Oliver,Emmanuel Letouzé,Alex Pentland,Patrick Vinck. Philosophy & Technology . 2018 (4)
[3]   Want to be on the top? Algorithmic power and the threat of invisibility on Facebook [J].
Bucher, Taina .
NEW MEDIA & SOCIETY, 2012, 14 (07) :1164-1180
[4]   The limits of privacy in automated profiling and data mining [J].
Schermer, Bart W. .
COMPUTER LAW & SECURITY REVIEW, 2011, 27 (01) :45-52
[5]  
被算法操控的生活:重新定义精准广告、大数据和ai .2 大卫.萨普特. .