人工智能算法歧视及其治理

被引:85
|
作者
汪怀君
汝绪华
机构
[1] 中国石油大学(华东)马克思主义学院
基金
中央高校基本科研业务费专项资金资助;
关键词
人工智能; 算法歧视; 算法黑箱; 伦理;
D O I
暂无
中图分类号
D523 [行政管理]; TP18 [人工智能理论];
学科分类号
1204 ; 120401 ; 081104 ; 0812 ; 0835 ; 1405 ;
摘要
人工智能的快速崛起,在人类事务领域引发无法想象的革命的同时,愈益严重的算法歧视现象也引发了人们普遍的担忧与焦虑。AI算法绝不仅仅是一项单纯的技术性问题,其蕴含的政治风险、安全风险与伦理道德风险同样不容忽视。实际上,算法歧视不仅会导致种族歧视、性别歧视等严重社会后果,在一些关键领域或特定情境下,还会侵害公民权利、自由,甚至危害其生命安全。因此,对算法歧视善加治理,才能为算法及其行业的健康发展创造良好的环境。
引用
收藏
页码:101 / 106
页数:6
相关论文
共 2 条
  • [1] Semantics derived automatically from language corpora contain human-like biases
    Caliskan, Aylin
    Bryson, Joanna J.
    Narayanan, Arvind
    [J]. SCIENCE, 2017, 356 (6334) : 183 - 186
  • [2] Even artificial intelligence can acquire biases against race and gender .2 HUTSON M. https://www.sciencemag.org/news/2017/04/even-artificial-intelligence-can-acquire-biases-against-race-and-gender . 2017