人工智能的可解释性与AI的法律责任问题研究

被引:119
作者
刘艳红
机构
[1] 中国政法大学刑事司法学院
关键词
人工智能; 可解释性; 法律责任; 自我答责; 责任预防;
D O I
暂无
中图分类号
D910 [各国法律综合汇编]; TP18 [人工智能理论];
学科分类号
030101 ; 1407 ; 081104 ; 0812 ; 0835 ; 1405 ;
摘要
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能"黑箱"释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。
引用
收藏
页码:78 / 91
页数:14
相关论文
共 24 条
[1]  
Explainable Artificial Intelligence (XAI): Concepts; taxonomies; opportunities and challenges toward responsible AI.[J].Alejandro Barredo Arrieta;Natalia Díaz-Rodríguez;Javier Del Ser;Adrien Bennetot;Siham Tabik;Alberto Barbado;Salvador Garcia;Sergio Gil-Lopez;Daniel Molina;Richard Benjamins;Raja Chatila;Francisco Herrera.Information Fusion.2020,
[2]   Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI) [J].
Adadi, Amina ;
Berrada, Mohammed .
IEEE ACCESS, 2018, 6 :52138-52160
[3]  
法学方法论.[M].卡尔·拉伦茨.商务印书馆.2020,
[4]  
谁为机器人的行为负责?.[M].乌戈·帕加罗.上海人民出版社.2018,
[5]  
人工智能与法律的对话.[M].彭诚信.上海人民出版社.2018,
[6]  
法哲学原理.[M].黑格尔.商务印书馆.2017,
[7]  
智能的本质.[M].皮埃罗·斯加鲁菲.人民邮电出版社.2017,
[8]  
终极算法.[M].佩德罗·多明戈斯.中信出版社.2016,
[9]  
道德形而上学原理.[M].(德) 康德; 著.上海人民出版社.2012,
[10]  
刑事责任论.[M].(英) 塔德洛斯; 著.中国人民大学出版社.2009,