Add the recommender systems chapter. (#75)

* update explainable AI structure.

* fix
This commit is contained in:
Luo Mai
2022-03-11 16:03:03 +00:00
committed by GitHub
parent 474557e3a8
commit 5ab397a5a6
2 changed files with 5 additions and 11 deletions

View File

@@ -1,8 +1,5 @@
可解释机器学习系统
============================
背景
----
## 背景
在人类历史上,技术进步、生产关系逻辑、伦理法规的发展是动态演进的。当一种新的技术在实验室获得突破后,其引发的价值产生方式的变化会依次对商品形态、生产关系等带来冲击,而同时当新技术带来的价值提升得到认可后,商业逻辑的组织形态在自发的调整过程中,也会对技术发展的路径、内容甚至速度提出诉求,并当诉求得到满足时适配以新型的伦理法规。在这样的相互作用中,技术系统与社会体系会共振完成演进,是谓技术革命。
@@ -26,8 +23,7 @@
因此从商业推广层面以及从法规层面我们都需要打开黑盒模型对模型进行解释可解释AI正是解决该类问题的技术。
可解释AI定义
------------
## 可解释AI定义
按DARPA美国国防部先进研究项目局的描述如 :numref:`xai_concept`所示,
可解释AI的概念在于区别于现有的AI系统可解释AI系统可以解决用户面对模型黑盒遇到的问题是的用户知其然并知其所以然。
@@ -50,8 +46,7 @@ AI(XAI)),不论是学术界还是工业界都没有一个统一的定义。这
我们根据自身的实践经验和理解将可解释AI定义为一套面向机器学习主要是深度神经网络的技术合集包括可视化、数据挖掘、逻辑推理、知识图谱等目的是通过此技术合集使深度神经网络呈现一定的可理解性以满足相关使用者对模型及应用服务产生的信息诉求如因果或背景信息从而为使用者对人工智能服务建立认知层面的信任。
可解释AI算法现状介绍
--------------------
## 可解释AI算法现状介绍
随着可解释AI概念的提出可解释AI越来越受到学术界及工业界的关注下图展示了人工智能领域顶级学术会议中可解释AI关键字的趋势。为了供读者更好的对现有可解释AI算法有一个整体认知我们这里参考[@2020tkde_li]总结归纳了可解释AI的算法类型如图\[fig:ch011/xai\_methods\]
所示。
@@ -166,8 +161,7 @@ MOBA.[]{data-label="fig:ch011/xai_steam"}](../img/ch11/xai_kg_recommendataion
Fortress 2”推荐给用户的解释可以翻译成固定话术“Team Fortress
2”是游戏公司“Valve”开发的一款动作类、多人在线、射击类“action”电子游戏。这与用户历史玩过的游戏“Half-Life”有高度关联。
未来可解释AI
------------
## 未来可解释AI
为了进一步推动这个方向,我们在此总结了一些值得注意的前景: