mirror of
https://github.com/openmlsys/openmlsys-zh.git
synced 2026-04-04 03:09:07 +08:00
Add the recommender systems chapter. (#75)
* update explainable AI structure. * fix
This commit is contained in:
@@ -1,8 +1,5 @@
|
||||
可解释机器学习系统
|
||||
============================
|
||||
|
||||
背景
|
||||
----
|
||||
## 背景
|
||||
|
||||
在人类历史上,技术进步、生产关系逻辑、伦理法规的发展是动态演进的。当一种新的技术在实验室获得突破后,其引发的价值产生方式的变化会依次对商品形态、生产关系等带来冲击,而同时当新技术带来的价值提升得到认可后,商业逻辑的组织形态在自发的调整过程中,也会对技术发展的路径、内容甚至速度提出诉求,并当诉求得到满足时适配以新型的伦理法规。在这样的相互作用中,技术系统与社会体系会共振完成演进,是谓技术革命。
|
||||
|
||||
@@ -26,8 +23,7 @@
|
||||
|
||||
因此,从商业推广层面以及从法规层面,我们都需要打开黑盒模型,对模型进行解释,可解释AI正是解决该类问题的技术。
|
||||
|
||||
可解释AI定义
|
||||
------------
|
||||
## 可解释AI定义
|
||||
|
||||
按DARPA(美国国防部先进研究项目局)的描述,如 :numref:`xai_concept`所示,
|
||||
可解释AI的概念在于区别于现有的AI系统,可解释AI系统可以解决用户面对模型黑盒遇到的问题,是的用户知其然并知其所以然。
|
||||
@@ -50,8 +46,7 @@ AI(XAI)),不论是学术界还是工业界都没有一个统一的定义。这
|
||||
|
||||
我们根据自身的实践经验和理解,将可解释AI定义为:一套面向机器学习(主要是深度神经网络)的技术合集,包括可视化、数据挖掘、逻辑推理、知识图谱等,目的是通过此技术合集,使深度神经网络呈现一定的可理解性,以满足相关使用者对模型及应用服务产生的信息诉求(如因果或背景信息),从而为使用者对人工智能服务建立认知层面的信任。
|
||||
|
||||
可解释AI算法现状介绍
|
||||
--------------------
|
||||
## 可解释AI算法现状介绍
|
||||
|
||||
随着可解释AI概念的提出,可解释AI越来越受到学术界及工业界的关注,下图展示了人工智能领域顶级学术会议中可解释AI关键字的趋势。为了供读者更好的对现有可解释AI算法有一个整体认知,我们这里参考[@2020tkde_li]总结归纳了可解释AI的算法类型,如图\[fig:ch011/xai\_methods\]
|
||||
所示。
|
||||
@@ -166,8 +161,7 @@ MOBA.)[]{data-label="fig:ch011/xai_steam"}](../img/ch11/xai_kg_recommendataion
|
||||
Fortress 2”推荐给用户的解释可以翻译成固定话术:“Team Fortress
|
||||
2”是游戏公司“Valve”开发的一款动作类、多人在线、射击类“action”电子游戏。这与用户历史玩过的游戏“Half-Life”有高度关联。
|
||||
|
||||
未来可解释AI
|
||||
------------
|
||||
## 未来可解释AI
|
||||
|
||||
为了进一步推动这个方向,我们在此总结了一些值得注意的前景:
|
||||
|
||||
|
||||
Reference in New Issue
Block a user