可解释图神经网络从模型级解释构建可信赖GNN
图神经网络通过聚合和结合邻居信息来学习节点特征,在许多图的任务中取得了良好的性能。然而,GNN大多被视为黑盒,缺乏人类可理解的解释。因此,如果不能解释GNN模型,就不能完全信任它们并在某些应用程序域中使用它们。
用户评论
推荐下载
-
ChatGPT模型对话生成:可解释性与规则引擎结合探索
探讨了ChatGPT模型在对话生成中的可解释性分析与规则引擎结合的方法。我们详细描述了ChatGPT技术的使用教程,包括基本的使用方法、技巧,以及在使用过程中需要注意的事项。同时,我们还针对常见的问题
7 2024-05-11 -
XSWEM用于NLP的简单且可解释的深度学习模型源码
XSWEM TensorFlow中实现了一个简单且可解释的NLP深度学习模型。 基于Shen等人提出的SWEM-max。 。 该软件包目前正在开发中。 该软件包的目的是使培训和解释SWEM-max变得
18 2021-02-09 -
构建企业数据神经网络
WorkAuto信息管理平台、云应用、云开发、云服务,全面信息化解决方案,
23 2018-12-07 -
很棒的机器学习可解释性精选的很棒的机器学习可解释性资源列表源码
很棒的机器学习可解释性:精选的很棒的机器学习可解释性资源列表
15 2021-02-01 -
cpp InterpretML是一个开源软件包用于训练可解释的模型和解释黑盒系统
InterpretML是一个开源软件包,用于训练可解释的模型和解释黑盒系统
8 2020-08-09 -
一文读懂可解释机器学习简史
近年来,可解释机器学习(IML) 的相关研究蓬勃发展。尽管这个领域才刚刚起步,但是它在回归建模和基于规则的机器学习方面的相关工作却始于20世纪60年代。
14 2020-11-10 -
可解释人工智能XAI算法到应用
能够解释机器学习模型的预测在医疗诊断或自主系统等关键应用中是很重要的。深度非线性ML模型的兴起,在预测方面取得了巨大的进展。然而,我们不希望如此高的准确性以牺牲可解释性为代价。结果,可解释AI (XA
25 2020-10-18 -
机器推理可解释性综述论文
作为人工智能的一个领域,机器推理(MR)主要使用符号手段来形式化和模拟抽象推理。早期MR的研究已经开始对可解释的人工智能(XAI)进行调查,这可以说是当今人工智能界最关心的问题之一。
17 2020-09-10 -
深度学习可解释性研究进展
近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机器学习的可解释性
12 2020-10-14 -
Python可解释机器学习相关资源大列表
有助于模型可解释性(内省,简化,可视化,解释)的资源清单
22 2020-08-08
暂无评论