目录
InterpretML: A Unified Framework for Machine Learning Interpretability
https://github.com/microsoft/interpret
InterpretML 是一个为实践者和研究者提供机器学习可解释性算法的开源 Python 软件包。InterpretML 能提供以下两种类型的可解释性:(1)明箱(glassbox),这是针对可解释性设计的机器学习模型(比如线性模型、规则列表、广义相加模型);(2)黑箱(blackbox)可解释技术,用于解释已有的系统(比如部分依赖、LIME)。这个软件包可让实践者通过在一个统一的 API 下,借助内置的可扩展可视化平台,使用多种方法来轻松地比较可解释性算法。InterpretML 也包含了可解释 Boosting 机(Explanable Boosting Machine,EBM)的首个实现,这是一种强大的可解释明箱模型,可以做到与许多黑箱模型同等准确的性能。
“Why Should I Trust You?” Explaining the Predictions of Any Classifier
https://github.com/marcotcr/lime
LIME是一种算法(库),可以解释任何分类器或回归量的预测。LIME是如何做到的呢?通过可解释的模型在局部不断接近预测值,这个模型解释器可用于生成任何分类算法的解释。
RSLIME: An Efficient Feature Importance Analysis Approach for Industrial Recommendation Systems
相比于传统的视频推荐系统,爱奇艺的 UGC 推荐和小视频分发有四个极其困难的方面:
针对这些难题,爱奇艺的研究者提出了一种遵循多阶段流程的模型,其由三个模块构成,即用户画像(User Profile)、召回(Recall)和排序 Ranking)。为了提升小视频推荐系统的表现,每个模块中都使用了广泛的模型集成方法。下面简要介绍了其系统结构:
为了监控排序模型的工作方式是否有如预期以及是否能加速模型的迭代过程,爱奇艺提出了一种与模型无关的推荐系统局部可解释方法 Recommendation System Boosted Local Interpretable Model-Agnostic Explanations Method(RSLIME,),可为其排序模型提供特征重要度分析。RSLIME 有望为推荐系统中的特征选取过程提供参照,并帮助推荐系统开发者不必太过麻烦就能调整他们的排序模型。RSLIME 具有以下特点:
其中:
这里使用 X 表示输入数据,x 表示单个输入样本。样本 x 的 n 维输入特征表示为 Zn 或 (z1…zn)。z 表示单个特征组合,推理模型表示为 f。线性回归模型 g ∈ G 等可解释的模型经过训练后用于执行单个案例的特征重要度分析。
RSLIME 是局部可解释的与模型无关的解释(LIME)方法的一种扩展。LIME 使用了一种可解释的模型来评估推理模型 f 在单个输入样本 x 上的特征重要度。设有 100 个特征 (z1…z100) 的一个输入样本 x,f(x) 是 x 的推理结果。
LIME 首先会自动生成数千个不同的特征组合(比如 z1…z99、z2…z100)。然后对于每个特征组合,LIME 根据这个组合内部的特征(同时掩盖其它所有特征)计算该推理模型 f 的预测结果。为了说明清楚,使用特征组合 z1…z99 时,表示 z100 被 0 掩码掩盖。
给定每个特征组合 z 和对应的预测结果 f(z),LIME 会计算 z 和 x 的距离并将其作为 z 的权重,然后会训练一个可解释的模型(以线性回归模型为例)g 将 z 映射到 f(z) 和 f(x) 之间的绝对差值,然后用作单个案例特征重要度的直接指示。这个可解释模型中每个特征的最终权重都会被用作特征重要度。因此,LIME 的局部特征诊断算法可以表示为:
\[
\varepsilon(x)=\operatorname{argmin}_{g \in G} L\left(f, g, \pi_{x}(z)\right)+\Omega(g)
\]
\(\Omega(g)\)
表示模型复杂度,\(\pi_{x}(z)\)
表示样本x的特征组合。
https://github.com/h2oai/mli-resources
H2O的无人驾驶AI,提供简单的数据可视化技术,用于表示高度特征交互和非线性模型行为,通过可视化提供机器学习可解释性(MLI),说明建模结果和模型中特征的影响。