砥砺奋进谱新篇,且看旧貌换新颜。欢迎访问新的 IBM Developer 中文网站! 了解详情

IBM Developer 博客

通过 IBM Developer 关注最新动态并获取信息

AI Fairness 360 R 软件包可以帮助 R 用户检测和减轻偏差


随着机器学习模型越来越多地用于高风险决策中,AI 公平性现在已成为一个重要的主题。机器学习能够发现并概括数据中的模式,因此可以复制特权组的系统优势。为了确保公平,我们必须分析并解决训练数据或模型中可能存在的任何认知偏差。

我们很高兴宣布,现已发布了 AI Fairness 360 R 软件包,这是一个开源库,其中提供了多种方法可帮助在整个 AI 应用程序生命周期中检测和减轻数据集和机器学习模型中存在的偏差。

AI 应用程序生命周期

在 AI 应用程序生命周期中减轻偏差

AI Fairness 360 R 软件包提供了以下项:

  • 用于测试数据集和模型中存在的偏差的一套全面的指标
  • 用于减轻数据集和模型中存在的偏差的算法

AI Fairness 的功能

  • 指标:通过 AI Fairness 360 R 软件包,R 用户可以使用一系列不同的指标来测试其训练数据中存在的偏差。

  • 预处理算法:利用该工具集中的“预处理算法”,用户可以修改训练数据以减轻或消除这种偏差。现在,可以使用该数据来构建更公平的模型。

  • 中间处理算法:该工具集中的“中间处理算法”将构建能够考虑公平性的机器学习模型。这些算法不会修改数据,而是考虑使用受保护的属性来构建更公平的机器学习模型。

  • 后处理算法:利用“后处理算法”,用户可以修改通过现有机器学习模型得出的预测以确保公平。这些算法专为无法修改原始数据或已具有可正常工作的模型的 R 用户而设计。

要确定哪些指标和算法最适用于给定的用例,请查看此指导材料

入门

您可以使用以下命令从 GitHub 上安装 aif360 开发版本。

# install.packages("devtools")
devtools::install_github("IBM/AIF360/aif360/aif360-r")

然后,使用 install_aif360() 函数来安装 AIF 360。

library(aif360)
install_aif360()
load_aif360_lib()

此软件包目前正在由 CRAN 审核。

示例

# Load census income dataset [https://archive.ics.uci.edu/ml/datasets/adult](https://archive.ics.uci.edu/ml/datasets/adult)
ad <- adult_dataset()

# Specify the protected class and privileged & unprivileged classes
privileged <- list("race", 1)
unprivileged <- list("race", 0)

# Creating a dataset metric to evaluate fairness
dm <- binary_label_dataset_metric(ad, privileged, unprivileged)

# Calculate the disparate impact value
dm$disparate_impact()

贡献

我们在开发此软件包时已经考虑到可扩展性。该库仍在开发中,我们期待您在指标、解释器和去偏算法等方面做出贡献。

如果您想为 aif360 的开发做出贡献,请阅读这些指南

请注意,aif360 项目是根据贡献者行为准则发布的。为该项目做出贡献即表明您同意遵守其条款。

本文翻译自:The AIF360 fairness toolkit is now available for R users(2020-06-03)