砥砺奋进谱新篇,且看旧貌换新颜。欢迎访问新的 IBM Developer 中文网站! 了解详情

IBM Developer 博客

通过 IBM Developer 关注最新动态并获取信息

IBM 向 LFAI 基金会捐赠了可信 AI 工具包


一个多世纪以来,IBM 创造的技术深刻地改变了人类的工作和生活方式:个人计算机、ATM、磁带、Fortran 编程语言、软盘、扫描隧道显微镜、关系数据库,以及最近的量子计算,不一而足。我们将信任作为我们的核心原则之一,在过去的一个世纪一直在不断创造客户可以信赖和依赖的产品,指导客户负责任地采用和使用产品,尊重我们服务的所有用户和社区的需求和价值观。

我们目前在人工智能 (AI) 方面开展的工作正在为当今世界带来类似程度的变革。我们将信任和透明度这些指导原则融入各项 AI 工作当中。我们的责任不仅是在使 AI 值得信赖和符合道德要求方面取得技术突破,而且还要确保这些可信算法能够在实际 AI 部署中按预期运作。

通过在公平公正的机器学习上开展的理论工作,我们得出了最早且引用次数最多的偏差缓解算法之一。我们应用了先进的机器学习方法,以此避免对受保护群体和个人的不必要歧视。通过将偏差检测和缓解算法集成到 Watson OpenScale 中,IBM 成为首家在实际产品中解决 AI 偏差的供应商。作为这项工作智慧的结晶,我们创建了 AI Fairness 360,这是一个全面的开源工具包,用于处理机器学习算法中的偏差。此外,我们还有两个开源的可信 AI 工具包:Adversarial Robustness 360AI Explainability 360,前者是帮助 AI 防御对抗性攻击的工具箱和库,后者是一个解读 AI 系统决策的工具箱。

2020 年 6 月 18 日,LFAI 基金会 (Linux Foundation AI Foundation,简称 LF AI 或 LFAI) 技术咨询委员会投票赞成在 LFAI 中托管和孵化这些可信 AI 项目。我们目前正处于项目上线阶段,正在逐步敲定这些项目的章程、治理和 IT 准备工作,并将它们移入基金会的管理范畴。LFAI 博客后续会宣布详细信息,大家可持续保持关注。

AIF 360 概述图

将这些项目捐赠给 LFAI 将会进一步推动打造负责任的 AI 驱动技术的使命,并帮助更广泛的社区在 Linux 基金会的监管下共创这些工具。

可信 AI 360 工具包

  • AI Fairness 360 (AIF360) Toolkit 是一个开源工具包,可以帮助检测和缓解机器学习模型和数据集中不必要的偏差。它提供了大约 70 个公平度量指标来测试偏差,并提供 11 种算法来减少数据集和模型中的偏差。AI Fairness 360 交互式体验提供了有关概念和功能的简要介绍。最近,AIF360 还宣布了兼容 Scikit Learn,并且发布了面向 R 用户的界面。

    AIF 360 概述图

  • Adversarial Robustness 360 (ART) Toolbox 是一个用于保障机器学习安全性的 Python 库。ART 提供的工具让研发人员能够根据各种对抗性威胁(包括逃避、中毒、提取和推断)来评估、保护、证明和验证机器学习模型和应用程序。ART 支持所有流行的机器学习框架(TensorFlow、Keras、PyTorch、MXNet、scikit-learn、XGBoost、LightGBM、CatBoost、GPy 等)、所有数据类型(图像、表格、音频、视频等)和机器学习任务(分类、对象检测、生成、认证等)。

    Adversarial Robustness Toolkit 图像

    去年,DARPA 对 IBM 研究院的科学家提供了资助,帮助推进对抗性 AI 研究的发展。

  • AI Explainability 360 (AIX360) Toolkit 是一个综合开源工具包,包含各种算法、代码、指南、教程和演示,用于支持机器学习模型的可解释性和可解读性。AI Explainability 360 交互式体验通过演示面向不同消费者人群的使用示例,对概念和功能进行了简要介绍。

    AI Explainability 仪表板图像

继续推进落实 LFAI 可信 AI 委员会的使命

去年,IBM 与 LFAI 合作成立了可信 AI 委员会(Trusted AI Committee),以推进可信赖 AI 的实践为使命。此后,该委员会已发展成为包括 10 多个组织,致力于在 AI 部署中定义和实施信任原则。该委员会一直在竭力推动的一项活动就是将 Trust 360 工具包集成到 Apache Nifi 或 Kubeflow Pipelines 中,以此推动可信赖的机器学习工作流程。

机器学习工作流程

我们还认识到,在推广可信赖、有益且公平合理的 AI 时,技术只是这个等式的一部分。我们有责任放宽视野,了解如何设计和部署 AI 系统,如何使用以及由谁来使用,同时评估它们对用户和社区的影响。

在这项使命中,社会科学、政策和立法以及多元观点所作出的贡献与技术本身同等重要。我们殷切期待不同领域的利益相关者为此作出贡献,并诚邀他们加入社区,为推进落实基金会的使命及其可信赖的 AI 开源项目贡献一份力量。

有关 LFAI 可信 AI 委员会活动的更多信息,可参阅 LFAI 理事会介绍。如果您有兴趣加入,可以通过可信 AI 委员会页面参与进来。

机器学习工作流程

在 6 月 30 日召开的北美开源峰会 以及 7 月 15 日召开的第 15 届开源中国开源世界高峰论坛 上,Todd Moore 在其主旨演讲中重点介绍了这则新闻。


本文翻译自:IBM and LFAI move forward on trustworthy and responsible AI(2020-06-29)