一个多世纪以来,IBM 创造的技术深刻地改变了人类的工作和生活方式:个人计算机、ATM、磁带、Fortran 编程语言、软盘、扫描隧道显微镜、关系数据库,以及最近的量子计算,不一而足。我们将信任作为我们的核心原则之一,在过去的一个世纪一直在不断创造客户可以信赖和依赖的产品,指导客户负责任地采用和使用产品,尊重我们服务的所有用户和社区的需求和价值观。
我们目前在人工智能 (AI) 方面开展的工作正在为当今世界带来类似程度的变革。我们将信任和透明度这些指导原则融入各项 AI 工作当中。我们的责任不仅是在使 AI 值得信赖和符合道德要求方面取得技术突破,而且还要确保这些可信算法能够在实际 AI 部署中按预期运作。
通过在公平公正的机器学习上开展的理论工作,我们得出了最早且引用次数最多的偏差缓解算法之一。我们应用了先进的机器学习方法,以此避免对受保护群体和个人的不必要歧视。通过将偏差检测和缓解算法集成到 Watson OpenScale 中,IBM 成为首家在实际产品中解决 AI 偏差的供应商。作为这项工作智慧的结晶,我们创建了 AI Fairness 360,这是一个全面的开源工具包,用于处理机器学习算法中的偏差。此外,我们还有两个开源的可信 AI 工具包:Adversarial Robustness 360 和 AI Explainability 360,前者是帮助 AI 防御对抗性攻击的工具箱和库,后者是一个解读 AI 系统决策的工具箱。
2020 年 6 月 18 日,LFAI 基金会 (Linux Foundation AI Foundation,简称 LF AI 或 LFAI) 技术咨询委员会投票赞成在 LFAI 中托管和孵化这些可信 AI 项目。我们目前正处于项目上线阶段,正在逐步敲定这些项目的章程、治理和 IT 准备工作,并将它们移入基金会的管理范畴。LFAI 博客后续会宣布详细信息,大家可持续保持关注。
将这些项目捐赠给 LFAI 将会进一步推动打造负责任的 AI 驱动技术的使命,并帮助更广泛的社区在 Linux 基金会的监管下共创这些工具。
可信 AI 360 工具包
AI Fairness 360 (AIF360) Toolkit 是一个开源工具包,可以帮助检测和缓解机器学习模型和数据集中不必要的偏差。它提供了大约 70 个公平度量指标来测试偏差,并提供 11 种算法来减少数据集和模型中的偏差。AI Fairness 360 交互式体验提供了有关概念和功能的简要介绍。最近,AIF360 还宣布了兼容 Scikit Learn,并且发布了面向 R 用户的界面。
Adversarial Robustness 360 (ART) Toolbox 是一个用于保障机器学习安全性的 Python 库。ART 提供的工具让研发人员能够根据各种对抗性威胁(包括逃避、中毒、提取和推断)来评估、保护、证明和验证机器学习模型和应用程序。ART 支持所有流行的机器学习框架(TensorFlow、Keras、PyTorch、MXNet、scikit-learn、XGBoost、LightGBM、CatBoost、GPy 等)、所有数据类型(图像、表格、音频、视频等)和机器学习任务(分类、对象检测、生成、认证等)。
去年,DARPA 对 IBM 研究院的科学家提供了资助,帮助推进对抗性 AI 研究的发展。
AI Explainability 360 (AIX360) Toolkit 是一个综合开源工具包,包含各种算法、代码、指南、教程和演示,用于支持机器学习模型的可解释性和可解读性。AI Explainability 360 交互式体验通过演示面向不同消费者人群的使用示例,对概念和功能进行了简要介绍。
继续推进落实 LFAI 可信 AI 委员会的使命
去年,IBM 与 LFAI 合作成立了可信 AI 委员会(Trusted AI Committee),以推进可信赖 AI 的实践为使命。此后,该委员会已发展成为包括 10 多个组织,致力于在 AI 部署中定义和实施信任原则。该委员会一直在竭力推动的一项活动就是将 Trust 360 工具包集成到 Apache Nifi 或 Kubeflow Pipelines 中,以此推动可信赖的机器学习工作流程。
我们还认识到,在推广可信赖、有益且公平合理的 AI 时,技术只是这个等式的一部分。我们有责任放宽视野,了解如何设计和部署 AI 系统,如何使用以及由谁来使用,同时评估它们对用户和社区的影响。
在这项使命中,社会科学、政策和立法以及多元观点所作出的贡献与技术本身同等重要。我们殷切期待不同领域的利益相关者为此作出贡献,并诚邀他们加入社区,为推进落实基金会的使命及其可信赖的 AI 开源项目贡献一份力量。
有关 LFAI 可信 AI 委员会活动的更多信息,可参阅 LFAI 理事会介绍。如果您有兴趣加入,可以通过可信 AI 委员会页面参与进来。
在 6 月 30 日召开的北美开源峰会 以及 7 月 15 日召开的第 15 届开源中国开源世界高峰论坛 上,Todd Moore 在其主旨演讲中重点介绍了这则新闻。
本文翻译自:IBM and LFAI move forward on trustworthy and responsible AI(2020-06-29)