新しい IBM Developer JP サイトへようこそ!サイトのデザインが一新され、旧 developerWorks のコンテンツも統合されました。 詳細はこちら

AI に信頼感を植え付ける

このチュートリアルは、ラーニング・パス「Getting started with Watson OpenScale」を構成するコンテンツです。

今や、人工知能 (AI) は至るところで使用されています。家の中にある Alexa から Netflix、Google の予測検索エンジンから手術用ロボットに至るまで、AI システムは感知し、推論し、理解し、学習し、対話することができます。

さまざまな業界で AI がメリットをもたらす中、企業もスタートアップも、アプリケーションをよりスマートでより優れたものにする新しい手法を常に取り入れています。AI 市場は 2025 年までに 1900 億ドル (USD) 規模の産業になると見込まれています。その一方で、AI の進化は新しい課題をもたらし、法的および論理的問題を引き起こす可能性があります。

現在のところ、AI は謎めいた方法で決定を吐き出すブラック・ボックスとして捉えられています。企業は AI の決定がどのようにして至ったのかを説明または理解しようと四苦八苦しています。

<!–例えば、中国の大都市ではスマート・カメラと AI ベースの顔認識機能を使用して、ジェイウォーカー (交通規則を無視し、自動車が行き交う道路を横断してはいけないところで横断する歩行者) を検出し、識別しています。識別されたジェイウォーカーの部分的に難読化した名前と顔を、公共のディスプレイ画面に表示するというシステムです。このシステムが、寧波という都市でミスを犯しました。路線バスの車体に広告として掲載されていた中国人億万長者の Mingzhu Dong 氏の写真が、誤ってジェイウォーカーとして「認識」されたのです。Dong 氏はこの件を、ライブでの検出と認識は非常に難しいという理由で「取るに足りない問題」と片づけました。

ジェイウォーカー

けれども、–>例えば犯罪者に宣告する刑を判定するために AI システムの結果が利用されているとしたら、取るに足りない問題で済ませられるでしょうか?米国では、被告の保釈金と有罪判決を受けた犯罪人の刑罰を含め、裁判官が決定を下すために COMPAS の結果を参考にできるようになっています。COMPAS は、再犯の可能性が高い犯罪者を予測するために使用する、AI 駆動のリスク・アセスメント・ソフトウェアです。このソフトウェアの結果にバイアスが表われていたことで、その精度が疑問視されました

人の安全が懸かっている場合、AI の誤りが取るに足りない問題であるはずはありません。2018 年、Uber の自動運転車が自律モードで人間のセイフティー・ドライバーを乗せて走っているときに、アリゾナ州で女性の歩行者をはね殺すという事件が起こりました。車載センサーは歩行者を検出したものの、ブレーキをかける必要も他のアクションをとる必要もないと決定を下したのです。この事件が基で、Uber をはじめ、Toyota や NVIDIA などの他の企業も米国での自動運転車のテストを中断する結果となりました。

私たちの生活において AI が果たす役割は次第に大きくなっています。AI が私たちに代わって決定を下す中、重要な疑問として浮かび上がってくるのは次の点です。

AI システムはどれだけ信頼できるのか、どの程度信頼すべきなのか

この疑問を晴らすべく、2019 年 4 月に欧州連合が人工知能の倫理ガイドラインに関する調査結果を公表しました。このガイドラインでは、信頼できる AI を実現するための 7 つの要点を概説しています。これらの要点には、プライバシーとデータ・ガバナンス、多様性、安全性などが含まれます。

今年の初め、Smart Dubai Government というドバイ政府の公式ポータルで Dubai AI Principles が発表されました。この AI 原則では、ドバイ市の志向するところを示し、AI システムのあるべき動作に向けたロードマップを規定しています。それと同時に Dubai AI Ethics Guidelines を発表し、責任説明や AI アルゴリズム関連の極めて重要な課題に関する詳細なガイダンスを提供しています。Dubai AI Ethics Self-Assessment Tool を使用すると、Dubai の AI 論理規定に基づく AI システムの倫理レベルを自己評価できます。

AI の信頼性を支える 4 つの柱

倫理的 AI は、IBM での大きな研究分野です。このファクト・シートでは、信頼できる AI システムの基礎を形成する 4 つの要素 (支柱) について説明しています。

  1. 説明可能性: AI モデルが特定の決定に至った経緯を把握し、理解できるようでなければなりません。つまり、AI モデルの仕組みに可視性をもたらすということです。現在のところ、機械学習モデルはブラック・ボックスです。モデルが何らかの判定を行ったときに、どうしてその判定が行われたのかはわかりません。

    AI の信頼性を左右する基本的な要素とは言え、説明可能性を実装するのは難しい課題です。説明可能性を実装するということは、モデルの精度を犠牲にすることになります。解釈しやすい単純なモデル (線形回帰、決定木など) にすると、モデルの予測能力が乏しくなるためです。ニューラル・ネットワークやランダム・フォレストなどのより強力でより複雑なアルゴリズムは極めて精度が高くなるものの、その複雑さにより理解するのは困難です。

    説明可能性には複数の次元が伴うことも考慮すべき点です。アルゴリズムの内部構造について、さまざまな利害関係者がそれぞれの目的と目標に応じて異なる側面に関する洞察を必要とします。したがって、利害関係者に応じて説明を調整しなければなりません。

  2. 公平性: 公平な AI システムにするということは、モデルやデータに潜むバイアスを排除 (または少なくとも最小限にする) ことを意味します。バイアスは、トレーニング・データの配分と目的とする公平な配分との不一致として説明することができます。作成または収集するトレーニング・データや、処理後のトレーニング・データによって AI システムにバイアスが入り込むことはよくあります。こうしたバイアスをシステムが排除せずにそのままエンコードすると、バイアスがシステム全体に広がり、(COMPAS の場合と同じように) 不公正な結果を生む可能性が出てきます。機械学習アルゴリズムは、提供されたトレーニング・データから学習します。このことから、よく言われるように「ガラクタを入れればガラクタが出てくる」ことになります。

    AI の採用を促すためには、AI がバイアスを取り込んで増幅しないようにすること、不当な扱いを避けるために公平なトレーニング・データとモデルを使用することが必要です。トレーニング・データ・セットに潜むバイアスを識別し、キュレートして最小限にするためのテストを確立することが、AI システムの公平性を確保する上で重要な要素となります。

  3. 堅牢性: 堅牢性は安全性とセキュリティーという 2 つの要素からなります。

    AI の安全性とは、一般に、安定した安全な動作につながる社会規範、方針、法規制を反映した知識を築き上げられるかどうかという、AI モデルの能力に関わるものです。

    AI のセキュリティーとは、悪意のある攻撃から AI システムを防御することを意味します。あらゆるソフトウェア・システムと同様に、AI システムは敵対的攻撃に対して脆弱です。この脆弱性により、モデルを改ざんすることやデータを漏洩したり、悪意のあるデータを混入したりすることが可能であるため、セキュリティー上の懸念が生じます。

    1 ピクセル攻撃 1

    攻撃者は AI モデルの出力を調べてモデルを盗むことができます。あるいは、ノイズや敵対的摂動を忍び込ませてアルゴリズムを欺くこともできます。こうした攻撃が難しいと思うのなら、この論文「One Pixel Attack for Fooling Deep Neural Networks」を読んでください。画像内の 1 ピクセル、そうです、たった 1 ピクセルを改ざんするだけで、深層ニューラル・ネットワークが画像を誤って識別する仕組みを説明しています。

    セキュリティーを強化することは可能です。その方法としては、システム内に存在する脆弱性を明らかにして修正すること、新たな攻撃と防御を識別すること、攻撃に対する防衛力を強化する新しい敵対的トレーニング手法を設定すること、堅牢性を評価する新しい指標を開発することが挙げられます。

  4. リネージュ: AI モデルは絶えず進化します。リネージュとは、データ・セット、メタデータ、モデルとそのハイパーパラメーター、そしてテスト結果の出所を追跡し、保守することを意味します。規制機関、当該組織、サード・パーティー、ユーザーがシステムを監査し、過去の出力を再現して結果を追跡するためには、追跡可能性が極めて重要です。

    AI システムのリネージュは、過去のある時点でデプロイされたサービスの正確なバージョンや、これまでに何回サービスが再トレーニングされたかを判別するのに役立ちます。さらに、各トレーニング・エピソードで使用されたハイパーパラメーターなどの詳細や、使用されたトレーニング・データ・セット、精度と安全性の指標がどのように進化したか、サービスが受け取ったフィードバック・データ、再トレーニングと改善のトリガーを判断するのにも役立ちます。

ツール

AI システムに信頼性を植え付けることの重要性と、信頼性に影響する要素を把握したところで、信頼できる AI にするために役立つツールを見ていきましょう。

Watson OpenScale

OpenScale の画像

Watson OpenScale は、AI の構築および使用状況と AI による ROI の達成状況について企業に可視性をもたらす、エンタープライズ対応の AI アプリケーション環境です。OpenScale はオープン・デザインであり、バイアスを検出して軽減する機能、AI の判定結果について説明できるようサポートする機能、AI のスケーリング機能、AI システムの正常性に関する分析機能のすべてを 1 つの統合管理コンソールで使用できます。

AI Explainability 360

AI Explainability 360 ツールキットは、AI アプリケーション・ライフサイクル全体にわたり、機械学習モデルがどのようにラベルを予測するかをさまざまな方法で把握するために使用できる、オープンソースの Python ライブラリーです。AI Explainability 360 には、データ・セットと機械学習モデルの解釈可能性と説明可能性をサポートする複数のアルゴリズムが含まれています。

Adversarial Robustness 360 Toolbox

Adversarial Robustness 360 Toolbox は、敵対的機械学習を対象としたオープンソースの Python ライブラリーです。敵対的攻撃に対して深層ニューラル・ネットワークを防御し、AI システムをより安全にできるようサポートします。このツールキットの目的は、機械学習モデルに対する攻撃とその防御方法を迅速に作り上げて分析できるようにすることです。Adversarial Robustness 360 Toolbox は、分類子を攻撃および防御するための多数の最先端のメソッドを実装しています。

AI Fairness 360

AI Fairness 360 ツールキットは、機械学習モデルのバイアスを検出して取り除くために利用できるオープンソースの Python ライブラリーです。AI Fairness 360 Python パッケージには、データ・セットとモデルのバイアスをテストするための包括的な指標一式、これらの指標の説明、データ・セットとモデルのバイアスを軽減するアルゴリズムが含まれています。

まとめ

この記事では、バイアスと攻撃が AI システムに与える影響を焦点に、こうした影響の仕組みと実際の事例をいくつか取り上げ、問題を軽減するために利用できるツールを紹介しました。

この記事は、ラーニング・パス「Getting started with Watson OpenScale」を構成するコンテンツです。引き続きこのラーニング・パスに従うには、次のブログ「IBM Watson OpenScale and AI Fairness 360: Two new AI analysis tools that work great together」を読んでから、チュートリアル「IBM Watson OpenScale の導入」に進んでください。