最近注目を浴びてきた説明可能AIとは データ分析講座(その203)

更新日

投稿日

 

 

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。そのような中、最近よく聞くキーワードに「XAI」というものがあります。XAIとは「Explainable Artificial Intelligence」の略で、日本語では説明可能AIと表現されることが多いです。ちなみに、「説明可能AI」とは「AIが何かを説明してくれる」というわけではありません。

「説明可能AI」とは、予測に至るプロセスが説明可能になっている「機械学習で構築した数理モデル」のことです。そもそもAIとは何か? といい議論がありますが…… XAIのAIとは、数理モデルのことを言っています。今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをします。

【目次】
1.DARPA XAI プロジェクト
2.ブラックボックスのホワイトボックス化
3.「説明可能AI」(XAI)の3つのアプローチ
(1)Deep Explanation
(2)Interpretable Models
(3)Model Induction
4.入門的なテキスト

 

1.ARPA XAI プロジェクト

ある米国の組織が「説明可能AI」(XAI)というワードを使い始めました。国防高等研究計画局DARPA(Defense Advanced Research Projects Agency)です。機械学習で構築する数理モデルは、精度を求めるとブラックボックスになりやすくなります。

 

ブラックボックスになるということは、解釈し難くなり説明し難くなるということです。しかし、使う側にとってはそれでは困ります。得体の知れないものを使うには、勇気がいります。「説明可能AI」(XAI)の本質は、納得感の提供と、人と機械のコラボレーションなのでしょう。

 

2.ブラックボックスのホワイトボックス化

 

データ分析

 

繰り返しになりますが、数理モデルは予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。使う側にとって、意味不明なものを使うは気持ちの悪いものです。そのような中、社会的な要請として「説明責任」がAIサービス提供側に求められてきています。

 

そもそも、数理モデルを構築するデータ分析者やデータサイエンティスト、機械学習エンジニアにとって、数理モデルを改良するときに解釈しやすいほうが何かと便利です。

 

3.「説明可能AI」(XAI)の3つのアプローチ

「説明可能AI」(XAI)には、現在3つのアプローチがあります。※各アプローチ名の日本語訳は知りません。

  • Deep Explanation
  • Interpretable Models
  • Model Induction

 

(1)Deep Explanation

 

 

どちらかと言うと、ニューラルネットワーク型のディープラーニングで構築した数理モデルに対し行われるケースが多いです。例えば、特徴マップというものを作った後に、アテンションヒートマップというヒートマップグラフを作成し、視覚的に理解を助けるものです。手法としては、勾配ベースのハイライト法が有名で、色々なアルゴリズムが発案されています。

 

ちなみに、このヒートマップを専門外の人が眺めても、訳は分かりません。専門家向けのものです。専門家とは、その分野(機械学習というよりその活用領域)の専門家です。ヒートマップを見て、ピンとくる程度の専門家です。

 

(2)Interpretable Models

 

 

ブラックボックス化しやすい数理モデルではなく、ホワイトボックス型の数理モデルで頑張る! というものです。

 

ホワイトボックス型の数理モデルとは、例えば……

  • 線形回帰系の数理モデル(単回帰、重回帰、ロジスティック回帰など)
  • 決定木
  • ランダムフォレスト

……などです。

 

例えば、ブラックボックス型の数理モデルの精度と比べ、それほど悪くないホワイトボックス型の数理モデルを構築できるのならば、そのほうがいいよね! という感じです。手法としては、複雑な数理モデルを決定木で近似するBATreesが比較的有名です。ランダムフォレストで近似するdefragTreesというのもあります。

 

(3)Model Induction

主に、説明モデル(explanatory model)の数理モデルを使って説明する方法です。

 

説明モデル(explanatory model)という概念自体は、昔からあり医学系でよく目にします。「説明可能AI」(XAI)では、「Additive Feature Attribution Methods」と呼ばれる数理モデル化した説明モデル(explanatory model)を使うケースが多いです。

 

例えば、心理学や経済学で登場するゲーム理論のシャープレー値(Shapley values)を応用したものなどが有名で...

 

 

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。そのような中、最近よく聞くキーワードに「XAI」というものがあります。XAIとは「Explainable Artificial Intelligence」の略で、日本語では説明可能AIと表現されることが多いです。ちなみに、「説明可能AI」とは「AIが何かを説明してくれる」というわけではありません。

「説明可能AI」とは、予測に至るプロセスが説明可能になっている「機械学習で構築した数理モデル」のことです。そもそもAIとは何か? といい議論がありますが…… XAIのAIとは、数理モデルのことを言っています。今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをします。

【目次】
1.DARPA XAI プロジェクト
2.ブラックボックスのホワイトボックス化
3.「説明可能AI」(XAI)の3つのアプローチ
(1)Deep Explanation
(2)Interpretable Models
(3)Model Induction
4.入門的なテキスト

 

1.ARPA XAI プロジェクト

ある米国の組織が「説明可能AI」(XAI)というワードを使い始めました。国防高等研究計画局DARPA(Defense Advanced Research Projects Agency)です。機械学習で構築する数理モデルは、精度を求めるとブラックボックスになりやすくなります。

 

ブラックボックスになるということは、解釈し難くなり説明し難くなるということです。しかし、使う側にとってはそれでは困ります。得体の知れないものを使うには、勇気がいります。「説明可能AI」(XAI)の本質は、納得感の提供と、人と機械のコラボレーションなのでしょう。

 

2.ブラックボックスのホワイトボックス化

 

データ分析

 

繰り返しになりますが、数理モデルは予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。使う側にとって、意味不明なものを使うは気持ちの悪いものです。そのような中、社会的な要請として「説明責任」がAIサービス提供側に求められてきています。

 

そもそも、数理モデルを構築するデータ分析者やデータサイエンティスト、機械学習エンジニアにとって、数理モデルを改良するときに解釈しやすいほうが何かと便利です。

 

3.「説明可能AI」(XAI)の3つのアプローチ

「説明可能AI」(XAI)には、現在3つのアプローチがあります。※各アプローチ名の日本語訳は知りません。

  • Deep Explanation
  • Interpretable Models
  • Model Induction

 

(1)Deep Explanation

 

 

どちらかと言うと、ニューラルネットワーク型のディープラーニングで構築した数理モデルに対し行われるケースが多いです。例えば、特徴マップというものを作った後に、アテンションヒートマップというヒートマップグラフを作成し、視覚的に理解を助けるものです。手法としては、勾配ベースのハイライト法が有名で、色々なアルゴリズムが発案されています。

 

ちなみに、このヒートマップを専門外の人が眺めても、訳は分かりません。専門家向けのものです。専門家とは、その分野(機械学習というよりその活用領域)の専門家です。ヒートマップを見て、ピンとくる程度の専門家です。

 

(2)Interpretable Models

 

 

ブラックボックス化しやすい数理モデルではなく、ホワイトボックス型の数理モデルで頑張る! というものです。

 

ホワイトボックス型の数理モデルとは、例えば……

  • 線形回帰系の数理モデル(単回帰、重回帰、ロジスティック回帰など)
  • 決定木
  • ランダムフォレスト

……などです。

 

例えば、ブラックボックス型の数理モデルの精度と比べ、それほど悪くないホワイトボックス型の数理モデルを構築できるのならば、そのほうがいいよね! という感じです。手法としては、複雑な数理モデルを決定木で近似するBATreesが比較的有名です。ランダムフォレストで近似するdefragTreesというのもあります。

 

(3)Model Induction

主に、説明モデル(explanatory model)の数理モデルを使って説明する方法です。

 

説明モデル(explanatory model)という概念自体は、昔からあり医学系でよく目にします。「説明可能AI」(XAI)では、「Additive Feature Attribution Methods」と呼ばれる数理モデル化した説明モデル(explanatory model)を使うケースが多いです。

 

例えば、心理学や経済学で登場するゲーム理論のシャープレー値(Shapley values)を応用したものなどが有名です。ある数理モデルが出した予測結果を解釈するときにSHAP( SHapley Additive exPlanations)を使ったりします。

 

SHAPは、ある特徴量(説明変数X)がどれだけ予測に貢献したかを示す値です。

 

以下、SHAPを含めた手法一覧です。

・予測の根拠となった特徴量を提示

  • LIME
  • SHAP
  • Anchor

 

・予測の根拠となった学習データを提示

  • Influence

 

4.入門的なテキスト

「説明可能AI」(XAI)は最新の研究成果が、ぞくぞくと登場してきています。そこまでという方は、フリーのデータ分析ツールであるRのライブラー「iml」の著者によるものが非常に分かりやすいです。ちなみに、フリーで使えるRやPythonに、XAI関連のライブラリーがいくつかあります。

 

   続きを読むには・・・


この記事の著者

高橋 威知郎

データネクロマンサー/データ分析・活用コンサルタント (埋もれたデータに花を咲かせる、データ分析界の花咲じじい。それほど年齢は重ねてないけど)

データネクロマンサー/データ分析・活用コンサルタント (埋もれたデータに花を咲かせる、データ分析界の花咲じじい。それほど年齢は重ねてないけど)


「情報マネジメント一般」の他のキーワード解説記事

もっと見る
ビジネス要因分析の統計的因果探索 データ分析講座(その205)

    最近のデータ分析やモデル構築では「予測を当てればいい!」という風潮もありますが、確かに当てるだけであれば、それで問題ないで...

    最近のデータ分析やモデル構築では「予測を当てればいい!」という風潮もありますが、確かに当てるだけであれば、それで問題ないで...


データ活用の末路、データ分析講座(その309)その末路とは

  DX、AI、データサイエンス、機械学習、ディープラーニングなど、データ活用を目論むことが多くなった昨今です。ただデータ活用を過度に進め...

  DX、AI、データサイエンス、機械学習、ディープラーニングなど、データ活用を目論むことが多くなった昨今です。ただデータ活用を過度に進め...


データサイエンス実践の成否とは データ分析講座(その127)

◆ データ分析・活用やデータサイエンス実践の成否は、技術力よりもチーム力  「AI」「IoT」「ビッグデータ」これは最近ビジネス界隈で聞く用語です。...

◆ データ分析・活用やデータサイエンス実践の成否は、技術力よりもチーム力  「AI」「IoT」「ビッグデータ」これは最近ビジネス界隈で聞く用語です。...


「情報マネジメント一般」の活用事例

もっと見る
Web上で試作受注するツールを成功させるポイントとは

        今回は、「Web上で試作受注するツール」を成功させるポイントについて解説します。次の2点がポイントで、この2つを「最優先」に考える必...

        今回は、「Web上で試作受注するツール」を成功させるポイントについて解説します。次の2点がポイントで、この2つを「最優先」に考える必...


現場のExcel依存に注意しよう

 マイクロソフトの「Excel」は企業の業務遂行にとって欠かせないツールになりました。数字の集計、グラフの作成にとどまらず、作業伝票の発行、作業の管理、資...

 マイクロソフトの「Excel」は企業の業務遂行にとって欠かせないツールになりました。数字の集計、グラフの作成にとどまらず、作業伝票の発行、作業の管理、資...


生産スピード向上と品質管理

 電子メールやインターネットの普及により、ビジネスのグローバル化が大きく進みましたが、IT技術の進歩は、品質管理の方法も進歩させました。20数年前は製造条...

 電子メールやインターネットの普及により、ビジネスのグローバル化が大きく進みましたが、IT技術の進歩は、品質管理の方法も進歩させました。20数年前は製造条...