最近注目を浴びてきた説明可能AIとは データ分析講座(その203)

更新日

投稿日

 

 

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。そのような中、最近よく聞くキーワードに「XAI」というものがあります。XAIとは「Explainable Artificial Intelligence」の略で、日本語では説明可能AIと表現されることが多いです。ちなみに、「説明可能AI」とは「AIが何かを説明してくれる」というわけではありません。

「説明可能AI」とは、予測に至るプロセスが説明可能になっている「機械学習で構築した数理モデル」のことです。そもそもAIとは何か? といい議論がありますが…… XAIのAIとは、数理モデルのことを言っています。今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをします。

【目次】
1.DARPA XAI プロジェクト
2.ブラックボックスのホワイトボックス化
3.「説明可能AI」(XAI)の3つのアプローチ
(1)Deep Explanation
(2)Interpretable Models
(3)Model Induction
4.入門的なテキスト

 

1.ARPA XAI プロジェクト

ある米国の組織が「説明可能AI」(XAI)というワードを使い始めました。国防高等研究計画局DARPA(Defense Advanced Research Projects Agency)です。機械学習で構築する数理モデルは、精度を求めるとブラックボックスになりやすくなります。

 

ブラックボックスになるということは、解釈し難くなり説明し難くなるということです。しかし、使う側にとってはそれでは困ります。得体の知れないものを使うには、勇気がいります。「説明可能AI」(XAI)の本質は、納得感の提供と、人と機械のコラボレーションなのでしょう。

 

2.ブラックボックスのホワイトボックス化

 

データ分析

 

繰り返しになりますが、数理モデルは予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。使う側にとって、意味不明なものを使うは気持ちの悪いものです。そのような中、社会的な要請として「説明責任」がAIサービス提供側に求められてきています。

 

そもそも、数理モデルを構築するデータ分析者やデータサイエンティスト、機械学習エンジニアにとって、数理モデルを改良するときに解釈しやすいほうが何かと便利です。

 

3.「説明可能AI」(XAI)の3つのアプローチ

「説明可能AI」(XAI)には、現在3つのアプローチがあります。※各アプローチ名の日本語訳は知りません。

  • Deep Explanation
  • Interpretable Models
  • Model Induction

 

(1)Deep Explanation

 

 

どちらかと言うと、ニューラルネットワーク型のディープラーニングで構築した数理モデルに対し行われるケースが多いです。例えば、特徴マップというものを作った後に、アテンションヒートマップというヒートマップグラフを作成し、視覚的に理解を助けるものです。手法としては、勾配ベースのハイライト法が有名で、色々なアルゴリズムが発案されています。

 

ちなみに、このヒートマップを専門外の人が眺めても、訳は分かりません。専門家向けのものです。専門家とは、その分野(機械学習というよりその活用領域)の専門家です。ヒートマップを見て、ピンとくる程度の専門家です。

 

(2)Interpretable Models

 

 

ブラックボックス化しやすい数理モデルではなく、ホワイトボックス型の数理モデルで頑張る! というものです。

 

ホワイトボックス型の数理モデルとは、例えば……

  • 線形回帰系の数理モデル(単回帰、重回帰、ロジスティック回帰など)
  • 決定木
  • ランダムフォレスト

……などです。

 

例えば、ブラックボックス型の数理モデルの精度と比べ、それほど悪くないホワイトボックス型の数理モデルを構築できるのならば、そのほうがいいよね! という感じです。手法としては、複雑な数理モデルを決定木で近似するBATreesが比較的有名です。ランダムフォレストで近似するdefragTreesというのもあります。

 

(3)Model Induction

主に、説明モデル(explanatory model)の数理モデルを使って説明する方法です。

 

説明モデル(explanatory model)という概念自体は、昔からあり医学系でよく目にします。「説明可能AI」(XAI)では、「Additive Feature Attribution Methods」と呼ばれる数理モデル化した説明モデル(explanatory model)を使うケースが多いです。

 

例えば、心理学や経済学で登場するゲーム理論のシャープレー値(Shapley values)を応用したものなどが有名で...

 

 

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。そのような中、最近よく聞くキーワードに「XAI」というものがあります。XAIとは「Explainable Artificial Intelligence」の略で、日本語では説明可能AIと表現されることが多いです。ちなみに、「説明可能AI」とは「AIが何かを説明してくれる」というわけではありません。

「説明可能AI」とは、予測に至るプロセスが説明可能になっている「機械学習で構築した数理モデル」のことです。そもそもAIとは何か? といい議論がありますが…… XAIのAIとは、数理モデルのことを言っています。今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをします。

【目次】
1.DARPA XAI プロジェクト
2.ブラックボックスのホワイトボックス化
3.「説明可能AI」(XAI)の3つのアプローチ
(1)Deep Explanation
(2)Interpretable Models
(3)Model Induction
4.入門的なテキスト

 

1.ARPA XAI プロジェクト

ある米国の組織が「説明可能AI」(XAI)というワードを使い始めました。国防高等研究計画局DARPA(Defense Advanced Research Projects Agency)です。機械学習で構築する数理モデルは、精度を求めるとブラックボックスになりやすくなります。

 

ブラックボックスになるということは、解釈し難くなり説明し難くなるということです。しかし、使う側にとってはそれでは困ります。得体の知れないものを使うには、勇気がいります。「説明可能AI」(XAI)の本質は、納得感の提供と、人と機械のコラボレーションなのでしょう。

 

2.ブラックボックスのホワイトボックス化

 

データ分析

 

繰り返しになりますが、数理モデルは予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。使う側にとって、意味不明なものを使うは気持ちの悪いものです。そのような中、社会的な要請として「説明責任」がAIサービス提供側に求められてきています。

 

そもそも、数理モデルを構築するデータ分析者やデータサイエンティスト、機械学習エンジニアにとって、数理モデルを改良するときに解釈しやすいほうが何かと便利です。

 

3.「説明可能AI」(XAI)の3つのアプローチ

「説明可能AI」(XAI)には、現在3つのアプローチがあります。※各アプローチ名の日本語訳は知りません。

  • Deep Explanation
  • Interpretable Models
  • Model Induction

 

(1)Deep Explanation

 

 

どちらかと言うと、ニューラルネットワーク型のディープラーニングで構築した数理モデルに対し行われるケースが多いです。例えば、特徴マップというものを作った後に、アテンションヒートマップというヒートマップグラフを作成し、視覚的に理解を助けるものです。手法としては、勾配ベースのハイライト法が有名で、色々なアルゴリズムが発案されています。

 

ちなみに、このヒートマップを専門外の人が眺めても、訳は分かりません。専門家向けのものです。専門家とは、その分野(機械学習というよりその活用領域)の専門家です。ヒートマップを見て、ピンとくる程度の専門家です。

 

(2)Interpretable Models

 

 

ブラックボックス化しやすい数理モデルではなく、ホワイトボックス型の数理モデルで頑張る! というものです。

 

ホワイトボックス型の数理モデルとは、例えば……

  • 線形回帰系の数理モデル(単回帰、重回帰、ロジスティック回帰など)
  • 決定木
  • ランダムフォレスト

……などです。

 

例えば、ブラックボックス型の数理モデルの精度と比べ、それほど悪くないホワイトボックス型の数理モデルを構築できるのならば、そのほうがいいよね! という感じです。手法としては、複雑な数理モデルを決定木で近似するBATreesが比較的有名です。ランダムフォレストで近似するdefragTreesというのもあります。

 

(3)Model Induction

主に、説明モデル(explanatory model)の数理モデルを使って説明する方法です。

 

説明モデル(explanatory model)という概念自体は、昔からあり医学系でよく目にします。「説明可能AI」(XAI)では、「Additive Feature Attribution Methods」と呼ばれる数理モデル化した説明モデル(explanatory model)を使うケースが多いです。

 

例えば、心理学や経済学で登場するゲーム理論のシャープレー値(Shapley values)を応用したものなどが有名です。ある数理モデルが出した予測結果を解釈するときにSHAP( SHapley Additive exPlanations)を使ったりします。

 

SHAPは、ある特徴量(説明変数X)がどれだけ予測に貢献したかを示す値です。

 

以下、SHAPを含めた手法一覧です。

・予測の根拠となった特徴量を提示

  • LIME
  • SHAP
  • Anchor

 

・予測の根拠となった学習データを提示

  • Influence

 

4.入門的なテキスト

「説明可能AI」(XAI)は最新の研究成果が、ぞくぞくと登場してきています。そこまでという方は、フリーのデータ分析ツールであるRのライブラー「iml」の著者によるものが非常に分かりやすいです。ちなみに、フリーで使えるRやPythonに、XAI関連のライブラリーがいくつかあります。

 

   続きを読むには・・・


この記事の著者

高橋 威知郎

データネクロマンサー/データ分析・活用コンサルタント (埋もれたデータに花を咲かせる、データ分析界の花咲じじい。それほど年齢は重ねてないけど)

データネクロマンサー/データ分析・活用コンサルタント (埋もれたデータに花を咲かせる、データ分析界の花咲じじい。それほど年齢は重ねてないけど)


「情報マネジメント一般」の他のキーワード解説記事

もっと見る
指標の名称の付け方で印象操作 データ分析講座(その215)

  【この連載の前回へのリンク】 以下を見て、どのような印象を持つでしょうか? 90%の有効性のある新型コロナワクチンが登場しまし...

  【この連載の前回へのリンク】 以下を見て、どのような印象を持つでしょうか? 90%の有効性のある新型コロナワクチンが登場しまし...


予測モデルの活用とは データ分析講座(その116)

◆ 予測モデルは帰納的に構築し演繹的に活用する。そして論理展開する。  データ分析・活用を推し進める時にある段階まで進むと、予測モデルが一つのトピッ...

◆ 予測モデルは帰納的に構築し演繹的に活用する。そして論理展開する。  データ分析・活用を推し進める時にある段階まで進むと、予測モデルが一つのトピッ...


顧客満足度・探索意向率・NPSとは データ分析講座(その264)

  自社の業績を知るには、単に売上高や市場シェアなど分析すればいいでしょう。未来の業績を知るには、過去データをもとに時系列予測モデルを構築...

  自社の業績を知るには、単に売上高や市場シェアなど分析すればいいでしょう。未来の業績を知るには、過去データをもとに時系列予測モデルを構築...


「情報マネジメント一般」の活用事例

もっと見る
ソフトウェア特許とは(その2)

4.ソフトウェア特許のとり方    前回のその1に続いて解説します。    ソフトウェア特許の取得方法にはノウハウがあります。特許のことを知らない...

4.ソフトウェア特許のとり方    前回のその1に続いて解説します。    ソフトウェア特許の取得方法にはノウハウがあります。特許のことを知らない...


‐社内の問題克服による開発活動‐  製品・技術開発力強化策の事例(その14)

 前回の事例その13に続いて解説します。社内における様々な問題を高いレベルで深く追及して解決することが、競争力のある技術を育成し、売れる製品を生み出す事に...

 前回の事例その13に続いて解説します。社内における様々な問題を高いレベルで深く追及して解決することが、競争力のある技術を育成し、売れる製品を生み出す事に...


人的資源マネジメント:製品開発の滞留を引き起こすファイルとは(その2)

 今回は、PDM/PLMに代表される製品開発業務のIT化をどのように考え、進めるのがよいのかについて解説します。    前回まで続けていたテ...

 今回は、PDM/PLMに代表される製品開発業務のIT化をどのように考え、進めるのがよいのかについて解説します。    前回まで続けていたテ...