Wiki トピック

説明可能な AI

説明可能な AI とは

説明可能な人工知能、つまり説明可能な AI(「XAI」と略して呼ばれることもあります)とは、AI テクノロジーの透明性を可能な限り高めることで、アルゴリズムやモデルの所有者が、AI がどのようにしてその結果に到達したかを理解できることを意味します。説明可能な AI と解釈可能な機械学習によって、組織は AI テクノロジーによる基本的な意思決定を利用し、必要に応じて調整を行うことができます。

説明可能な AI が重要である理由

人工知能の導入にあたってよく見られる懸念として、このテクノロジーでは結論までの過程が不明瞭である場合が多いことが挙げられます。AI のアルゴリズムが「ブラックボックス化」されていて、どのようにしてその結果に到達したかを分析できないと、専門家も AI が出した結果を説明できなくなるため、このテクノロジーを信頼することが難しくなる可能性があります。

AI が説明可能になれば、組織はクライアントや顧客、投資先の利害関係者との間で、より大きな信頼関係を築くことができます。人工知能を簡単に説明できるようにすることの大きなメリットの 1 つは、人間のバイアスがモデルに影響を与えているかどうかを、テクノロジー所有者が判断できるようになることです。このことが特に重要になるのは、AI が生死に関わる判断を求められている場合です。たとえば、医療機関では、医療従事者が患者やその家族に対し、判断理由を説明しなければならないことがあります。

ある医療体制の(米国/英語)を見てみましょう。患者に追加の医療資源が必要かどうかを見極めるために、「商業リスクスコア」を付与して、患者が受けるべきケアマネジメントのレベルを判断していました。医療従事者が専用のデータにアクセスしたところ、このアルゴリズムでは病気よりも医療費を評価する傾向が強いことを発見しました。それにより、郵便番号を主要な特徴量として、患者の入院期間が予測されていることがわかりました。入院期間が長くなる患者の郵便番号は、貧困層で構成され、アフリカ系住民が多い地域の番号である傾向が見られました。また、商業リスクスコアと慢性疾患数を人種別にマッピングしたところ、慢性疾患数が同じでも、アフリカ系の患者は商業リスクスコアが低く、その結果、ケアが不足していることがわかりました。

このように、医療機関は、AI に直接組み込まれた人間のバイアスが患者の治療にどのような影響を与えているかを、説明可能な AI によって正確に把握することができました。医療市場に限らず、このレベルの透明性が確保されることで、EU 一般データ保護規則(GDPR)や英国データ保護法の影響を受ける個人が、アルゴリズムでのデータ利用について「説明を受ける権利」を行使することができます。説明可能な AI によって銀行、医療、保険といった規制の厳しい市場の透明性と信頼性を向上させる方法は、他にもたくさんあります。

説明可能な AI + DataRobot

DataRobot では、モデルに依存しないフレームワークを提供することで、各モデルの所有者が結果を解釈し、情報に基づいた調整を行い、使いやすく最新の解釈手法をすべてのモデルで利用できるようにしています。これにより、バイアスのかかった意思決定をもたらす可能性があるモデル別アプローチではなく、すべてのモデルで一貫した手法を採用しやすくなります。このレベルの透明性が確保されることで、企業はエンドユーザーの「説明を受ける権利」に応え、モデルのロジックを利害関係者に説明し、既存の規制へのコンプライアンスを向上させることができます。

DataRobot では、カスタマーフェイシングデータサイエンティストのチームが、組織の AI ドリブン化だけでなく、説明可能な AI が全社的に活用されるよう支援しています。一方、DataRobot の R&D チームは、AI および機械学習モデルのライブラリについて絶えず充実化を図り、テストを繰り返しています。また、モデルが結論に到達するまでの各ステップを説明したドキュメントを提供することで、お客様が AI を信頼し、利害関係者に説明できるよう支援しています。以下に、DataRobot が提供する主な機能をいくつかご紹介します。

  • 特徴量のインパクト:モデルが意思決定を行う際に各特徴量をどの程度利用しているのかが示されます。
  • 特徴量ごとの作用:モデルをより深く掘り下げ、特徴量の値がモデル全体の意志決定にどう影響しているのかを調べることができます。
特徴量ごとの作用 Wiki
  • 予測の説明:各モデルの意思決定結果に影響を与えている特徴量をレコードごとに示します。また、レコードごとに異なるそれら特徴量がどの程度有用であるかも明らかにします。

DataRobot では、各モデルブループリント内で複数の標準的なデータ処理ステップが自動化され、変換処理はすべて透過的に実施されます。これにより、サードパーティーのテクノロジープロバイダーを利用して AI ソリューションに取り組む際に発生しがちな AI モデルのブラックボックス化を確実に阻止できます。当社の製品は、組織がさまざまなユースケースで信頼性の高い AI モデルを構築できるように支援するだけでなく、より多くの人にデータサイエンスや機械学習のツールを利用してもらえるように設計しています。

出典

Machine Learning Explainability vs Interpretability: Two concepts that could help restore trust in AI

A right to explanation