Bias and Fairness hero banner

バイアスと公平性

モデルにバイアスがあるかどうかをテストし、パフォーマンスに影響が出る前に問題を修正します。

Thank you

ご回答までしばらくお待ちください

Thank You!

We’re almost there! These are the next steps:

  • Look out for an email from DataRobot with a subject line: Your Subscription Confirmation.
  • Click the confirmation link to approve your consent.
  • Done! You have now opted to receive communications about DataRobot’s products and services.

Didn’t receive the email? Please make sure to check your spam or junk folders.

閉じる

倫理と価値観を共有する AI 

AI の爆発的な普及が、さまざまな業界で最高潮に達しています。機械学習モデルは今や、現実世界の至る所で活用され、顧客や消費者、および一般の人々に広く影響を与えています。しかし、この爆発的普及はマイナス面を伴うこともしばしばです。AI の普及に伴い、意図しないバイアスがモデルの多くに含まれていることがわかってきました。応募者を差別する採用モデルが、その一例です。

DataRobot では、AI モデルとデータについて、動作・挙動やバイアスの有無をユーザーに把握してもらいたいと考えています。他社に類を見ないバイアスと公平性のツールセットでは、モデルにバイアスが存在するかどうかをテストできるため、根本原因分析で考えられる原因を特定するのに役立ちます。これにより、問題が顕在化する前に修正し、モデルのバイアスと精度の間で適切なトレードオフを行うことができます。

Screen Shot 2021 05 25 at 3.54.27 PM

ユースケースごとに最適な公平性指標を選択する

バイアスと公平性のテストでは、最初に保護対象の特徴量を宣言します。この保護対象の特徴量に対して、モデルの動作にバイアスがかかっているかどうかがテストされます。DataRobot では、モデルバイアスの有無をチェックする際に、ユースケースに合った公平性指標を業界標準の 5 つの指標から選択することができます。どの公平性指標がユースケースに合っているかわからない場合は、説明付きの質問に答えることで、最適な指標を選択できます。

バイアスの有無をテストして、根本原因を把握する

トレーニングが完了したら、DataRobot が提供する多様なインサイトを基に、データセットで宣言した保護対象の特徴量に関してモデルの動作にバイアスがかかっているかどうかを確認できます。クラスごとのバイアスについてのインサイトでは、保護対象の各特徴量で、モデルの公平性スコアをクラスごとに確認できます。これは、モデルにどの程度のバイアスがかかっているのかを把握するのに役立ちます。クラス間のデータの相違についてのインサイトでは、バイアスの根本原因を理解することができます。ここでは、保護対象のクラスとそれ以外のクラスの間で、特徴量のデータに相違があるかどうかを調べ、その違いを把握します。また、バイアスと精度の比較では、さまざまなモデルでの精度とバイアスのトレードオフを確認できます。

実稼働モデルを対象としたプロアクティブなバイアス監視

モデルのデプロイ後、MLOps では、デプロイ作成後のクラスごとのバイアスを毎日グラフで確認できます。デプロイしたばかりの時点では、モデルにバイアスはないかもしれません。しかし、時間の経過とともに、動作にバイアスがかかるようになることもあります。このバイアスは、トレーニング時に検出されるとは限りません。MLOps では、モデルの構築時に選択したのと同じ公平性指標を使ってモデルを監視でき、モデルの動作があらかじめ設定したしきい値を下回るとアラートが出力されます。バイアスが検出された場合は、データドリフトに関するインサイトに基づいて、新しいデータがトレーニングで使用されたデータと異なっているかどうかを把握することで、根本原因を特定することができます。

信頼できる倫理的な AI を今すぐ実現しましょう