Privacy 1024x533 2

信頼できる AI の条件 — プライバシー

消費者のプライバシーは、データを扱う際に最も重視しなければなりません。これは、データ漏えいの可能性や、AI システムで推測可能な個人情報を注視する必要があるためです。AI がどのようにプライバシーや個人情報と関わっているかご説明します。

Thank you

ご回答までしばらくお待ちください

Thank You!

We’re almost there! These are the next steps:

  • Look out for an email from DataRobot with a subject line: Your Subscription Confirmation.
  • Click the confirmation link to approve your consent.
  • Done! You have now opted to receive communications about DataRobot’s products and services.

Didn’t receive the email? Please make sure to check your spam or junk folders.

閉じる

AI モデルの構築中および利用中に個人情報を保護するためのベストプラクティス

まず、データサイエンスの開発および運用チームが、どのような種類のデータが個人を特定できる情報(PII)として定義される可能性があるかを把握し、認識することは非常に重要です。PII は、個人の身元まで遡るのに利用できるあらゆるデータであり、メールアドレスなどの単純な情報も含まれます。一般に PII は、データセットから関連するパターンを学習することを目的とした機械学習モデルのトレーニングには、そもそも使用すべきではないデータです。 

DataRobot は、自動 PII 検出機能をオンプレミス環境のプラットフォームに導入しました。データセットに PII が含まれているかどうかを評価するのに役立つ各種ライブラリもあります。こうした処理は、データ管理システムから、未知の変数を含む非常に多様な未加工のデータセットを取得する際には不可欠です。PII の有無について判別がつかなかったり、特定の変数が PII に相当するかどうかはっきりしない場合は、社内の情報セキュリティチームに問い合わせてください。

機密情報の取り扱いに関連するデータ管理のベストプラクティスは AI 以外の分野にもありますが、プライバシーについて AI が独特のリスクと課題を有していることも確かです。

一方で、予測しようとしている値自体の機密性が高い場合もあります。たとえば、消費者の購買行動 1 つとっても、それを活用すれば、顧客の健康、住居、雇用、配偶者の有無に関する機密情報が明らかになる可能性があります。この種の情報があると、広告のターゲティングに有利に見えますが、法的な問題だけでなく、一般消費者の反発を招くリスクがあります。消費者は、企業や企業で使用するプラットフォームで偶然収集されたり、見つかったりしたデータによって自分たちのプライバシーが侵害されていることが分かると、不快に感じるからです。 

また一方、AI システムが、モデルを悪用して企業や顧客の情報にアクセスしようとする悪意ある攻撃の対象になる可能性があります。たとえば、モデル反転攻撃は、モデルのホワイトボックスの情報を利用して、モデルのトレーニングに使用されたデータを書き換えることを目的としています。 

そうは言っても、情報セキュリティのベストプラクティスは依然として有効です。たとえば、異常検知を中心に構築された AI システムは、サーバーやネットワークへの攻撃の特定にも役立ちます。

信頼できる倫理的な AI を今すぐ実現しましょう