視覚的なデータから最大の価値を引き出す

2022/03/25
執筆者:
· 推定読書時間 2  分

(このブログポストは Get Maximum Value from Your Visual Data の和訳です)

今日、AI の価値を否定する人はいません。その一方、変化の激しいビジネス環境では、適切なタイミングで意思決定を行えるかどうかが企業の命運を左右します。収集できるデータの種類は多様化の一途をたどっていますが、私たちは、このデータをどのようにして本当の価値に変えることができるのか、常に確信が持てるわけではありません。時には、価値の高いインサイトを得るために、実験に何時間もあるいは何日も費やします。また、問題をよく理解していたとしても、プロジェクトを成功させ、ビジネスにインパクトを与えるには十分なデータがない場合もあります。

画像認識は機械学習の最も重要な分野の 1 つです。ディープラーニングでこのプロセスの効率を改善できます。​Tensorflow​(英語)、​​Keras​​、Pytorch などのフレームワークを利用すれば、精度の高い堅牢な画像認識アルゴリズムを構築できます。とはいえ、ディープラーニング​のスキルを持っている人材は多くなく、ビジネスに対する価値が実証されなければ GPU に投資できる予算の余裕がない場合もあります。

視覚的なデータからメリットを得られるのは誰でしょうか?

簡単に言えば「だれでも」です。e コマース、セキュリティ、医療画像解析、産業オートメーションなど、さまざまな分野が挙げられます。画像認識は、産業やビジネスにおいて多くの用途があります。AI テクノロジーは第 4 次産業革命で大きな役割を果たしており、すでにほとんどの企業に普及しています。

DataRobot Visual Artificial Intelligence(AI)

​DataRobot は 2020 年に ​DataRobot Visual Artificial Intelligence(AI)​​を発表しました。ベストプラクティスやさまざまなディープラーニングモデルを組み込むことで画像データに対応しています。私たちの最初のステップは、教師あり機械学習パイプラインに画像を含めることでした。DataRobot の他のプロジェクトと同様に、Visual Artificial Intelligence(AI)プロジェクトでは、デプロイ可能なモデルとそれに関連するモデルインサイトが実現しました。インサイトが組み込まれていると、良好か不良かの判別の際にモデルで入力画像のどの側面が重視されているかがわかります。

Visual Artificial Intelligence(AI)の新機能

Visual Artificial Intelligence(AI)を次のレベルに引き上げるために努力した結果、ここ数回のリリースでいくつかのすばらしい新機能をリリースしましたので、ご紹介します。

 1. 画像オーグメンテーション

データセットに十分な数の画像がなくても、もはやそれは問題になりません。​画像オーグメンテーション​を使うと、既存の画像をランダムに変換して、データセットから新しいトレーニング画像を作成できます。つまり、オーグメンテーションによってトレーニングデータのサイズが大きくなります。

2. クラスタリング

クラスタリング​​は、画像を含むあらゆるデータを対象としたクラスタリングモデルの構築とデプロイをワンクリックまたは 1 行のコードで実現する機能です。さらに、新しいクラスターインサイト可視化機能で、画像と他のあらゆるデータ型を組み合わせて、どのモデルのクラスターの理解、命名、説明も容易に行えます。

3. Visual Artificial Intelligence(AI)異常検知

これは、リリース 7.3 で発表された最も注目度の高い機能の 1 つです。Visual Artificial Intelligence(AI)異常検知により、ワンクリックまたは 1 行のコードで、より多くのユースケースに完全に対応できるようになりました。DataRobot AI Cloud プラットフォームでドラッグアンドドロップするだけで、すぐに使い始めることができます。

ユーザーエクスペリエンスも改善されています。darknetpruned、efficientnet-b0-pruned、mobiletetv3-small-pruned など、効率を高めた新しい画像特徴量抽出器が追加されています。

Visual Artificial Intelligence(AI)を試してみましょう

新しいタイプのデータとなると、どこから手をつけていいかわからないことが多いものです。画像を使用したプロジェクトの例で、どれほど簡単に処理できるかを詳しく見ていきます。このプロジェクトでは、表面の亀裂の画像を集めた公開データセット​公開ソース(英語)を使用します

コンクリート表面の亀裂は土木構造物の重大な欠陥であり、建物検査では剛性や引張強度が診断されます。ひび割れを発見したり、建物の健全性を判定したりする亀裂検出は、建物検査で大きな役割を担っています。

ステップ 1. データを送信する

他のプロジェクトと同様に、画像を含むフォルダーをドラッグアンドドロップするか、AI カタログに追加または共有されている事前ロード済みのファイルを使用するだけです。​探索的データ解析​​が完了したら、データが表示されます。

unnamed 63 1

これで「良好」と「不良」の 2 つのクラスに分類された、38,402 枚もの画像を手に入れたことになります。

ステップ 2. 必要な設定を行う

ターゲット特徴量を選択して[開始]ボタンをクリックすると、膨大な種類の最先端ディープラーニングモデルの準備、選択、​トレーニング​が自動で実行されます。このプロジェクトでは、最近​リリース 7.3 で発表された、教師なしモードで実行することにしました。

unnamed 61 1

ステップ 3. オートパイロットを実行する

[開始]ボタンをクリックすれば、あとは DataRobot AI Cloud プラットフォームが自動的に処理を実行します。他のプロジェクトと同様に、DataRobot は検定および交差検定のスコアを使用してトレーニングパイプラインやモデルを生成し、パフォーマンス指標に基づいてそれらを評価します。

モデリングプロセスが完了したら、高度なチューニングに進み、特徴量抽出機能や画像オーグメンテーションに設定を追加して、モデルをさらに調整することもできます。

unnamed 62 1

ステップ 4. インサイトを得る

Visual Artificial Intelligence(AI)には、画像データ型に特化したツールが追加されています。それらツールは、モデルのインサイトを強化するために開発されました。

  • 画像アクティベーションマップ​では、モデルが決定を下す際に使用している画像中のサンプル箇所を確認できます(アクティベーションの高低を表す色付きの領域に注目してください)。
Image Activation Maps

画像埋め込み​では、画像のサンプルを元の N 次元特徴量空間から新たな 2 次元特徴量空間に投影して視覚化することができます。この機能により、どの画像が類似していると判断されているのかが簡単にわかります。

ステップ 5. モデルをデプロイして予測を行う

予測の実行と選択した環境へのモデルのデプロイは、他のモデルと同じくきわめて柔軟に行えます。わずか数回のクリックで、画像モデルを運用化できます。API エンドポイントや​ポータブル予測サーバー​(1 つ以上の実稼働モデルをホストできる Docker コンテナ)へのデプロイが可能です。プラットフォームの UI を利用すれば、最高クラスの柔軟性を持つバッチ予測が実現します。すべてのモデルのサービスの正常性と精度を監視し、サービスを中断することなく更新できます。​

Deploy Your Model and Make Predictions in DataRobot

今すぐ Visual Artificial Intelligence(AI)を使い始めましょう

これまでの説明からわかるように、膨大な数のユースケースの実現につながるプロセスは、思ったより簡単に始められます。もっと詳しくお知りになりたい場合は、Visual Artificial Intelligence(AI)ページをご確認ください。

オンデマンド
DataRobot AIX 22 Japan オンデマンド

AIの可能性を示す基調講演や、業界事例を紹介したお客様講演を多数ご視聴いただけます。

オンデマンドで見る
プラットフォーム
Visual Artificial Intelligence(AI)

自動化されたコンピュータビジョンで全体像を把握

もっと詳しく
執筆者について
Yulia Shcherbachova(ユリア・シェルバコワ)
Yulia Shcherbachova(ユリア・シェルバコワ)

プロダクトマーケティング担当ディレクター

テクノロジー分野で 10 年の経験を持つマーケティングの専門家で、DataRobot 設立時からの社員です。DataRobot のグローバル市場での存在感を確立するため、各事業部門で様々な企業戦略施策に取り組み、採用・導入、製品化、マーケティングキャンペーンを推進してきました。

Yulia Shcherbachova(ユリア・シェルバコワ) についてもっとくわしく