シンプルで柔軟なデプロイ
DataRobot 内で構築されたかどうかにかかわらず、生成 AI モデルと予測 AI モデルを本番環境に導入できます。
AI のユースケースをパッケージ化して柔軟にデプロイ
すべての AI 戦略を DataRobot のエンタープライズグレードの実稼働環境パイプラインとともに簡単にグループ化し、柔軟にデプロイできます。
エコシステム全体を活用
データプラットフォーム、DevOps ツール、クラウド AI モデルへの投資を最大限に活用して、ビジネスプロセスをシームレスに接続、自動化、最適化できます。
AI からの結果の生成を簡素化および自動化
予測値や実測値の生成頻度に関する独自のルールに基づいて、監視ジョブをスケジュールできます。
選択した環境に AI を導入して結果をすばやく生成
数百の生成 AI モデルと予測 AI モデル、および効率化されたデプロイパイプラインを、遅延なしに管理できます。
クラウド環境やオンプレミス、さらにはエッジデバイスへもデプロイ可能です。予測 API やエクスポート可能なスコアリングコードなどの低レイテンシーソリューションを選択することで、すぐに使用を開始できます。極めて拡張性の高いバッチジョブを活用し、データベース内にデプロイして大規模な予測を行うことができます。また、Kubernetes 用のポータブルサーバーや Streamlit のようなアプリを利用して、ビジネス環境にシームレスに統合することもできます。
![](https://www.datarobot.com/wp-content/uploads/2024/04/Put-AI-in-Your-Chosen-Environment-and-Speed-Up-Results-e1714570706236-1024x545.png)
![](https://www.datarobot.com/wp-content/uploads/sites/2/2024/04/Package-AI-Use-Cases-for-Flexible-Deployment-1024x465.png)
AI のユースケースをパッケージ化して柔軟にデプロイ
すべての AI 戦略を DataRobot のエンタープライズグレードの実稼働環境パイプラインとともに簡単にグループ化し、予測 AI と生成 AI をデプロイできます。LLM、ベクターデータベース、およびプロンプト戦略をパッケージ化することで、柔軟なデプロイ機能を活用できるようになります。
バッチ予測の機能を最大限に使いモデルをシームレスにデプロイして実行
オンプレミスまたはさまざまなクラウド環境にデプロイされた、すべての生成 AI モデルと予測 AI モデルのジョブをスケジュールすることで、データサイエンスに要するリソースを削減し、手動パイプラインから脱却できます。予測値と実測値の算出頻度に関する独自のルールを設定することで、手作業が不要になり、エコシステム全体でモデルを簡単に維持できるようになります。
![](https://www.datarobot.com/wp-content/uploads/2023/11/Unlock-the-Power-of-Batch-Prediction-for-Seamless-Model-Deployment-and-Execution-e1714570812940-1024x506.png)
![](https://www.datarobot.com/wp-content/uploads/2024/04/Manage-and-Deploy-Custom-Apps-e1714593055203-1024x588.png)
カスタム AI アプリの管理とデプロイ
DataRobot なら、カスタム AI アプリの迅速な構築、プロトタイプの作成、およびホスティングが簡単にできます。そのため、ガバナンスを確保してセキュリティポリシーを遵守しながら、組織内外の誰とでもアプリを簡単に共有できます。
生成 AI と予測 AI をあらゆるビジネスアプリケーションに導入
わずか数行のコードで、すべてのビジネスユーザーに AI のパワーがもたらされます。生成 AI や予測 AI を、Slack、Salesforce、BI ツールなどの組織のアプリケーションに統合できます。AI から生成される結果の共有方法に関係なく、マッピング済みのアクセスロールやアクセス許可に基づいて生成結果を確認できます。これにより、あらゆる利用ポイントで同一の予測が得られるようになり、AI インサイトの混在が回避されます。
![](https://www.datarobot.com/wp-content/uploads/sites/2/2023/11/integrations-apps-1024x549.png)
![](https://www.datarobot.com/wp-content/uploads/2024/04/Streamline-Deployment-and-Monitoring-of-Fully-Configured-AI-Models-e1714570932945-1024x643.png)
推論時に GPU にシームレスにアクセス
Triton Inference Server を使用して、高性能 AI モデルによるトレーニングとデプロイを強化できます。その際、DataRobot で NVIDIA の推論マイクロサービスを使用することで、推論時に GPU 搭載システムを LLM や生成 AI アプリケーションごとに個別に設定して監視する必要がなくなります。
スピード、インパクト、スケールを実現できる DataRobot を世界中の企業が信頼
その他の AI プラットフォーム機能
![cta module 1920px](https://www.datarobot.com/jp/wp-content/uploads/sites/2/2023/11/cta-module-1920px.jpg)