エージェント型AI


AI ツールの呼び出し: AI ツールおよびコンポーネントをスムーズに呼び出せます。

DataRobot にデプロイされた LLM や AI ツールを、どの開発環境からでも認証を通じて呼び出すことができます。
エージェントにデータセットへのシームレスなアクセスを提供し、必要に応じてデータセットの準備や変換を行います。
すべての AI ツールをチームで使える 単一のリポジトリーに保存することで、バージョン管理やその他の管理作業を容易にします。
ベクターデータベース、埋め込みモデル、および Re-ranker を使用して、RAG ワークフローを強化します。
コードファーストのエージェントワークフロー開発ツール: エージェント型 AI のワークフローをあらゆる場所で迅速に構築し、DataRobot 内でのデプロイに向けた準備をシームレスに実行できます。

CrewAi、Langchain、Llamaindex の組み込み済みテンプレートと、あらゆるフレームワークに対応した汎用テンプレートを使用して、エージェントワークフローのプロトタイピングを加速できます。
すぐに使える CLI を使って、ローカル環境からシームレスにコードを取り込み、本番環境用のエージェントワークフローを準備できます。
細部レベルでのエラー検出により品質を確保し、コードの即時再実行で素早くデバッグできます。
LLMによる評価(LLM-as-a-Judge)や柔軟なプレイグラウンド環境で、複数のワークフローを並べて評価、比較できます。
AI ツール構築プラットフォーム: エンドツーエンドの実験および開発ツールを利用して、エージェント型アプリ向けにカスタマイズされた AI ツール群を構築できます。
複数の LLM を並べて比較し、ベクターデータベースと埋め込みモデルをテストし、グラウンドトゥルースとコンプライアンスのテストを効率化できます。
数百の予測モデルを迅速にテストし、自社のユースケースにおいて最も重要なパフォーマンス指標に基づいて調整できます。
整理されていない未加工のデータを、構造化されたクリーンなトレーニングデータセットや、すぐに使える表形式のデータセットに変換できます。
チャンキング戦略、埋め込み手法、コンテキスト認識機能、インデックス作成手法を活用し、ユースケースに合わせて高速かつコンテキストを認識するベクトルデータベースを構築します。
事前構築済みのエージェント型 AI ツールのライブラリー: 1 行のコードで構築、カスタマイズ、デプロイが可能な AI ツールを使用して、エージェント型アプリケーションを強化できます。

データを活用する意思決定者が、データソース、テーブル、データウェアハウスをまたいでセルフサービスでデータのクエリーと分析を実行できるよう支援します。
時系列予測をエージェント型 AI アプリに組み込み、サマリーを自動生成します。
エージェントが、出力や予測の結果をもとに、実用的なメールやパーソナライズされた顧客向けコンテンツを作成できるようにします。
NVIDIA NIM および NVIDIA NeMo マイクロサービスのライブラリーへのネイティブアクセス: 事前構築済みの AI コンポーネントを使用して、AIエージェントアプリケーションを強化できます。これらのコンポーネントは、テキスト、画像、PDF の処理に対応し、エンタープライズ対応のガバナンスとオブザーバビリティを備えており、組み込みもわずか数分で行えます。

テキスト、画像、PDF 文書といったマルチモーダルデータソースから取り込みを行い、インサイトを引き出します。
ライブビデオや録画済みのビデオを、対話型 AI アプリケーションで使用できる構造化されたサマリーに変換します。
プロンプトを最適なモデルにインテリジェントに振り向けることで、推論の深さと計算効率のバランスを最適化します。
マルチモーダル AI エージェントを構築して、高品質な研究レポートを数分で生成できます。
NVIDIA GPU および NVIDIA AI Enterprise 製品を簡単に活用: インフラストラクチャに関する高度な知識がなくても、任意のクラウド、オンプレミス、ハイブリッドクラウドで NVIDIA GPU を実行することで、コスト、レイテンシー、可用性を最適化できます。複雑な設定、チューニング、トラブルシューティングは必要ありません。

NVIDIA GPU を使用して任意のクラウド、オンプレミス、ハイブリッド環境にデプロイすることで、レイテンシーとコストを最適化できます。
NVIDIA のリソースおよび NVIDIA AI Enterprise を使用すれば、事前構築済みのエージェントワークフローを最小限の設定作業でデプロイできます。
NIM でコンテナと NVIDIA GPU を自動的に管理することで、デプロイにかかる手間を軽減します。
NVIDIA NeMo Guardrails を完全に統合して、モデルを不正使用や脅威から保護し、安全なデプロイを実現します。
ワンクリックデプロイ: エージェント型アプリケーションを、外部チームに頼ることなく一貫した品質で迅速にデプロイできます。パイプラインの中断や部門を越えた支援を必要とせずに、AI ツールの迅速な置き換えや更新をシームレスに行えるため、実験の範囲とスピードを最大化できます。

フルマネージドのインフラストラクチャ: リソースの管理ではなく、効果的なエージェント型アプリケーションの構築に専念できます。
インフラストラクチャーの管理、プロビジョニング、スケーリングを自身で行うことなく、AI を開発できます。
自動化され、本番環境に対応したパイプラインにより、予測モデルと生成モデルを常に最新の状態に保ちます。
強力な生成 AI リソースにオンデマンドでアクセスし、必要に応じてプラットフォーム内で GPU を直接購入できます。
教師あり学習のあらゆるユースケースにおいて、簡単な API 呼び出しで予測を生成できます。
ボルトオンのガバナンス: わずか数行のコードで、どこで構築された AI アプリでもDataRobot が追跡し、管理できます。

AI エージェントと AI ツールのガバナンス: すべての AI ツールおよびコンポーネントの安全性、セキュリティ、コンプライアンスを確保します。
事前構築済みのガードモデルのライブラリーを使用して、誤用、脅威、ハルシネーションをリアルタイムで検出し、軽減します。
LLM をテストし、監査に対応したレポートを生成できます。手動でのレポート作成は不要です。
AI の応答とベクターデータベースとの整合性を追跡し、問題を特定して精度を向上させます。
カスタム承認エージェントのワークフローを構築することで、チームの意思決定を管理して円滑な運用を維持できます。
エンドツーエンドでエージェントとツールを監視: 本番環境のすべてのエージェントとツールを、ビジネス目標に合わせた詳細な指標で監視します。

独自の監視指標を定義して、GPU コストや PII リスクなど、最も重要な項目を追跡します。
すべての出力結果を入力、使用ツール、意思決定にまでさかのぼってトレースし、完全な監査性を確保しながら、オープンテレメトリーとの互換性を維持します。
本番環境におけるパフォーマンスの低下を監視し、テキストや位置情報に基づくデータドリフトを特定します。
詳細な正常性レポートを自動生成し、関係者やコンプライアンスの要件に対応できるようにします。
AI ツールを接続、構築、管理して、エージェントワークフローを開発
柔軟な統合プラットフォームや事前構築済みのコンポーネントを通じて、LLM、生成ワークフロー、ベクターデータベース、予測モデル、構造化データ、非構造化データを活用できます。
複雑なエージェントパイプラインをあらゆる場所にデプロイ
インフラストラクチャの専門的なスキルがなくても、クラウドやオンプレミスの高性能な GPU 上で複数の AI ツールのデプロイを管理することにより、コスト、レイテンシー、可用性を最適化できます。
エンタープライズグレードのセキュリティ、監視、ガバナンスで安全性を確保
すべてのワークフローおよび入出力を、基になるデータまでさかのぼってトレースし、監視することで、本番環境の品質を確保し、企業のコンプライアンス基準を満たします。