シンプルで柔軟なデプロイ
DataRobot 内で構築されたかどうかにかかわらず、生成 AI モデルと予測 AI モデルを本番環境に導入できます。
AI のユースケースをパッケージ化して柔軟にデプロイ
すべての AI 戦略を DataRobot のエンタープライズグレードの実稼働環境パイプラインとともに簡単にグループ化し、柔軟にデプロイできます。
エコシステム全体を活用
データプラットフォーム、DevOps ツール、クラウド AI モデルへの投資を最大限に活用して、ビジネスプロセスをシームレスに接続、自動化、最適化できます。
AI からの結果の生成を簡素化および自動化
予測値や実測値の生成頻度に関する独自のルールに基づいて、監視ジョブをスケジュールできます。
選択した環境に AI を導入して結果をすばやく生成
数百の生成 AI モデルと予測 AI モデル、および効率化されたデプロイパイプラインを、遅延なしに管理できます。
クラウド環境やオンプレミス、さらにはエッジデバイスへもデプロイ可能です。予測 API やエクスポート可能なスコアリングコードなどの低レイテンシーソリューションを選択することで、すぐに使用を開始できます。極めて拡張性の高いバッチジョブを活用し、データベース内にデプロイして大規模な予測を行うことができます。また、Kubernetes 用のポータブルサーバーや Streamlit のようなアプリを利用して、ビジネス環境にシームレスに統合することもできます。
AI のユースケースをパッケージ化して柔軟にデプロイ
すべての AI 戦略を DataRobot のエンタープライズグレードの実稼働環境パイプラインとともに簡単にグループ化し、予測 AI と生成 AI をデプロイできます。LLM、ベクターデータベース、およびプロンプト戦略をパッケージ化することで、柔軟なデプロイ機能を活用できるようになります。
バッチ予測の機能を最大限に使いモデルをシームレスにデプロイして実行
オンプレミスまたはさまざまなクラウド環境にデプロイされた、すべての生成 AI モデルと予測 AI モデルのジョブをスケジュールすることで、データサイエンスに要するリソースを削減し、手動パイプラインから脱却できます。予測値と実測値の算出頻度に関する独自のルールを設定することで、手作業が不要になり、エコシステム全体でモデルを簡単に維持できるようになります。
カスタム AI アプリの管理とデプロイ
DataRobot なら、カスタム AI アプリの迅速な構築、プロトタイプの作成、およびホスティングが簡単にできます。そのため、ガバナンスを確保してセキュリティポリシーを遵守しながら、組織内外の誰とでもアプリを簡単に共有できます。
生成 AI と予測 AI をあらゆるビジネスアプリケーションに導入
わずか数行のコードで、すべてのビジネスユーザーに AI のパワーがもたらされます。生成 AI や予測 AI を、Slack、Salesforce、BI ツールなどの組織のアプリケーションに統合できます。AI から生成される結果の共有方法に関係なく、マッピング済みのアクセスロールやアクセス許可に基づいて生成結果を確認できます。これにより、あらゆる利用ポイントで同一の予測が得られるようになり、AI インサイトの混在が回避されます。
推論時に GPU にシームレスにアクセス
Triton Inference Server を使用して、高性能 AI モデルによるトレーニングとデプロイを強化できます。その際、DataRobot で NVIDIA の推論マイクロサービスを使用することで、推論時に GPU 搭載システムを LLM や生成 AI アプリケーションごとに個別に設定して監視する必要がなくなります。