コミュニティが構築した最新の AI モデルを NVIDIA が最適化し、高速化した API でお試しください。NVIDIA NIM 推論マイクロサービスならどこにでもデプロイできます。
統合
使い慣れた API ですぐに稼働。
わずか 3 行のコードで既存のツールやアプリケーションから NVIDIA API を利用できます。
Langchain や LlamaIndex など、お気に入りの LLM プログラミング フレームワークを使用して容易にアプリケーションをデプロイ。
どこでも実行可能
NVIDIA AI Enterprise に含まれる NVIDIA NIM は、あらゆるクラウドまたはデータ センターに基盤モデルを短期間でデプロイできる、使いやすいマイクロサービスのセットであり、常にデータを守ります。
お使いのモデルの NIM を 1 回のコマンドでデプロイします。ファインチューンされたモデルで NIM を実行することも簡単です。
NVIDIA で高速化されたインフラをベースとする最適なランタイム エンジンで NIM を稼働させます。
開発者は数行のコードで自己ホスト型 NIM エンドポイントを統合できます。
NVIDIA NIM でコンテナー化されたマイクロサービスを入手し、AI モデルをローカルの開発環境に 1 回のコマンドでデプロイできます。また、Helm チャートをフェッチし、あらゆる Kubernetes で自動スケールできます。
NVIDIA で高速化するインフラで遅延が少なく、スループットが多くなるように継続的に AI ランタイムを最適化することで、本番環境でモデルを実行する経費を減らします。
Rely on production-grade runtimes, including ongoing security updates, and run your business applications with stable APIs backed by enterprise-grade support with NVIDIA NIM.
購入方法
導入事例
NVIDIA API がどのように各産業のユース ケースを支えているかご覧いただき、厳選されたサンプルを参考にしてお客様の AI 開発をスタートさせてください。
エコシステム
NVIDIA エコシステムのモデル、ツールキット、ベクトル データベース、フレームワーク、 インフラストラクチャで AI アプリケーションを開発し、
業界をリードするパートナーの仲間入りをしてください。
関連情報
テクニカル ドキュメントをご覧ください。NVIDIA API を利用してエンタープライズ AI アプリケーションを試作し、開発する方法をご確認いただけます。