NVIDIA H200 GPU の予約が可能になりました
以下とのパートナーシップにより構築:
Diagram illustrating the levels of the GMI platform, including layers such as Application Platform, Cluster Engine, and GPU Instances.

オールインワンの AI クラウドですべての人に

GMI クラウドはベアメタルだけではありません。最先端モデルのトレーニング、微調整、推論を行います。クラスターは、スケーラビリティの高い GPU コンテナと事前設定済みの一般的な ML フレームワークを備えているため、すぐに使用できます。

AI に最適なGPUプラットフォームから始めましょう。

さあ、始めましょう
01

GPU インスタンス

AI ワークロード用の最新の GPU にすぐにアクセスできます。柔軟なオンデマンド GPU が必要な場合でも、専用のプライベートクラウドインスタンスが必要な場合でも、当社なら対応できます。

エヌビディア H100

オンデマンドまたはプライベートクラウド

GPU からスーパーポッドへのスケーリング

02

クラスターエンジン

すぐに使えるKubernetesソフトウェアでGPUリソースを最大限に活用しましょう。高度なオーケストレーションツールを使えば、GPU やノードを簡単に割り当て、デプロイ、監視できます。

クベルネテスベースのコンテナ

マルチクラスター管理

ワークロードオーケストレーション

03

アプリケーションプラットフォーム

モデルをカスタマイズして提供し、データを使用して AI アプリケーションを構築します。API、SDK、または Jupyter ノートブックの方が好きですか?AI 開発に必要なツールはすべて揃っています。

高性能推論

あらゆるデータストレージをマウント

NVIDIA NIMS インテグレーション

デベロッパーがデベロッパーのために構築

GMI Cloud では、あらゆる GPU ワークロードを迅速かつ簡単にデプロイできるため、インフラストラクチャの管理ではなく ML モデルの実行に集中できます。

GPU インスタンスを数秒で起動

GPU インスタンスの準備が整うまで 10 分以上待つのにうんざりしていませんか?コールドブート時間をミリ秒に短縮したので、GPU をデプロイしたらすぐにビルドを開始できます。

すぐに使える容器を使用するか、ご自分の容器を持参してください

事前設定された環境を起動して、コンテナイメージの構築、ソフトウェアのインストール、モデルのダウンロード、環境変数の設定にかかる時間を節約できます。また、ニーズに合わせて独自の Docker イメージを使用することもできます。

GPU インフラストラクチャでより多くのワークロードを実行

当社のターンキーKubernetesソフトウェアであるCluster Engineを当社またはお客様のインフラストラクチャで活用して、AIワークロードとリソースを動的に管理し、GPUを最適に利用できるようにします。

エンタープライズレベルのコントロールで AI インフラストラクチャを管理

一元化された可視性、自動監視、堅牢なユーザー管理およびセキュリティ機能により、運用の合理化と生産性の向上を実現します。

台湾に根ざし、世界中で信頼されています

GMI Cloudは世界中でデータセンターを運営しており、AIワークロードの低レイテンシと高可用性を確保しています。

グローバルデータセンター

増え続けるデータセンターのネットワークを利用して、お客様に最も近いクラスターにデプロイし、レイテンシーを数ミリ秒に短縮します。

ソブリン AI ソリューション

主要地域のローカルチームが、カスタマイズされたサポートとインサイトを提供し、現地のニーズや現地の規制への準拠に合わせて導入をカスタマイズします。

GMI は一般的なマシンインテリジェンスの略です

最もパワフルな GPU に最初にアクセスする

H100 SXM グラフィックプロセッサ

80 ギガバイトフレーム

2048ギガバイトのメモリ

インテル 8480 プロセッサ

3.2 Tb/秒ネットワーク

プライベートクラウド

2.50ドル /GPU アワー

オンデマンド GPU

4.39ドル /GPU アワー

始めましょう

B100 SXM グラフィックプロセッサ

192 ギガバイトフレーム

2048ギガバイトのメモリ

インテル 8480 プロセッサ

3.2 Tb/秒ネットワーク

プライベートクラウド

近日公開

オンデマンド GPU

近日公開

今すぐ予約

GMI クラウドブログ

リソースと最新ニュース

よく寄せられる質問

当社でよくある質問への回答をすばやく入手してください よくある質問。

どのような種類の GPU が提供されていますか?

当社では、さまざまな AI および HPC ワークロードに対応する 80 GB の VRAM と高度なコンピューティング機能を備えた NVIDIA H100 GPU を提供しています。詳細については、以下をご覧ください。 価格設定ページ

分散型トレーニング用の GPU クラスタリングとネットワークをどのように管理していますか?

NVIDIA NVLinkとInfiniBandネットワーキングを使用して、高速で低遅延のGPUクラスタリングを実現し、シームレスな分散トレーニングのためのHorovodやNCCLなどのフレームワークをサポートしています。詳しくは、以下をご覧ください。 GPU インスタンス

どのソフトウェアとディープラーニングフレームワークをサポートしていますか?また、どの程度カスタマイズ可能ですか?

TensorFlow、PyTorch、Keras、Caffe、MXNet、ONNX をサポートしており、pip と conda を使用して高度にカスタマイズ可能な環境を用意しています。

GPUの価格はどのようになっていますか?また、コスト最適化機能はありますか?

料金には、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンスが含まれており、コストとパフォーマンスを最適化するための自動スケーリングオプションもあります。チェックアウトしてください。 価格

今すぐ始めましょう

GMI Cloudを試してみて、それがAIのニーズに適しているかどうかを自分で確かめてください。

さあ、始めましょう
14 日間試用版
長期コミットなし
セットアップ不要
オンデマンド GPU

開始時間

GPU 時間あたり 4.39 ドル

GPU 時間あたり 4.39 ドル
プライベートクラウド

最低でも

GPU 時間あたり 2.50 ドル

GPU 時間あたり 2.50 ドル

GMIに関するご意見

「GMI Cloudは、今後何年にもわたってクラウドインフラストラクチャセクターのリーダーとしての地位を確立するというビジョンを実行しています。」

アレックハートマン
デジタル・オーシャン共同創設者

「アジアと米国市場をつなぐGMI Cloudの能力は、私たちの「Go Global」アプローチを完全に体現しています。アレックスは、市場における独自の経験と人間関係により、半導体インフラ事業を拡大し、成長の可能性を無限に高める方法を真に理解しています。」

田中明夫
ヘッドラインのパートナー

「GMI Cloudは業界で本当に際立っています。シームレスな GPU アクセスとフルスタック AI サービスにより、当社の UBIOps の AI 機能が大幅に強化されました。」

バートシュナイダー
UbiOps 最高経営責任者