AI 應用開發平台

利用整合式開發工具最佳化推論和微調,全部都在完全受管的 GPU 執行個體上。

平台系統架構

一站式 AI 開發平台從想法到實現,我們提供完整的開發環境。整合資料管理、主流開發工具,支援 Python Notebook、API 和 SDK 等多元介面,讓AI開發部署更簡單。

AI 開發加速器

打造高效穩定的開發環境,讓您專注在創新應用
從資源調度到系統維運,一手包辦

智慧推論優化

主流模型一鍵部署整合 Llama-3、Mixtral 8x7b 等熱門開源模型,從本地直接調用,免去繁瑣設定。隨時支援最新AI模型,讓您走在技術尖端。

中央化模型管理一個平台統一管理所有模型,簡化開發流程,直覺的操作介面讓您快速上手,輕鬆掌握所有模型狀態。

成本最佳化創新的智慧休眠機制,讓閒置算力歸零,需要時即時喚醒,確保資源使用最大效益,讓您只需為實際使用付費。

模型微調更進化

更高效的任務處理透過預設優先序列,同時執行數百個批次任務,實現高效能工作負載管理。

一鍵分散式運算單行指令即可將微調工作負載分配至多個 GPU 節點,簡化部署流程。

完整 Python 框架支援 全面支援從 Ray 到 PyTorch Lightning 和 DeepSpeed 等主流框架,滿足各種開發需求。

運算資源自由配置

自由選擇模型類型無論是開源模型、微調後的模型,或是您自行訓練的模型,全面支援。

靈活硬體配置自訂部署規模和自動擴展參數,打造最適合的硬體環境。

效能優化更簡單只要調整最大批次處理量,就能在低延遲和高吞吐量間找到最佳平衡。

開發環境極速部署

預設開發環境一次到位工具、函式庫、資料集,一站整合,立即可用。

主流 IDE 無縫接軌完美支援 Jupyter Notebook、PyCharm、VSCode 等熱門開發工具。

彈性資料管理支援任意資料來源掛載,輸出結果與檔案都能有系統地儲存與追蹤。

投資人高度評價

「GMI Cloud 正在實現願景,未來將在雲端基礎建設領域佔據領導地位。」

Alec Hartman
Digital Ocean 共同創辦人

「GMI Cloud 能夠完美連結亞洲與美國市場,充分體現我們『放眼全球』的理念。憑藉 Alex 在市場上獨特的經驗和人脈,他真正了解如何擴展半導體基礎設施的營運,使其發展潛力無限。」

Akio Tanaka
Headline 合夥人

「GMI 雲端在行業中真正脫穎而出。它們的無縫 GPU 存取和全堆疊 AI 產品,大大提升了我們在 UbiOps 的 AI 功能。」

Bart Schneider
UbiOps 執行長

立即開始使用

試用 GMI Cloud 算力租賃服務,即刻體驗高效的 AI 佈建。

一鍵啟用
14 天試用
無長期合約綁定
無須安裝設定
On-demand GPU 方案

開始於

$4.39 /GPU-小時

立即開始使用
Reserved 方案

低至

$2.50/ GPU-小時

立即開始使用

常見問題

快速取得常見問題的解答

提供哪些類型的 GPU ?

我們不僅提供 NVIDIA H100 GPU,配備 80 GB VRAM 及高效能算力,可應用於各類 AI 與高效能運算工作負載;同時也提供 NVIDIA H200 GPU,作為首款搭載 HBM3e 技術的 GPU,H200 擁有更大且更快速的記憶體,可加速大型語言模型 (LLM) 的開發,並在 HPC 工作負載的科學運算中實現重大突破。查看 H100 報價H200 報價了解更多詳情!

如何管理 GPU 叢集和網路以進行分散式訓練?

我們使用 NVIDIA NVLink 和 InfiniBand 網路來實現高速、低延遲的 GPU 叢集運算,並支援 Horovod 和 NCCL 等架構,使分散式訓練更加順暢。了解更多請參考 GPU 算力服務

支援哪些軟體和深度學習框架?可以客製化嗎?

我們支援 TensorFlow、PyTorch、Keras、Caffe、MXNet 和 ONNX,並提供高度客製化的環境,可透過 pip 和 conda 進行設定。

GPU 的價格方案如何?有提供成本最佳化功能嗎?

我們的定價包括 On-demand、Reserved 兩種方案,並具有自動擴充選項,以最佳化成本和效能。詳情請查看價格方案