완전 관리형 GPU 인스턴스에서 통합 개발 도구를 사용하여 추론 및 미세 조정을 최적화합니다.
애플리케이션 플랫폼은 개념부터 배포까지 포괄적인 라이프사이클 지원을 제공하여 AI 개발을 가속화합니다.데이터 관리를 용이하게 하고, Python Notebook, API 및 SDK와 같은 인터페이스를 갖춘 인기 있는 ML 도구 및 라이브러리를 제공하여 모델 개발 및 배포를 간소화합니다.
손쉽게 포드를 확장하고 리소스 활용도를 최적화하며 안정성, 보안 및 가용성을 보장할 수 있습니다.
모델 카탈로그 Llama-3, Mixtral 8x7b, 스테이블 디퓨전, Google Gemma 등과 같은 주요 오픈 소스 모델을 로컬 스토리지에서 로드할 수 있습니다.
모델들 한 곳에서 운영이 간소화되도록 보장
콜드 모델을 0으로 스케일링하고 비용 절감을 위해 필요한 경우에만 컴퓨팅을 프로비저닝합니다.
추가 작업 실행 사전 정의된 대기열에서 우선 순위가 지정된 수백 개의 배치 작업을 실행하여 워크로드를 효율적으로 관리할 수 있습니다.
미세 조정 워크로드 배포 단일 명령줄로 여러 GPU 노드에 연결할 수 있습니다.
파이썬 프레임워크 지원, 레이부터 파이토치 라이트닝과 딥스피드까지
모든 유형의 모델을 선택하십시오. 오픈 소스, 미세 조정된 모델 또는 직접 학습한 모델.
원하는 하드웨어 구성을 선택하고 배포할 인스턴스 수와 Auto Scaling을 위한 규모를 포함합니다.
빠른 지연 시간 또는 높은 처리량을 위한 최적화 간단히 최대 배치 크기를 조정하기만 하면 됩니다.
사전 정의된 환경 만들기 모든 도구, 라이브러리 및 데이터를 한 곳에서 이용할 수 있습니다.
선호하는 IDE 도구에 연결 예를 들어 주피터 노트북, 파이참, VSCode 등이 있습니다.
모든 데이터 소스 마운트 작업 공간에 저장하고 추적 가능한 스토리지 볼륨에 출력과 아티팩트를 저장합니다.
“GMI Cloud는 향후 수년 동안 GMI Cloud를 클라우드 인프라 부문의 리더로 자리매김할 비전을 실행하고 있습니다.”
“아시아와 미국 시장을 연결하는 GMI Cloud의 능력은 우리의 'Go Global' 접근 방식을 완벽하게 구현합니다.Alex는 시장에서의 독특한 경험과 관계를 바탕으로 반도체 인프라 운영을 확장하여 성장 잠재력을 무한하게 만드는 방법을 진정으로 이해하고 있습니다.”
“GMI Cloud는 업계에서 정말 두각을 나타내고 있습니다.원활한 GPU 액세스와 풀스택 AI 제품은 UbiOps의 AI 기능을 크게 향상시켰습니다.”
GMI Cloud를 사용해 보고 AI 요구 사항에 적합한지 직접 확인해 보세요.
에서 시작
GPU 시간당 4.39달러
최저
GPU-시간당 2.50달러
자주 묻는 질문에 대한 빠른 답변을 저희 사이트에서 확인하세요 자주 묻는 질문.
다양한 AI 및 HPC 워크로드를 위한 80GB VRAM과 높은 컴퓨팅 기능을 갖춘 NVIDIA H100 GPU를 제공합니다.자세한 내용은 에서 확인할 수 있습니다. 가격 페이지.
NVIDIA NVLink 및 InfiniBand 네트워킹을 사용하여 지연 시간이 짧은 고속 GPU 클러스터링을 지원하고 원활한 분산 교육을 위한 Horovod 및 NCCL과 같은 프레임워크를 지원합니다.에서 자세히 알아보십시오. GPU 인스턴스.
우리는 pip와 conda를 사용하여 고도로 사용자 정의 가능한 환경을 갖춘 텐서플로우, 파이토치, 케라스, 카페, MXNet 및 ONNX를 지원합니다.
요금에는 온디맨드, 예약 및 스팟 인스턴스가 포함되며 비용 및 성능을 최적화하는 자동 조정 옵션이 포함됩니다.확인해 보세요. 가격 책정.