Model
/
LLM
/
DeepSeek

DeepSeek R1

GMI에 도래하는 AI의 새로운 시대

GMI Cloud는 AI 혁신가에게 NVIDIA의 GB200 NVL72 플랫폼에 대한 탁월한 액세스를 제공하여 대규모 언어 모델 (LLM) 추론, 벡터 데이터베이스 검색 및 데이터 처리를 위한 획기적인 성능을 제공합니다.듀얼 블랙웰 GPU와 NVIDIA의 NVLink® 인터커넥트로 구동되는 GB200 NVL72 은 대규모 AI 워크로드를 처리하기 위해 특별히 제작되었으며, NVIDIA의 확장 가능한 MGX™ 아키텍처를 통해 기존 인프라에 원활하게 통합됩니다.GMI Cloud와 NVIDIA GB200 NVL72 제품을 사용하면 더 스마트하게 확장하고 더 빠르게 혁신하여 가속화된 컴퓨팅의 잠재력을 최대한 활용할 수 있습니다.initial takeaways here.

Technical details:

Model Provider:
DeepSeek
Type:
Chat
Parameters:
685B
Deployment:
Serverless (MaaS) or Dedicated Endpoint
Quantization:
FP16
Context Length:
Up to 128,000 tokens

Distilled models offering:

  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-Distill-Llama-8B
  • DeepSeek-R1-Distill-Qwen-7B
  • DeepSeek-R1-Distill-Qwen-1.5B

Try our token-free service with unlimited usage!

Reach out for access to our dedicated endpoint Here.