Model
/
LLM
/
DeepSeek

DeepSeek R1

GMIに到来する人工知能の新時代

GMI Cloud は AI イノベーターに NVIDIA の GB200 NVL72 プラットフォームへの比類のないアクセスを提供し、大規模言語モデル (LLM) 推論、ベクトルデータベース検索、データ処理において画期的なパフォーマンスを提供します。デュアルBlackwell GPUとNVIDIAのNVLink® インターコネクトを搭載したGB200 NVL72は、大規模なAIワークロードを処理するために特別に構築されており、NVIDIAのスケーラブルなMGX™ アーキテクチャを通じて既存のインフラストラクチャへのシームレスな統合を実現します。GMI Cloud と NVIDIA GB200 NVL72 を使用すれば、よりスマートにスケーリングし、より迅速にイノベーションを起こすことができ、アクセラレーテッドコンピューティングの可能性を最大限に引き出すことができます。initial takeaways here.

Technical details:

Model Provider:
DeepSeek
Type:
Chat
Parameters:
685B
Deployment:
Serverless (MaaS) or Dedicated Endpoint
Quantization:
FP16
Context Length:
Up to 128,000 tokens

Distilled models offering:

  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-Distill-Llama-8B
  • DeepSeek-R1-Distill-Qwen-7B
  • DeepSeek-R1-Distill-Qwen-1.5B

Try our token-free service with unlimited usage!

Reach out for access to our dedicated endpoint Here.