






(주)슈가큐브네트웍스는 데이터센터(IDC)에서 다수의 서버를 운영하는 서버 / 서버운영 전문기업입니다.
HP DELL LENOVO SUPERMICRO 등의 다양한 서버 및 스위치, 네트워크 운영 노하우를 보유하고 있습니다.
모든 서버 / 파트는 100% 점검후 출고됩니다.
서버 / 파트는 출고전 모든 바이오스 풀업데이트 로 제공하며, 서버리포트를 제공합니다.
서버견적 및 퀵배송(4시간,익일)은 가장 빠른시간에 정확히 제공 공급합니다.
Nvidia Tesla V100 32G 인공지능 딥러닝 SXM PCIe
900-2G503-0010-000, 900-2G503-0040-000, 900-2G503-0011-000, 900-2G503-0050-000
인공지능 및 데이터 과학 혁신을 위한 최고의 연산 솔루션
NVIDIA Tesla V100 32GB는 Volta 아키텍처를 탑재하여 현대 데이터 센터의 복잡한 요구 사항을 충족하도록 설계되었습니다. 640개의 Tensor Cores를 기반으로 AI 트레이닝 및 추론 속도를 극대화하며, 기존 모델 대비 확장된 32GB HBM2 메모리를 통해 대규모 데이터 세트와 정밀한 딥러닝 모델 워크로드를 효율적으로 처리합니다. 고성능 컴퓨팅 환경에서 병목 현상을 해결하고 연구 및 분석 시간을 단축하는 최상의 도구입니다.
Description:
Graphics Processor: GV100
Cores: 5120
TMUs: 320
ROPs: 96
Memory Size: 32 GB
Memory Type: HBM2
Bus Width: 4096 bit
Graphics Processor
GPU Name: GV100
GPU Variant: GV100-400-A1
Architecture: Volta
Foundry: TSMC
Process Size: 12 nm
Transistors: 21,100 million
Density: 25.9M / mm²
Die Size: 815 mm²
Chip Package: BGA-2557
Graphics Card
Release Date: Mar 27th, 2018
Generation: Tesla
Predecessor: Tesla P100
Successor: Tesla A100
Production: End-of-life
Driver Support: 64-bit OS
Bus Interface: PCIe 3.0 x16 / SXM2
Clock Speeds
Base Clock: 1245 MHz
Boost Clock: 1380 MHz
Memory Clock: 876 MHz (1.8 Gbps effective)
Memory
Memory Size: 32 GB
Memory Type: HBM2
Memory Bus: 4096 bit
Bandwidth: 897.0 GB/s
Render Config
Shading Units: 5120
TMUs: 320
ROPs: 96
SM Count: 80
Tensor Cores: 640
L1 Cache: 128 KB (per SM)
L2 Cache: 6144 KB
Theoretical Performance
Pixel Rate: 132.5 GPixel/s
Texture Rate: 441.6 GTexel/s
FP16 (half): 28.26 TFLOPS
FP32 (float): 14.13 TFLOPS
FP64 (double): 7.066 TFLOPS
Board Design
Slot Width: Dual-slot
Length: 267 mm
Height: 111 mm
TDP: 250 W
Suggested PSU: 600 W
Outputs: No outputs
Power Connectors: 1x 8-pin
Board Number: PG150
파트넘버
Tesla V100 32G
상태
신제품
제조사 출시 제품
수급
모두 ( 국내 / 해외 )
배송
무료 퀵서비스
(4시간 이내)
보증
1년
패키징
무지박스
문의
saleserver 네이버
공일공 팔팔사삼 사육칠삼


