블로그

VESSL AI 팀의 최신 업데이트, 엔지니어링 인사이트, 제품 소식을 전합니다.

B200 GPU 완전 정리: H100 대비 성능, 메모리, 클라우드 가격까지
b200

B200 GPU 완전 정리: H100 대비 성능, 메모리, 클라우드 가격까지

이 글은 VESSL AI 팀이 작성했으며, VESSL Cloud 소개를 포함해요. 스펙 데이터는 NVIDIA 공식 데이터시트 기준이에요. (2026년 4월 기준) H100 대비 2.3배 이상 성능 | 192GB HBM3e VRAM | VESSL Cloud에서 바로 사용 가능 NVIDIA B200 GPU란? NVIDIA B200은 Blackwell 아키텍처 기반의 데이터센터용 GPU예요. 192GB HBM3e 메모리(클라우드 환경 사용 가능 용량 약 180GB)와 FP4 기준 최대 9,000 TFLOPS 연산 성능을 갖추고 있어요. H100 대비 2배 이상 빠른 연산 능력과 2.4배 큰 VRAM이 특징이에요. 대규모 AI 학습과 추론 모두에서 현 시점 가장 현실적인 차세대 GPU예요. H100 다음, 뭘 써야 할까? H100으로 모델 학습을 돌리는데 시간이 너무 오래 걸리거나, 메모리가 부족해서 모델을 쪼개야 했던 경험이 한 번쯤 있으실 거예요. AI 모델은

VESSL AI
VESSL AI
|9
GTC 2026 VESSL AI 부스에서 팀원들이 함께 포즈를 취하고 있다. 뒤편에 VESSL AI 로고와 Orchestrate Every GPU 슬로건이 보인다.
인사이트

GTC 2026 현장에서 본 GPU 인프라 3가지 구조적 전환 — 추론, 에이전틱 AI, Physical AI

GTC 2026에서 Jensen Huang은 한 마디로 한 주 전체를 관통하는 프레임을 제시했어요: "2025년은 추론(inference)의 해였다." 2025년이 추론이 본격화된 해였다면, GTC 2026은 그 다음을 가속하는 것이 훨씬 더 빠르게 움직이고 있다는 점을 분명히 했어요. 한 주를 지배한 세 가지 테마가 있었어요: AI 개발 사이클을 수 주에서 수 시간으로 압축하는 에이전틱 도구, 진정한 의미의 연속적 GPU 워크로드로 부상한 Physical AI, 그리고 추론 수요에 상한이 없다는 전제 위에 설계된 하드웨어 로드맵이에요. VESSL AI 팀은 GTC 2026에 부스를 운영하며 키노트와 세션 전반을 함께했어요. 이 글에서는 추론 인프라를 재설계하고 있는 하드웨어 전환, 에이전틱 도구가 AI 개발 속도를 구체적으로 어떻게 바꾸고 있는지, Physical AI가 연속적 GPU 워크로드로 부상한 배경, 기업의 Physical AI 도입 현황, 그리고 네오클라우드 지형의

VESSL AI
VESSL AI
|17
베슬 AI, 엔비디아 최신 GPU 확보…GB200·B300 동시 제공
VESSL AI 뉴스

베슬 AI, 엔비디아 최신 GPU 확보…GB200·B300 동시 제공

기업별 맞춤형 AI 인프라 환경 구축 분 단위 과금으로 운영 비용 절감 지원 (서울=연합뉴스) 권하영 기자 = 베슬 AI는 엔비디아의 최신 그래픽처리장치(GPU)인 GB200과 B300을 확보하고 국내 GPU 클라우드(GPUaaS) 시장 공략에 나선다고 27일 밝혔다. 베슬 AI는 국내에서 GB200과 B300을 동시에 제공하는 네오클라우드 사업자로, 기업이 필요에 따라 초거대 모델 학습이나 대규모 AI 모델 추론에 적합한 인프라를 선택할 수 있도록 했다. 서비스 접근성도 강화했다. 베슬 AI는 A100과 H100 등 주요 GPU와 스토리지, AI 개발 플랫폼을 별도 협의나 계약 절차 없이 즉시 사용할 수 있는 셀프 서비스 형태로 제공한다. 이를 통해 기업과 개발자는 필요한 시점에 바로 GPU를 활용할 수 있어 AI 개발 속도를 높일 수 있다. 자사 GPU 클라우드 플랫폼인 '베슬 클라우드'를 통해 해당 자원들을 공급하고 있다. 비용 효율성 측면에서는 분 단위 과금

VESSL AI
VESSL AI
|2