Rack-to-Rack 확장과 RDMA 네트워크로 완성한
고성능 AI 클러스터
ATOM™-Max Pod는 노드 간 분산 처리가 요구되는 대규모 AI 추론 서비스를 위해 구성된 Rack-scale 인프라로, 리벨리온의 AI 가속기와 400~800G RDMA 기반 고속 네트워크, 익숙한 환경의 소프트웨어 스택까지 통합된 턴키 인프라로 제공됩니다. 서버 8대 구성의 Mini-Pod부터 기업 AI 서비스에 요구되는 스케일로 유연한 확장이 가능합니다.
Multi-Node
System Architecture
8 노드부터 시작
800GB/s
RDMA Fabric
초저지연 클러스터링
64 NPUs
Per Rack
선형적 성능 확장
All-in-One
Turnkey Solution
즉시 배포 가능
Limitless
Scale-Out Architecture
ATOM™-Max 서버 8개로 이뤄진 Mini Pod부터 수십 개의 서버로 구성된 Pod까지, RSD를 통해 하나의 연결된 클러스터로 자유롭게 확장할 수 있습니다. 워크로드 증가에 따른 유연한 리소스 운영과 함께 선형적인 성능 향상을 제공합니다.
Ultra-Low Latency
RDMA Fabric
ATOM™-Max Pod 내 서버는 400G~800G RDMA 기반 고속 네트워크를 통해 상호 연결되어 있습니다. 리소스 집약적 대형 AI 모델 모델에 필수적인 분산 처리 기능을 속도 지연 없이 운영하기 위한 최적의 인프라입니다.
All-in-One
Turnkey Infrastructure
AI 가속기부터 RDMA 스위치, 노드 간 네트워크까지 통합된 인프라를 제공합니다. 검증된 하드웨어 및 소프트웨어 스택 기반으로 즉시 AI 상용 서비스에 투입할 수 있습니다. 대규모 인프라 도입을 위한 복잡성을 제거하고 운영 효율을 극대화하세요.
Ready-to-Deploy
Rebellions Enterprise AI Solution
ATOM™-Max Pod에는 엔터프라이즈 환경에 최적화된 리벨리온의 SW Product, 'Enterprise AI Solution'을 도입할 수 있습니다. 기업 AI 서빙의 Full Lifecycle을 비용 효율적으로 지원하는, 이미 준비된 솔루션을 검토해 보세요.
NPU로 구현하는 산업별 AI 혁신
Enterprise
확장 가능한 AI 인프라로 개발부터 운영까지
기업 전반 AI 도입 효율화
Construction
AI 기반 안전관제로
건설 현장 안전사고 선제적 예방
Healthcare
맞춤형 건강관리부터 정밀 의료 지원까지
AI 헬스케어 생태계 지원
Finance
안전한 실시간 금융 데이터 처리로
차세대 금융 서비스 인프라 구축
Manufacturing
Physical AI 기반 스마트 팩토리로
제조 생산성 혁신
Telecom
안정적인 대규모 AI 서비스 운영으로
차별화된 통신 서비스 구현 및 고객 만족도 향상
RBLN SDK
Deploy with Confidence from Day One.
기존 PyTorch 코드 그대로,
익숙한 개발 환경 제공
vLLM을 통한
최적의 스케줄 서빙
Triton을 비롯한
수많은 Dev 도구 지원
복잡한 설정 없이,
손쉬운 배포
Driver SDK
NPU 구동을 위한
기본 시스템 SW 및 도구 모음
NPU SDK
모델 및 서비스 개발을 위한
SW 도구 모음
Model Zoo
리벨리온 NPU에서 곧바로 쓸 수 있는
300+ PyTorch와 TensorFlow 모델 제공
Cloud SDK
Cloud에서 NPU 자원 관리를 위한 SW 모음