ATOM™-Max Server

대규모 AI 추론을 위한 고성능 서버

단일 서버에서 시작하는 대규모 AI 추론

ATOM™-Max 서버는 고효율 전력 설계를 기반으로, 단일 서버만으로도 대규모 AI 추론을 안정적으로 수행합니다. ATOM™-Max NPU Card 최대 8장으로 구성 가능하며, 수백 종의 AI 모델(Vision, LLM, Multi-modal, Physical AI 등)과 핵심 AI 서비스 운영 도구(vLLM, Triton, K8s 등)를 지원합니다. GPU의 익숙한 개발 환경 그대로, 튜토리얼을 통해 손쉽게 시작하세요.

1,024 TFLOPS (FP16)

Peak Performance
FP16 기준 최대 연산 성능

512GB, 1TB/s

GDDR6 Memory
대용량, 고대역폭 메모리

~4.4kW

Power Consumption
에너지 최적화 설계

4U

Form Factor
데이터센터 최적화

Compatible Software

OS

Ubuntu, Rhel 9, AlmaLinux, Rocky Linux

Frameworks & Tools

Hugging Face, PyTorch, TensorFlow, Triton

Inference Serving

VLLM, Triton Inference Server, TorchServe

Orchestration

Docker, OpenStack, Kubernetes, Ray

Performance at

Any Scale

사용자 요청이 급증해도 서비스 성능은 흔들리지 않습니다. 
대규모 AI 서비스를 위해, ATOM™-Max 서버는 서버 1대로 초당 수천 개 토큰을 생성하고 수천 프레임의 이미지를 분석하는 압도적인 성능을 제공합니다.

Sustainable

AI Infrastructure

서버실 내 한정된 전력 용량에서 최대의 AI 추론 성능을 지원합니다.
 ATOM™-Max 서버는 뛰어난 전력 효율성으로 AI 인프라의 총소유비용(TCO)을 대폭 줄이고, 지속 가능한 AI 비즈니스 환경을 가능하게 합니다.

Full-stack
Software Support

ATOM™-Max는 가장 활용도 높은 오픈 소스 소프트웨어 생태계와 완벽하게 호환됩니다. 대규모 요청에 효율적으로 응답하고, 유연한 자원 운용 및 모니터링을 위한 다양한 AI 서비스 운영 도구(vLLm, Triton inference server, K8s, Prometheus 등)를 통해 end-to-end 서비스 구축을 가능하게 합니다.

Variety of

Models and Applications

LLM, 비전 AI, 멀티모달, Physical AI 등 수백 종의 최신 AI 모델을 즉시 사용할 수 있습니다. 챗봇, 기업 검색 엔진, 요약/분석, 지능형 CCTV, 그리고 이미지/비디오 생성 서비스까지 기업 맞춤형 AI 서비스 구현을 지원합니다.

Develop

As You Always Have

새로운 하드웨어 때문에 익숙한 개발 환경을 포기할 필요가 없습니다. 
ATOM™-Max는 사용자 친화적인 개발 환경을 제공하여, 파이토치, 텐서플로우 등 기존에 사용하던 표준 워크플로우 그대로 개발을 진행할 수 있으며, 준비된 튜토리얼을 통해 손쉽게 시작할 수 있습니다.

NPU로 구현하는 산업별 AI 혁신

Enterprise

확장 가능한 AI 인프라로 개발부터 운영까지
기업 전반 AI 도입 효율화

Construction

AI 기반 안전관제로
건설 현장 안전사고 선제적 예방

Healthcare

맞춤형 건강관리부터 정밀 의료 지원까지
AI 헬스케어 생태계 지원

Finance

안전한 실시간 금융 데이터 처리로
차세대 금융 서비스 인프라 구축

Manufacturing

Physical AI 기반 스마트 팩토리로
제조 생산성 혁신

Telecom

안정적인 대규모 AI 서비스 운영으로
차별화된 통신 서비스 구현 및 고객 만족도 향상

RBLN SDK
Deploy with Confidence from Day One.

기존 PyTorch 코드 그대로,
익숙한 개발 환경 제공

vLLM을 통한
최적의 스케줄 서빙

Triton을 비롯한
수많은 Dev 도구 지원

복잡한 설정 없이,
손쉬운 배포

Driver SDK

NPU 구동을 위한

기본 시스템 SW 및 도구 모음

Firmware Kernel Driver User Model Driver System Management Tool

NPU SDK

모델 및 서비스 개발을 위한

SW 도구 모음

Compiler, Runtime, Profiler Hugging Face 지원 주요 추론 서버 지원 (vLLM, TorchServe, Triton Inference Server 등)

Model Zoo

리벨리온 NPU에서 곧바로 쓸 수 있는

300+ PyTorch와 TensorFlow 모델 제공

Natural Language Processing Generative AI Speech Processing Computer Vision

도입 문의하기

대규모 AI 프로젝트부터 맞춤형 솔루션까지, 리벨리온과 함께라면 가능합니다.
리벨리온에 문의하고 싶으신 내용을 남겨주세요.

"*" indicates required fields

This field is hidden when viewing the form
This field is for validation purposes and should be left unchanged.