Enterprise Al Solution
Full Packaged 엔터프라이즈 AI 서빙 솔루션
엔터프라이즈 AI 서빙을 위한
Full Lifecycle 지원 솔루션
Rebellions Enterprise AI Solution은 ATOM™-Max Pod에서 엔터프라이즈 AI 서비스의 Full Lifecycle을 리소스 효율적으로 지원하는 SW 솔루션으로 다수의 AI 서비스, 대규모 요청과 대형 모델에 최적화된 노드 단위 분산 서빙 개발 툴킷을 제공합니다. 기업의 인프라팀에게는 자동화된 AI 인프라 운영 도구를, 개발팀에게는 환경 설정∙소프트웨어 구성의 고민 없이 바로 사용할 수 있는 독립된 개발 환경을 지원합니다.
Full Lifecycle Support from Dev to Deploy
손쉽게 테스트용 Pod를 생성하고, VS Code, Jupyter 등의 IDE 도구를 통해 개발, 테스트, 디버깅, 배포 및 업데이트 작업이 가능합니다. 초기 환경 설정이나 소프트웨어 구성에 대한 고민 없이, E2E 전체 개발 주기를 지원받을 수 있습니다.
Automated Resource Orchestration
관리자는 손쉽게 개발팀을 위한 AI 리소스를 생성하고, 사용자 인증 및 권한 관리, 모니터링 기능을 운영할 수 있습니다. 자동화된 AI 인프라 운영 도구 도입을 통해 관리 편의성 및 효율성을 극대화할 수 있습니다.
Prebuilt Multi-Tenant Development & Serving System
기업에서는 다수의 AI 서비스 개발, 테스트, 배포 및 운영을 동시 다발적으로 수행해야 합니다. 여러 개발자와 팀이 각각의 작업을 간섭 없이 동시에 수행할 수 있도록 분리된 자원 관리 및 실행 환경을 제공합니다.
Ready-to-Use SW for Cost-Efficient Distributed Serving
AI 서비스의 요청 구조에 최적화된 노드 간 분산 서빙 환경은 최소한의 리소스로 대규모 요청을 처리할 수 있습니다. 분산 서빙을 위해 이미 구성된 SW 스택을 통해 손쉬운 최적화 작업을 지원합니다.
Development Toolkit for Resource-Intensive Model
서버 to 서버 통신이 필수적인 리소스 집약적 대형 AI 모델(Reasoning AI 등)의 추론을 지원합니다. RDMA 기반 고속 네트워크 환경 및 활용 가이드를 통해 지연 없는 고성능 AI 서비스를 구현할 수 있습니다.
Core Technology & Components
Developer-Friendly Environment
사용이 편리한 IDE와 Kubernetes, Ray와 같은 분산 서빙 소프트웨어 스택 지원을 통해 개발 친화적 환경을 제공합니다.
vLLM Devpack
vLLM Devpack은 vLLM의 엔진과 다양한 도구, PyTorch 및 Triton 프레임워크, 리벨리온 SDK를 통합 컨테이너 이미지로 제공합니다.
AI Orchestration
여러 요청에 대해 Ray, K8s, vLLM으로 서버를 분산∙공유∙스케줄링하여 워크로드를 효과적으로 처리할 수 있습니다.