스타랩스, 엔비디아 최신 GPU로 AI 인프라 혁신···2025년 본격 도입 시작
국내 IT 기술의 선두주자인 스타랩스(StarLabs)가 차세대 AI 인프라 서비스를 강화하고자 또 한 번 혁신적인 행보를 내보였습니다. 2025년 상반기부터 스타랩스는 세계적 그래픽 처리 기술의 리더인 엔비디아(NVIDIA) 최신 GPU 제품, '블랙웰(B200)' 기반의 시제품 서버를 도입한다고 공식 발표했습니다. 이번 GPU 도입은 고성능 AI 컴퓨팅에 새로운 패러다임을 제시하며 국내 기업 AI 생태계에 상당한 변화를 불러올 것으로 기대됩니다.
스타랩스는 본격적인 GPU 도입을 위해 현재 약 1,000대의 B200 서버를 확보한 상태라고 밝혔습니다. 이같은 획기적인 발표는 기업 내 AI 인프라 중심 전략의 일환으로, 더욱 고도화된 GPU 리소스를 다양한 기업들에게 빠른 속도로 제공하여 국내외 인공지능 생태계 발전을 가속하는 것을 목표로 하고 있습니다.
엔비디아 블랙웰(B200), H100 대비 약 3배 이상의 AI 연산 성능
스타랩스가 도입할 예정인 '엔비디아 블랙웰(B200)'은 기존 NVIDIA H100 GPU 대비 약 3배 수준의 AI 연산 성능을 제공하는 차세대 고성능 제품입니다. H100이 AI 및 딥러닝, 대규모 데이터 처리에서 획기적인 성능을 보여줬던 점을 고려할 때, B200은 그 모든 성능을 초월한 하드웨어로서 혁신적 역할을 수행할 것으로 예상됩니다.
특히 블랙웰 B200은 방대한 데이터의 복잡한 연산과 고도화된 인공지능 모델 처리에서 초당 수많은 연산을 수행하며, 업계 최고 수준의 효율성과 처리 속도를 자랑합니다. 이는 단순히 새로운 하드웨어 공급을 넘어, AI 연구 및 애플리케이션 개발 시간이 단축됨으로써 기업들이 더욱 높은 생산성을 도모할 수 있는 길을 열어주는 획기적 기회가 될 것입니다.
AI 인프라 확충을 위한 지속 가능한 데이터센터 솔루션
스타랩스는 단순히 고성능 GPU의 도입에 그치는 것이 아니라, 이를 안정적으로 운영할 수 있는 첨단 데이터센터 기술 개발 역시 병행하고 있습니다. 스타랩스가 내세운 데이터센터 구축 방식은 '모듈형 데이터센터'입니다.
모듈형 데이터센터는 고객의 요구 사항에 따라 유연한 확장성과 신속한 공급을 가능하게 하는 차세대 데이터센터 기술로, 효율성과 속도 면에서 기존 방식보다 우수하다는 평을 받고 있습니다. 이를 통해 스타랩스는 고도화된 AI 컴퓨팅 기반 환경을 안정적으로 운용할 수 있을 뿐 아니라, 보다 효율적인 IT 자원 관리 환경을 제공할 수 있는 초석을 다지고 있습니다.
스타랩스의 AI 생태계 전략
스타랩스가 이번 블랙웰 GPU를 기반으로 한 전략을 추진하는 이유는 분명합니다. 국내 다양한 기업들에게 최신 AI 기술 환경을 보다 쉽게 제공함으로써 보다 많은 기업들이 AI 모델 개발 및 운용에 참여할 수 있도록 장벽을 낮추는 데 주력하고 있습니다.
특히 구독형 서비스 형태로 제공되는 이번 GPU 리소스는 중소기업 및 스타트업들에게도 AI 활용 가능성을 대폭 확대해 줄 것으로 보입니다. 이를 통해 국내 AI 인프라 생태계는 한층 성숙해질 것이며, 글로벌 IT 경쟁에서도 경쟁력을 갖춘 국가로 자리매김할 가능성을 높인다는 전략입니다.
2025년, AI 산업의 새로운 지평을 열다
스타랩스가 추진 중인 엔비디아 최신 GPU 블랙웰 B200의 도입은 AI 생태계 혁신과 확장을 위한 중요한 분기점이 될 것입니다. 이번 도입 일정은 2025년 상반기부터 순차적으로 이뤄질 예정인데, 이는 국내 기업들에게 새로운 기술 활용의 혁신적 기회를 제공함과 동시에, 글로벌 IT 경쟁에서 한층 더 앞서가는 발판이 될 것입니다.
스타랩스의 과감한 도전은 한국의 AI 기술 수준을 한 단계 끌어올리고 글로벌 시장에서 더욱 강력한 입지를 다지는 데 기여할 것입니다. 기술 발전을 위한 선도적 노력과 비전을 지닌 스타랩스는 앞으로도 AI 시장을 선도하며 기술 혁신을 주도할 것으로 보입니다.
출처: [스타랩스, 국내 최초 엔비디아 최신 GPU 도입 ··· 2025년 상반기부터][2]