일반적으로 인공지능하면 GPU가 꼭 필요한 것으로 생각합니다. 최근 엔비디아의 주가가 급등한 이유이기도 하고요. 그런데 ‘세레브라스’라는 회사가 GPU를 사용하지 않고도 추론 성능이 훨씬 빠른 방법을 개발했다고 하네요. 같이 알아봅시다.
세레브라스에 대하여
세레브라스(Cerebras Systems)는 미국의 AI 반도체 스타트업입니다. 2016년에 설립된 이 회사는 AI 칩 시장에서 엔비디아에 도전하는 기업으로 알려져 있습니다. 이 기업의 특징을 살펴보면 다음과 같습니다.
- AI 칩 개발: 자체 개발한 AI 칩 ‘WSE-3‘가 엔비디아의 H100보다 더 많은 코어와 메모리를 제공한다고 주장합니다.
- 혁신적 기술: 세레브라스 웨이트 스트리밍, 메모리X, 스웜X, 선택 가능한 희소성 등 네 자기신적 기술: 세레브라스 웨이트 스트리밍, 메모리X, 스웜X, 선택 가능한 희소성 등 네 가지 혁신 기술을 보유하고 있습니다.
- 성장세: 2024년 상반기 매출은 1억 3,640만 달러로, 전년 동기 대비 15배 증가했습니다.
- IPO 계획: 나스닥 시장 상장을 추진 중이지만, UAE 기업 G42의 투자에 대한 미국 당국의 검토로 인해 연기될 가능성이 있습니다.
세레브라스는 AI 반도체 시장에서 엔비디아, AMD, 인텔, 구글, 마이크로소프트 등을 경쟁자로 지목하며 빠르게 성장하고 있는 기업입니다.
인공지능에 GPU를 사용하지 않는다고?
세레브라스가 GPU를 사용하지 않고도 훨씬 빠른 추론 능력을 보여주는 서비스를 출시했습니다. 세레브라스 인퍼런스(Cerebras Inference)라는 이 새로운 AI 추론 서비스는 다음과 같은 특징을 가지고 있습니다.
- 속도: 엔비디아 GPU 기반 서비스보다 최대 20배 빠른 추론 속도를 제공합니다.
- 비용 효율성: 100만 토큰당 10센트라는 저렴한 가격으로, 기존 GPU 클라우드 대비 최대 100배 높은 가격 대비 성능을 제공합니다.
- 처리 능력: 대형언어모델(LLM) ‘라마 3.1 8B’에서 초당 1,800 토큰, ‘라마 3.1 70B’에서 초당 450 토큰을 처리할 수 있습니다.
이러한 성능 향상은 세레브라스의 자체 개발 기술인 ‘CS-3′ 시스템과 웨이퍼 스케일 엔진 3(WSE-3) AI 프로세서를 통해 가능해졌습니다. 특히 WSE-3 칩은 엔비디아의 H100 GPU보다 52배 더 많은 코어를 탑재하고 있으며, 메모리 대역폭이 7,000배 넓어 생성 AI의 메모리 대역폭 문제를 해결했습니다.
어떻게 가능한가?
주요 원리를 한번 알아볼까요?
- 웨이퍼 스케일 엔진: WSE-3는 단일 웨이퍼 크기의 칩으로, 21.5cm 정사각형 크기 안에 4조 개의 트랜지스터와 90만 개의 AI 코어를 탑재하고 있습니다. 이는 기존 GPU 대비 훨씬 더 많은 연산 유닛을 제공합니다.
- 대규모 온칩 메모리: WSE-3는 44GB의 SRAM을 칩 내부에 포함하고 있어, 데이터 접근 속도를 크게 향상시킵니다.
- 광대역 메모리 시스템: 21PB(페타바이트)의 메모리 대역폭을 제공하여 대규모 AI 모델 처리에 필요한 데이터를 빠르게 공급할 수 있습니다.
- 단일 논리 메모리 공간: CS-3 시스템은 최대 1.2PB의 메모리를 단일 논리 공간으로 제공하여, 대규모 모델을 파티셔닝이나 리팩토링 없이 처리할 수 있습니다.
- 효율적인 데이터 병렬 처리: CS-3의 독특한 구성으로 인해 데이터 병렬 처리가 가능하여 AI 모델 훈련을 간소화하고 가속화합니다.
이러한 혁신적인 설계와 기술의 조합으로 세레브라스는 GPU 기반 시스템과 비교하여 우수한 성능과 효율성을 달성할 수 있습니다.
앞으로 세레브라스는
세레브라스는 AI 반도체 시장에서 빠르게 성장하고 있습니다. 자체 개발한 WSE-3 칩과 CS-3 시스템을 통해 엔비디아보다 빠르고 저렴한 AI 추론 서비스를 제공하고 있습니다.
최근 나스닥 상장을 추진하며 기업 가치를 높이고 있으며, 매출도 급증하고 있습니다. 엔비디아를 주요 경쟁자로 삼고 시장 점유율 확대를 목표로 하고 있습니다. AI 시장의 급속한 성장과 함께 세레브라스의 혁신적인 기술력이 주목받고 있어, 앞으로 AI 반도체 시장에서 주요 플레이어로 자리매김할 가능성이 크다고 생각합니다.