글로벌 AI 반도체 시장의 절대 강자 엔비디아가 차세대 칩 플랫폼인 '베라 루빈(Vera Rubin)'의 본격적인 양산 체제에 돌입했다.

젠슨 황 엔비디아 최고경영자(CEO)는 이번 신제품이 기존 모델 대비 5배 강력한 AI 연산 능력을 갖췄다며, 경쟁사들의 추격을 따돌리고 'AI 칩 패권'을 공고히 하겠다는 자신감을 내비쳤다.

5일(현지시간) 미국 라스베이거스에서 개막한 세계 최대 가전·IT 전시회 'CES 2026' 기조연설 무대에 오른 젠슨 황 CEO는 "엔비디아의 차세대 칩 생산이 본궤도에 올랐다"고 공식 선언했다.

황 CEO는 이날 연설에서 올해 하반기 출시 예정인 베라 루빈 플랫폼의 구체적인 제원을 공개했다.

황 CEO에 따르면, 베라 루빈의 플래그십 서버는 72개의 그래픽처리장치(GPU)와 36개의 중앙처리장치(CPU)로 구성된다.

이를 연결한 '포드(Pod)' 구조를 통해 1,000개 이상의 루빈 칩을 유기적으로 결합할 수 있으며, 이 경우 AI 시스템의 기본 단위인 '토큰' 생성 효율이 10배나 향상된다.

이번 발표에서 특히 주목할 점은 엔비디아가 단순한 하드웨어 성능 개선을 넘어 데이터 처리 방식의 혁신을 꾀했다는 것이다.

황 CEO는 "트랜지스터 수는 전작 대비 1.6배 늘어나는 데 그쳤지만, 엔비디아만의 독자적인 데이터 포맷을 적용해 성능을 비약적으로 끌어올렸다"고 설명했다.

이는 구글, AMD 등 빅테크와 반도체 경쟁사들이 자체 칩 개발에 속도를 내며 엔비디아의 아성을 위협하는 상황에서, 기술적 초격차를 유지하려는 전략으로 풀이된다.

특히 챗봇 등 생성형 AI 서비스의 핵심인 '추론' 영역에서 더 빠르고 정확한 응답을 제공하기 위해 '컨텍스트 메모리 스토리지' 기술을 새롭게 도입했다.

이와 함께, 엔비디아는 네트워킹 기술 분야에서도 광학 기술을 접목한 'CPO(Co-Packaged Optics)' 기반의 차세대 스위치를 선보였다.

이는 수천 대의 서버를 하나처럼 연결하는 핵심 기술로, 브로드컴이나 시스코 시스템즈 등 기존 네트워크 장비 강자들과의 직접적인 경쟁을 예고하는 대목이다.

엔비디아 측은 AI 클라우드 기업인 코어위브(CoreWeave)가 베라 루빈 시스템의 첫 고객이 될 것이며, 마이크로소프트, 오라클, 아마존, 알파벳(구글) 등 주요 빅테크 기업들도 도입을 확정했다고 밝혔다.

자율주행차 시장을 겨냥한 소프트웨어 전략도 공개됐다.

황 CEO는 자율주행 소프트웨어 '알파마요(Alpamayo)'를 소개하며, 모델뿐만 아니라 학습에 사용된 데이터까지 모두 오픈소스로 공개하겠다는 파격적인 제안을 내놨다.

황 CEO는 "데이터가 어떻게 생성되었는지 투명하게 공개해야만 완성차 업체들이 해당 모델을 온전히 신뢰하고 평가할 수 있다"고 말했다.

한편, 이날 행사 후 진행된 금융 애널리스트들과의 질의응답에서는 중국 시장과 관련된 이슈도 언급됐다.

황 CEO는 최근 인수한 AI 스타트업 '그록(Groq)'의 기술과 인력이 제품 라인업 확장에 기여할 것이라고 설명했다.

또한, 중국 내에서 구형 모델인 H200 칩에 대한 수요가 여전히 강력하다고 언급하며 "현재 H200의 중국 수출을 위한 라이선스를 신청해 둔 상태이며, 미국 정부를 비롯한 당국의 승인을 기다리고 있다"고 밝혔다.

엔비디아의 이번 발표는 AI 칩 시장의 경쟁이 격화되는 가운데, 하드웨어부터 소프트웨어, 네트워킹까지 아우르는 '풀스택' 전략으로 시장 지배력을 유지하겠다는 의지로 해석된다.