본문 바로가기
삼성전자

삼성전자의 HBM과 PIM 혁명, 온디바이스 AI 칩, 파운드리 GAA 프로세스

by 인사이드필기장 2025. 12. 30.

인공지능 시대의 특이점이 급속도로 가속화되는 가운데, 삼성전자는 메모리와 논리 사이의 전통적인 경계를 허물고 "하이퍼컨버전스" 컴퓨팅이라는 새로운 패러다임을 구축하고 있습니다. 삼성전자는 단순히 부품을 공급하는 데 그치지 않고, PIM(Processing-in-Memory)과 HBM(High Bandwidth Memory)을 통해 기술 혁명을 주도하며, 수동적인 저장 장치를 산술 연산 처리가 가능한 능동적인 두뇌와 같은 존재로 탈바꿈시키고 있습니다. 동시에 삼성전자는 고효율 온디바이스 AI 칩을 통해 엣지 인텔리전스를 보편화하여 사용자들이 클라우드의 지연 시간에서 벗어나 휴대용 기기에서 실시간 추론을 할 수 있도록 지원하고 있습니다. 이 광범위한 로드맵은 삼성전자가 보유한 3나노미터 게이트 올 어라운드(GAA) 공정 기술을 통해 물리적으로 구현됩니다. 이 제조 기술은 실리콘의 양자 터널링 한계를 극복하여 차세대 엔진에 동력을 공급하는 기적적인 기술입니다. 이 글에서는 삼성전자가 메모리, 로직, 파운드리라는 세 가지 핵심 역량을 융합하여 경쟁사들이 단독으로는 따라 할 수 없는 독보적인 "토탈 AI 솔루션" 생태계를 구축하는 방식을 분석합니다.

삼성전자의 HBM과 PIM 혁명, 온디바이스 AI 칩, 파운드리 GAA 프로세스
삼성전자의 HBM과 PIM 혁명, 온디바이스 AI 칩, 파운드리 GAA 프로세스

HBM과 PIM의 계산 기능 혁명 폰 노이만 병목 현상의 종식

HBM-PIM: 스토리지에 두뇌를 내장하다 삼성전자는 프로세싱인 메모리(PIM) 기술의 상용화를 통해 컴퓨터 아키텍처의 법칙을 근본적으로 바꾸고 있습니다. 이는 수십 년간 컴퓨팅 성능을 괴롭혀온 "폰 노이만 병목 현상"을 극복하기 위한 전략적 행보입니다. 삼성전자는 초고해상도 AI 모델 시대에 프로세서(GPU/NPU)와 메모리(DRAM) 간에 방대한 양의 데이터를 이동시키는 데 소모되는 에너지가 실제 연산에 사용되는 에너지보다 훨씬 많아, 지속 불가능한 지연 시간 문제를 초래한다는 점을 인식했습니다. 이를 해결하기 위해 삼성전자는 프로그래머블 로직 유닛(PCU)을 고대역폭 메모리 칩에 직접 통합하는 데 성공하여, DRAM을 수동적인 데이터 저장소에서 능동적인 연산 참여자로 탈바꿈시켰습니다. 삼성전자는 이를 "HBM-PIM"이라고 부르는데, 이는 음성 인식 및 기계 번역을 위한 행렬 곱셈과 같은 복잡한 AI 알고리즘의 병렬 처리를 메모리 뱅크 내에서 로컬로 수행할 수 있도록 하는 혁신적인 솔루션입니다. 삼성전자는 데이터가 있는 바로 그 위치에서 데이터를 처리함으로써 시스템 에너지 소비를 70% 이상 줄이는 동시에 성능 효율을 두 배로 높일 수 있다고 주장합니다. 이는 GPT-4와 같은 생성형 AI 모델 학습과 관련된 막대한 전기 비용 및 열 관리 문제로 어려움을 겪고 있는 하이퍼스케일 데이터 센터에 중요한 해결책을 제시합니다. 생태계 확장: 모바일 LPDDR-PIM에서 AXDIMM까지 삼성전자는 LPDDR-PIM 및 AXDIMM과 같은 혁신을 통해 고성능 HBM 서버 시장을 넘어 모바일 기기 및 범용 서버까지 이 컴퓨팅 메모리 철학의 적용 범위를 적극적으로 확대하고 있습니다. 삼성전자는 PIM 기술을 LPDDR5X 모바일 메모리에 적용하여 스마트폰 및 웨어러블 기기와 같은 배터리 구동 장치에서 전력 소모 없이 정교한 대규모 언어 모델(LLM)을 온디맨드로 실행할 수 있음을 입증함으로써 업계에 중요한 이정표를 세웠습니다. 또한 삼성전자는 표준 DDR 모듈의 버퍼 칩에 전용 AI 엔진을 통합한 "AXDIMM"(가속 DIMM)이라는 개념을 선도적으로 도입하여 기존 레거시 서버 인프라가 하드웨어 전면 개편이나 고가의 GPU 업그레이드 없이도 AI 가속 기능을 활용할 수 있도록 하고 있습니다. 삼성전자는 하드웨어 혁신이 소프트웨어 호환성 없이는 무의미하다는 점을 인식하고 있으며, 따라서 개발자들이 PyTorch 및 Tensor Flow와 같은 인기 프레임워크에서 PIM 명령어를 쉽게 활용할 수 있도록 "OneCC"라는 표준화된 소프트웨어 개발 키트(SDK)를 적극적으로 개발하고 있습니다. 이러한 포괄적인 생태계 전략을 통해 삼성전자는 단순히 틈새시장 부품을 판매하는 데 그치지 않고, "지능형 메모리"가 미래 모든 컴퓨팅 시스템의 기본 요건이 되는 새로운 글로벌 표준을 구축하고 있습니다.

저전력 고효율 온디바이스 AI 칩 엣지 인텔리전스 혁명

이기종 NPU 아키텍처: 클라우드로부터의 분리 삼성전자는 모바일 애플리케이션 프로세서(AP)를 근본적으로 재설계하여 로컬 추론 기능을 우선시함으로써 클라우드 의존적인 AI에서 독립적인 "온디바이스 AI"로의 결정적인 전환을 이루었습니다. 삼성전자는 최신 엑시노스 칩셋에 탑재된 정교한 이기종 신경 처리 장치(NPU) 아키텍처를 통해 이를 구현합니다. 이 아키텍처는 고성능 코어와 저전력 코어를 물리적으로 분리합니다. 삼성전자는 고성능 코어를 생성형 이미지 편집이나 실시간 코드 자동 완성 같은 순간적인 작업 부하를 처리하도록 설계했으며, 저전력 코어는 음성 인식 및 객체 인식과 같은 상시 작동 감지 작업을 처리하기 위해 백그라운드에서 지속적으로 작동합니다. 삼성전자는 이러한 아키텍처 분할을 통해 AI 성능을 획기적으로 향상할 수 있다고 주장하며, 특히 이전 세대 대비 NPU 성능이 14.7배 향상되었음에도 배터리 소모량은 비례적으로 증가하지 않았다고 밝혔습니다. 삼성전자는 민감한 생체 정보와 행동 데이터를 원격 서버로 전송하는 대신 기기 자체에서 직접 처리함으로써 사용자의 개인정보를 기기 내에 완벽하게 보호하고, 인공지능 시대에 데이터 주권에 대한 소비자들의 불안감을 해소하고 있습니다. 삼성전자는 지능을 높이면서 전력 소비를 줄이는 역설적인 목표를 실현하기 위해 AI 칩 로직에 첨단 "양자화" 기술을 적극적으로 적용하고 있습니다. 삼성전자는 자사의 AI 모델이 저정밀 데이터 형식에서도 작동하도록 최적화하기 위해 표준 32비트 부동소수점 연산에서 고효율 8비트 또는 4비트 정수 연산(INT8/INT4)으로 전환하고 있습니다. 삼성전자는 이러한 정밀도 감소 기술을 활용하여 신경망 모델의 크기를 크게 줄였고, 결과적으로 NPU와 DRAM 간에 주고받아야 하는 데이터양을 획기적으로 줄였습니다. 데이터 이동은 모바일 기기에서 에너지 손실과 발열로 인한 성능 저하의 주요 원인이므로, 삼성전자의 데이터 트래픽 최소화 전략 덕분에 이 칩은 기존 컴퓨팅 방식보다 훨씬 적은 전력으로 수십억 개의 매개변수를 가진 복잡한 대규모 언어 모델(LLM)을 실행할 수 있습니다. 삼성전자는 여기에 "파워 게이팅" 기술을 더해, 특정 추론 주기 동안 비활성화된 NPU의 특정 블록에 대한 전원 공급을 세밀하게 차단함으로써 유휴 상태의 실리콘 공간에 단 1 밀리와트의 에너지도 낭비되지 않도록 합니다. 삼성전자는 표준 모바일 프로세서를 넘어, 현재 기기 내 AI 성능을 저해하는 "메모리 병목 현상" 문제를 해결하기 위해 "Mach-1"이라는 코드명으로 AI 추론 가속기 전용 칩을 개발하고 있습니다. 삼성전자는 대규모 언어 모델(LLM)의 처리 용량을 극도로 줄여 고가의 전력 소모가 많은 HBM 대신 표준 저전력 메모리(LPDDR)를 사용하여 처리할 수 있도록 하는 독특한 아키텍처를 갖춘 특수 칩을 설계했습니다. 삼성전자는 이 혁신을 통해 로봇, 자율 드론, VR 헤드셋을 포함한 엣지 디바이스에서 대규모 변환 모델을 서버급 하드웨어 없이는 불가능하다고 여겨졌던 속도와 효율성으로 로컬에서 실행할 수 있도록 하는 것을 목표로 하고 있습니다. 삼성전자는 이 기술을 인공지능의 '초개인화'의 핵심으로 내세우고 있습니다. 이 칩은 사용자의 특정 습관을 실시간으로 학습하고 적응하여 지연 없이, 사용자와 함께 진화하는 맞춤형 인공지능 에이전트를 효과적으로 구현합니다. 삼성전자는 이러한 혁신을 통해 단순히 인공지능을 소형화하는 것을 넘어, 지능의 경제성을 근본적으로 변화시켜 물리적 세계의 거의 모든 배터리 구동 기기에 '디지털 두뇌'를 내장하는 것을 가능하게 하고 있습니다.

파운드리 GAA 프로세스 및 주문 전략 반도체 패권 확보를 위한 전략

기술적 도약: MBCFET와 양자 한계 극복 삼성전자는 FinFET 구조의 물리적 한계를 극복하기 위한 결정적인 기술적 차별화 요소인 게이트 올 어라운드(GAA) 아키텍처를 적용한 독자적인 "멀티 브리지 채널 FET"(MBCFET)에 미래를 걸고 있습니다. 삼성전자는 트랜지스터 크기가 4나노미터 이하로 작아짐에 따라 채널의 세 면만 덮는 기존의 FinFET 설계로는 전류 흐름을 효과적으로 제어할 수 없게 되어 허용할 수 없는 수준의 전력 누설과 "단채널 효과"가 발생한다는 사실을 일찍이 인식했습니다. 결과적으로 삼성전자는 FinFET 수명 연장이라는 업계 추세를 무시하고 경쟁사들이 실험하던 얇은 "나노와이어" 대신 수직으로 쌓인 넓은 "나노시트"를 활용하여 3나노미터 GAA 노드를 적극적으로 전환했습니다. 삼성전자는 이러한 나노시트 설계가 게이트와 채널 사이의 접촉 면적을 넓혀 더 높은 전류 구동 능력과 낮은 전력 수준에서 우수한 전압 제어를 가능하게 한다고 주장합니다. 삼성전자는 원자 규모의 물리적 현상을 성공적으로 조작함으로써 기존 5nm 공정 대비 전력 소비를 최대 45%까지 줄이고 성능을 23% 향상하는 트랜지스터 아키텍처를 개발했습니다. 이로써 기존 FinFET 구조를 사용하는 경쟁사들이 따라잡기 힘든 뚜렷한 "세대 간 격차"를 만들어냈습니다. 삼성전자는 MBCFET 기술의 고유한 구조적 특성을 활용하여 없는 고객에게 "유효 폭(Weff) 조정"이라고 하는 전례 없는 수준의 설계 유연성을 제공합니다. 트랜지스터 폭이 핀 개수에 따라 고정되어 미세 조정이 어려운 기존의 FinFET 구조와는 달리, 삼성전자는 칩 설계자가 나노시트의 폭을 연속적으로 변화시켜 특정 회로 블록의 전력 및 성능 요구 사항에 정확하게 맞출 수 있도록 지원합니다. 삼성전자는 이러한 기능을 복잡한 시스템온칩(SoC) 최적화에 필수적인 도구로 홍보하고 있는데, SoC에서는 특정 코어가 최대 성능이 있어야 하지만 다른 코어는 극도의 전력 효율성을 우선시해야 하기 때문입니다. 삼성전자는 현재 2세대 3 나노 공정(SF3)의 수율 안정화에 주력하고 있으며, 초기 양산에서 축적된 데이터를 활용하여 불량률 밀도를 획기적으로 낮추고 있습니다. 삼성전자는 이러한 성숙도를 전략적 자산으로 내세우며, 경쟁사들이 2나노미터 공정에서 GAA(Global Axle Assay)를 처음 시도하면서 초기 시행착오를 겪는 동안, 삼성전자는 이미 제조 변수를 해결하여 퀄컴, AMD와 같은 주요 고객에게 안정적인 대량 생산을 위한 "검증된 경로"를 제공하고 있다고 주장합니다. 삼성전자는 "턴키" 주문 전략으로 독점 체제를 타파하고, 단순한 위탁 생산을 넘어 로직 제조, 메모리 공급, 첨단 패키징을 하나의 효율적인 서비스로 통합한 포괄적인 "턴키 솔루션"을 제공하는 차별화된 "주문 전략"을 실행하고 있습니다. 삼성전자는 AI 칩 생산의 병목 현상이 로직 다이 자체뿐만 아니라 I-Cube와 같은 2.5D 패키징 기술을 사용하여 고대역폭 메모리(HBM)와 해당 다이를 복잡하게 통합하는 과정에서도 발생한다고 지적합니다. 삼성전자는 테슬라, 메타, 구글과 같이 자체 AI 가속기를 설계하지만 조율할 공급망 전문 지식이 부족한 초거대 기업 고객에게 이러한 통합 역량을 제공합니다. 삼성전자는 전체 워크플로우를 한 곳에서 처리함으로써 처리 시간을 크게 단축하고 GPU와 메모리 스택 간의 신호 무결성을 최적화할 수 있다고 주장합니다. 나아가 삼성전자는 대만에 공급망이 집중되는 것을 둘러싼 지정학적 불안감을 활용하여 '제2의 공급원' 수요를 적극적으로 공략하고 있습니다. 삼성전자는 텍사스주 테일러에 있는 미국 내 반도체 공장 투자를 통해 안정적이고 지리적으로 분산된 생산 생태계에 대한 구체적인 의지를 보여주며, 공급망을 다변화하고 위험을 완화하고자 하는 글로벌 기술 대기업들에 유일하게 실행할 수 있는 첨단 기술 대안을 제시하고 있습니다.