[디지털비즈온 김맹근 기자] 고대역폭 메모리 (HBM)은 2013년 발표된 적층형 메모리 규격으로, 고성능 그래픽스 가속기 및 네트워크 장치와 결합하기 위해 사용되는 고성능 램 (RAM) 인터페이스를 의미한다. AI 반도체 시장이 급성장하면서 HBM 기술이 주류로 자리잡고 있다. AI 반도체의 경우 HBM 등의 메모리 반도체에 기반하여 그 성능이 향상됨으로, 두 시장은 함께 동반 성장하고 있는 추세이다. HBM은 현재 최고급 게임용 그래픽 카드 대부분에 사용되는 GDDR 메모리 대비 훨씬 더 높은 대역폭과 낮은 전력 소비를 제공하여 GDDR 대체 용도로 활용할 수 있다.
HBM 규격은 HBM, HBM2, HBM2E, HBM3로 구분하며, HBM3은 대역폭의 급격한 향상으로 개발이 늦어지고 있어 HBM2E가 대체재로 투입되었다. 현재 삼성전자, SK하이닉스 등의 주요 AI 반도체 기업이 HBM의 개발을 주도하고 있다.
삼성전자는 2020년 2월 스택당 최대 8-Hi, 최대 3.2GB/s, 410GB/s, 총 16GB를 지원하는 플래시볼트 HBM2E를 양산하고 있다. SK 하이닉스는 2020년 7월 HBM2E 생산에 이어, 2022년 6월 스택당 최대 12-Hi, 최대 6.4GB/s, 819GB/s, 총 16GB의 HBM3를 양산하고 있다.
엔디비아 (NVIDIA) 데이터센터 GPU ‘A100’은 2TB/s의 메모리 대역폭으로 80GB 의 HBM2E 성능을 제공한다. 인텔 (Intel)은 차세대 데이터 센터에 적용되는 제온 (Xeon) 프로세서의 차세대 서버용 칩 ‘사파이어래피즈 (Sapphire Rapids)’ 제품군에 HBM을 소개하였다.
심층신경망 (DNN)은 입력층과 출력층 사이에 여러 개의 은닉층들로 이루어진 인공신경망 이다. DNN 은 복잡한 비선형 관계들을 모델링 할 수 있으며, 분석 대상의 기본적 요소들에 대한 계층적 구성으로 분석 대상을 표현한다. 기계의 하위 유형인 DNN은 AI 부문에서 가장 주목받는 기술로, 대규모 작업을 병렬로 수행 가능하다는 점에서 인기를 끌고 있다. 심층 신경망 기술은 AI 학습의 정확성을 높일 수 있으나, 기존 컴퓨터로 감당이 어려워 실용화에 어려움이 존재한다.
엔비디아 (NVIDIA)는 대량 병렬 연산 기능을 가진 GPU 활용으로 심층신경망 실용 가능성을 높이고 있다. 만약 심층신경망 응용 기술이 실용화된다면, 향후 AI 반도체가 방대한 계산을 감당할 수 있을 것으로 예측된다.
미국 AI 프로세서 반도체 스타트업 신티언트 (Syntiant)가 딥러닝용 AI반도체 ‘NDP200’을 출시하였다. 딥러닝 및 반도체 설계가 NDP200 칩 솔루션에 결합되면 초저전력, 고성능 심층신경망 프로세서를 실행할 수 있는 것이 특징이다.
이 모델은 1mW 미만에서 정확한 추론으로 시각적 처리를 수행하며, 전 모델 ‘NDP100’ 대비 25배 이상의 처리량이 특징입니다. 궁극적으로는 이전 모델 대비 더 많은 신경 컴퓨팅을 도입하여 디바이스 인텔리전스(device intelligence)를 가능하게 할 것이라는 목표를 밝혔다.
명령어 집합 구조 (ISA)란 소프트웨어와 하드웨어 사이의 약속으로, 여러 명령어를 정의하는 것을 의미 한다. 현재 시스템의 구성 상태를 알 수 있으며, 명령어 실행 시 상태가 어떻게 바뀌는지 확인 가능 하다. AI 반도체 업계는 UC 버클리에서 2010년부터 개발하고 있는 오픈소스 명령어 세트 ‘리스크파이브 (RISC-Ⅴ)’에 주목하고 있다.
리스크파이브 시장 매출 규모는 2021년 4억 달러(약 5,246억원) 미만에서 2024년 10억 달러(약 1조 3,115억원) 규모로 성장할 것으로 예상되고 있습니다. 딜로이트 글로벌 (Deloitte Global)은 리스크파이브 프로세싱 코어 시장 규모는 2022년, 전년 대비 두 배로 성장할 것이라 예상하고 있으며, 2023년에는 해당 시장이 다시 두 배로 급성장할 것이라 예측하였다.
삼성SDS는 리스크 파이브 기반 고성능·저전력 컴퓨팅 솔루션 개발 기업 에스페란토 테크놀로지스 (Esperanto Technologies)와 함께 AI 추론 가속기 성능 테스트 ‘ET-SoC-1’를 진행하였다. ET-SoC-1는 64비트의 리스크파이브 프로세서 코어 1,088개를 탑재한 것이 특징이다.
중국 반도체 기업 또한 리스크파이브에 관심을 보이고 있다. 라이선스 비용을 절감하기 위해 리스크파이브를 채택하는 중국 기업이 많아지고 있는 추세이며, 중국 알리바바 (Alibaba)는 자체 엔지니어가 개발한 리스크파이브 CPU 코어를 사용하고 있다.
신경망처리장치 (NPU)란 자극을 종합하고 판단하여 명령을 내리는 인간의 뇌를 모방해 만든 데이터 처리 장치로, 심층신경망을 사용하는 딥러닝에서 복잡한 행렬 곱셈 연산을 수행한다. NPU는 CPU, GPU 대비 AI 컴퓨팅 및 AI 어플리케이션 구현에 유리하다. 데이터 기반 병렬 컴퓨팅 아키텍처로 동영상 및 이미지와 대용량 멀티미디어 데이터 처리에 탁월하다는 장점 때문이다.
한국전자통신연구원(ETRI)는 AI 핵심 시스템 소프트웨어 딥러닝 컴파일러 ‘네스트(NEST-C)’를 개발하였다. 네스트의 개발로 AI 응용프로그램과 AI 반도체 간 이질성을 해소하여 AI 반도체 개발이 용이해 졌으며, CPU, GPU, NPU 프로세서 모두 호환이 가능하여 범용성이 높다는 장점이 있다.
양자컴퓨팅 (quantum_computing)이란 원자 및 입자의 물리학을 활용해 정교한 병렬 계산을 수행하는 방법으로, 오늘날 컴퓨터 시스템에서 사용되는 단순한 형태의 트랜지스터를 대신하는 것이 특징이다. 양자컴퓨팅이 주목받는 이유는 복잡한 AI 연산을 빠르게 해결 가능하기 때문에 AI 분야의 비약적인 도약이 가능하기 때문이다. 양자컴퓨팅은 고전 이진 컴퓨터가 해결할 수 없는 계산 문제를 잠재적으로 해결 가능하다.
기존 컴퓨터는 존 폰 노이만(John von Neumann)이 제안한 폰노이만형 모델을 기본으로 한다. 전자의 동작을 0과 1로 이루어진 2진수로 바꾸어 연산하고 그 결과를 다시 인간의 인지 체계에 맞게 변경해주는 방식을 사용하는 것이다.
하지만 이러한 방식은 최근에 이르러서는 다음과 같은 3가지 큰 한계를 가지게 되었다. 첫째는 '무어의 법칙'의 한계이다. 무어의 법칙이란 반도체 집적회로 칩 내의 트랜지스터라는 부품의 집적도, 즉 1년 6개월 ~ 2년 정도 마다 반도체 칩 내의 부품 수가 2배로 증가한다는 법칙이다.
양자 컴퓨터의 특성을 구현하기 위해 필요한 몇 가지 기술들이 있다. 양자 컴퓨터는 기존 컴퓨터와 완전히 다른 방식으로 연산하기 때문에 양자 현상을 이용하여 문제를 해결하는 양자 알고리즘이 필수적이다. 대표적인 검색 알고리즘인 ‘Grover Algorithm’과, 소인수분해 알고리즘인 ‘Shor’s Algorithm’이 있다.
양자 컴퓨터의 상용화를 위해서는 더 많은 양자 알고리즘의 개발이 필수적이다. 뿐만 아니라 양자 오류 또한 해결되어야 한다. 원자 단위의 미시 세계에서 일어나는 물리적 현상을 이용하기 때문에, 그 현상을 제대로 컨트롤하기 어렵다는 문제점이 여전히 남아있다.
양자 컴퓨팅 기술은 아직 구체적이지 않으며 실용적인 활용 단계에 이르지 못했다. 그러나 고전 컴퓨팅의 한계가 점점 다가오고, AI와 IoT로 둘러싸이는 세상이 다가올 수록, 이를 처리할 수 있는 고성능 정보처리능력에 대한 니즈는 결국 양자 컴퓨팅 기술 발전을 앞당길 수 밖에 없을 것으로 전망된다.
IBM은 2021년 11월, 127개 큐비트를 탑재한 세계 최대 초전도 양자컴퓨터 이글을 공개하였다. 이글의 막대한 연산 능력은 새로운 분자 및 물질의 모델링 작업, 금융 사기 탐지 등에 활용 가능하다. IBM은 IBM 퀀텀 네트워크(IBM Quantum Network)에 가입한 파트너를 대상으로 이글 프로세서를 설치해 전세계적인 양자 생태계를 구축 및 상용화하겠다는 계획을 밝혔다. 또한 2025년 까지 4,000큐비트의 양자컴퓨터 시스템을 구축할 계획이라고 설명하였다.
중국의 테크 기업 텐센트(Tencent)는 ‘큐비트 주파수 제어 신호 처리 방법, 초전도 양자 칩’ 특허를 출원하였다. 특허를 통해 초전도 양자 비트의 주파수 제어 신호 왜곡을 측정할 수 있다.