[4차산업 인공지능56] “인공지능 반도체”… 기술에 대한 전망
AI 반도체의 발전의 필수적인 GPU(Graphics Processing Unit), FPGA(Field Programmable Gate Arrays), ASIC(Application Specific Integrated Circuits), 뉴로모픽 등 AI 반도체 육성을 위해서는 일회성이 아닌 지속적인 추가 투자 필요
[디지털비즈온 김맹근 기자] 최근 인공지능 산업의 발전과 더불어 인공지능 기술의 핵심이라고 할 수 있는 인공지능 반도체(AI 반도체)의 중요성이 점차 증대하고 있어, 이에 대한 현황을 심층적으로 분석할 필요성이 대두되고 있다. 인공지능 반도체 같은 새로운 산업의 기술추격 과정에서는 대개 두 가지가 중요한 쟁점이 되는데, 하나는 기술 변화의 주기에 대한 문제이고, 또 다른 하나는 추격 과정에서 추격의 성과가 무엇인가 하는 것이다. 첫 번째 쟁점은 추격을 성취할 가능성의 문제이고, 두 번째 쟁점은 기술체계의 특성과 기술 환경에 대한 문제이다.
인공지능(AI)이 보다 활발하게 활용되기 위해서는 AI 반도체의 발전이 필수적이며, GPU(Graphics Processing Unit), FPGA(Field Programmable Gate Arrays), ASIC(Application Specific Integrated Circuits), 뉴로모픽 등 다양한 아키텍쳐의 AI 반도체가 활용되고 있다. 여러 빅테크 및 스타트업 업체들이 개발중인 AI 반도체는 통신기기 및 컴퓨터 분야에서 가장 많이 활용되고 있으며, 첨단공정의 반도체 개발비용이 큰 폭으로 증가하고 있어 AI 반도체에 대한 지속적인 투자 지원 필요하다.
AI 반도체의 정의는 인공지능(AI) 서비스를 구현하기 위해 요구되는 데이터 및 알고리즘을 효율적으로 처리할 수 있는 반도체로 정의할 수 있다. CPU와 같은 기존 반도체는 데이터를 순차적으로 처리하는 반면, AI 반도체는 데이터를 동시에 병렬적으로 연산함으로써 동시다발적인 학습과 추론이 가능하다.
AI 반도체는 아키텍처 구조에 따라 GPU, FPGA, ASIC 및 뉴로모픽(Neuromophic) 반도체 등으로 구분 가능하다. GPU는 동시 계산 요구량이 많은 그래픽 영상 처리를 위해 고안된 병렬처리 기반 반도체로, 수천 개의 코어가 탑재되어 대규모 데이터 연산 처리시 CPU 보다 성능이 우수하다. FPGA는 회로 변경이 불가능한 일반 반도체와 달리 용도에 맞게 회로를 재구성할 수 있는 반도체로, 활용 목적에 따라 높은 유연성이 특징이다.
ASIC은 특정 용도를 위해 제작된 주문형 반도체로, 가장 빠른 속도와 높은 에너지 효율이 특징이다. 뉴로모픽(Neuromophic) 반도체는 기존 반도체 구조가 아닌 인간의 뇌(뉴런시냅스 구조)를 모방하여 연산처리, 저장, 통신 기능을 융합한 가장 진화된 형태의 반도체 기술이다.
AI 반도체 시장 동향
Gartner의 전망에 따르면, AI 반도체 시장규모는 ’19년 134.9억 달러에서 ’25년767.7억달러로 증가하면서 연평균 28.2%의 성장률을 보일 전망이다. ’22년 AI 반도체 시장 규모는 444.4억달러 규모로, 2021년의 359.2억달러 대비23.7% 성장할 전망이다. AI 반도체의 응용분야는 통신기기(63.5%), 컴퓨터(26.1%) 분야가 약 90%를 차지하고 있으며, 자동차, 가전 등이 약 10%를 차지한다.
국내외 빅테크 및 스타트업 업체가 AI 반도체를 개발하고 활용 중이다. 아마존(Amazon)은 AI 가속기 ‘Inferentia’를 자체 개발하여 사용 중이며, 구글(Google)도 클라우드 서비스를 위해 TPU5)를 자체개발해 활용 중이다. 빅테크 뿐만 아니라 Cerebras Systems(미), Graphcore(영) 등 여러 팹리스 스타트업도 AI 반도체 개발중이며, 국내에서는 SK텔레콤에서 독립한 사피온코리아가 AI 반도체 ‘SAPEON’을 개발하고 있고, 퓨리오사에이아이는 ‘Warboy’를 개발해 상업화 진행중이다.
결과적으로 AI 반도체가 발전하기 위해서는 하드웨어 성능 뿐만 아니라 소프트웨어 기술과 전력소모 절감이 중요하다. 엔비디아의 GPU는 그래픽 엔진으로 출발하였지만, 쿠다(CUDA6))라는 개발환경을 통해 인공지능 분야에서 쉽고 효율적으로 활용되고 있으며, 구글도 텐서플로(TensorFlow)라는 개발환경을 지원한다.
AI 기술이 발전함에 따라 학습하는데 소비전력도 크게 증가하고 있으며, 전력소모를 줄이는 것이 중요 · 자연어 처리를 위한 GPT-37) 모델의 경우 한번 학습에 약 1.3기가와트시(GWh)를 소비8)하며, 이는 한국 전체에서 약 1분간 소비하는 전력량에 해당한다.
또한, 최첨단 반도체 제조에 비용이 크게 증가하는 추세로, AI 반도체 육성을 위해서는 지속적인 투자가 필요하다. 초미세공정 반도체 설계에는 EDA 등 SW 라이선스 비용 및 반도체 설계자산(IP) 비용이 크게 증가하고 있다. 시장조사업체 IBS에 따르면 28나노 공정 설계비용은 4,000만 달러 수준인데 비해, 3나노 공정설계비용은 최대 5억 9,000만달러에 육박한다.
따라서 시제품 개발하는 MPW 비용도 최선단 공정의 경우 20~40억원 수준으로, 중소기업에게는 큰 자금 부담이다. AI 반도체 육성을 위해서는 일회성이 아닌 지속적인 추가투자가 필요하다.