<aside> 💡 뉴로모픽 (Neuro + Morphic): 인간의 신경 구조, 즉 뉴런을 모방한 Hardware Neuron을 병렬로 연결한 것을 의미한다. (Fast Fully-Parallel Processing)
</aside>
DNN (Deep Neural Networks; 깊은 신경망)에 기반을 둔 인공지능 알고리즘은 여러 복잡한 인지 과제에서 인간과 유사하거나 인간을 뛰어넘는 성능을 입증했지만, 이러한 알고리즘을 구현하는 컴퓨팅 시스템의 에너지 효율은 인간 뇌와 비교했을 때 상당한 차이가 존재함.
대규모 병렬처리를 위한 메모리와 연산유닛의 유기적인 연합을 적용함 → 폰 노이만 아키텍처에 비해 더 빠르고 더 적은 전력으로 수행 가능!
신경망은 매우 규칙적인 구조를 가지므로 동일 유형의 연산유닛을 병렬로 사용하여 대규모 병렬 컴퓨팅이 가능하며 종래 병렬 컴퓨팅 아키텍처에서 알려진 아키텍처적 접근방식의 적용이 가능하다.
현재 NPU(뉴럴 프로세싱 유닛, Neural Processing Unit)라 불리는 제품군 대부분 이런 뉴로모픽 기술이 적용됐다.
일반적으로 인공지능 Accelerator (가속기) = 알고리즘의 빠른 처리를 위해 특별히 설계된 하드웨어 혹은 마이크로칩을 의미
현재는 GPU를 사용하여 구현하고 있음 → 연산 가속을 위한 칩이 개발 중
ASIC(주문제작형 반도체) 칩은 TPU(Tensor Processing Unit), NPU(Neural Processing Unit), VPU 등 여러 유형의 아키텍처를 가지며 각기 인공지능 응용을 위한 전용 아키텍처 탑재. 기본적으로 GPU 또는 FPGA보다 더 높은 에너지 효율성을 가지고 고속으로 동작하며 die 크기가 더 작은 것이 특징임.
ASIC은 다양한 높은 연산 특성을 가지는 매우 규칙적인 데이터 처리를 에너지 효율적이고 신속하게 처리하는 것을 첫 번째 목표로 하여 궁극적으로는 CPU와 같은 범용성까지 탑재할 것을 추구하고 있으나 설계에서 제작까지 이르는 개발주기가 매우 길고, 한번 설계된 내부의 구조는 변경이 불가하여 다양한 어플리케이션에 유연하게 대응이 어려우므로 범용성 탑재는 힘들 것으로 보고 있다.
인공지능 연산 가속 측면에서의 FPGA는 고객의 요구에 따라 인공지능 연산에 필요한 칩 내부 구성의 배열을 높은 자유도로 설정할 수 있는 칩을 일컫는다.
일반적으로
1) FPGA는 ASIC보다 설계주기가 짧으며
2) GPU 기반의 하드웨어보다 소비 전력이 낮으나 하드웨어적인 설계 자유도가 높으므로
내부 게이트 카운트의 규모가 커질수록 칩당 가격도 상대적으로 높다.
최근 인공지능 하드웨어 시장에서 FPGA는 에너지 효율성을 추구하는 ASIC과 구현의 유연성을 추구하는 GPU 사이에서 적절한 절충안으로 자리 잡고 있으며, 매우 급변하고 있는 AI 알고리즘에 대응할 수 있는 솔루션으로 주목받고 있다. 또한 FPGA는 ASIC 제작으로 발생할 수 있는 비용 및 기술적 제한을 피하면서 각각의 어플리케이션에 적합한 사용자에 의해 정의된 칩을 구현할 수 있는 장점이 있다.
현재 AI 구현에 사용되는 칩은 메모리 칩과 연산 칩이 구분돼 있다. 메모리 역할에는 D램이, 연산 처리는 CPU, GPU가 한다. 그만큼 사용되는 칩이 많아 가격이 비싸고 전력 소모가 심하다. 또한 이처럼 역할의 구분돼 있어 처리 속도도 느린 편이다.