본문 바로가기
IT

AI의 핵심 기술, GPU, NPU, HBM 용어정리

by 프리소어 2024. 5. 7.
반응형

GPU,NPU,HBM

 

 

AI 핵심 기술 용어인 GPU, NPU, HBM은 인공지능 분야에서 매우 중요한 역할을 담당하고 있습니다. 이 기술들은 인공지능 기술의 발전과 함께 더욱 발전하고 있으며, 다양한 분야에서 활용되고 있습니다. 이번 글에서는 이 기술들에 대해 자세히 알아보겠습니다. 각각의 기술이 어떤 역할을 담당하고, 어떤 특징을 가지고 있는지, 그리고 이 기술들이 어떻게 활용되고 있는지에 대해 살펴봅니다.

 

GPU,NPU,HBM

 

 

 

GPU (Graphics Processing Unit)

그래픽 처리를 담당하는 전용 프로세서입니다. 일반적인 컴퓨터의 CPU는 여러 가지 작업을 동시에 처리하기 때문에 그래픽 처리에 적합하지 않습니다. 반면에 GPU는 그래픽 처리에 특화된 프로세서로서, 빠른 속도로 그래픽을 처리할 수 있습니다. 

 

딥러닝은 인공 신경망을 이용하여 대량의 데이터를 학습하고, 이를 통해 예측이나 분류 등의 작업을 수행하는 기술입니다. 딥러닝 모델은 대량의 데이터를 처리해야 하기 때문에, 빠른 처리 속도가 필요합니다. 따라서, 오픈 AI가 거대언어모델(LLM:Large Language Model) 챗GPT를 선보이면서, 대량의 언어 데이터 처리는 필수가 되어 GPU의 중요성도 높아지게 되었습니다.

 

장점

 

GPU는 병렬 처리 능력이 뛰어나기 때문에 대량의 데이터를 빠르게 처리할 수 있습니다. 이러한 특성 덕분에 AI 분야에서 많이 사용되고 있습니다. GPU는 딥러닝 모델을 학습시키는 데에도 많이 사용됩니다. 딥러닝 모델은 대량의 데이터를 처리해야 하기 때문에, 한꺼번에 작업을 수행하는 CPU의 병렬 처리 능력이 매우 중요합니다. 

GPU,NPU,HBM

 

 

 

NPU (Neural Processing Unit)

인공 신경망(인간의 신경망 조직을 하드웨어로 구현)을 처리하기 위한 전용 프로세서입니다. 인공 신경망은 대량의 데이터를 처리하고, 이를 학습하여 결과를 도출하는 과정을 거칩니다. 이러한 과정에서 NPU는 GPU보다 더욱 효율적으로 인공 신경망을 처리할 수 있습니다.

 

 

장점

  • 불필요한 기능을 뺏기 때문에 GPU보다 전력 효율이 뛰어나며, 더욱 빠른 속도로 인공 신경망을 처리할 수 있습니다.
  • GPU보다 크기도 작아 스마트폰, 태블릿 등 모바일 기기에서 많이 사용됩니다. 모바일 기기에서는 전력 효율이 매우 중요하기 때문입니다.
  • 서버를 거치지 않고 기기 자체에서 인공지능 기능을 수행하기 때문에 응답 속도가 빨라 온디바이스 AI칩으로 적합합니다. 이런 이유로 PC, 스마트폰, 드론, 자율주행차 등에 사용되고 있습니다.

GPU,NPU,HBM

 

 

 

HBM (High Bandwidth Memory)

HBM은 고대역폭 메모리로, 데이터를 빠르게 전송할 수 있는 메모리입니다. 대역폭이란 테이터를 전송하는  속도와 처리량, 즉 데이터 운반 능력을 뜻하는 용어로, 데이터를 빠르게 처리해야 하는 AI연산에 필요한 메모리로 각광받고 있습니다. HBM은 D램 메모리칩을 차곡차곡 쌓아 올린 적층구조로 만들어져 한꺼번에 많은 양의 데이터를 전달할 수 있으며, GPU에 가게 위치해 칩과 칩 사이의 거리를 단축시켜 데이터 전달 속도에도 영향을 줍니다.

 

 

장점

  • 기존의 메모리보다 더욱 빠른 속도로 데이터를 전송할 수 있으며, 전력 효율이 뛰어나다는 장점이 있습니다.
  • GPU로 오가는 데이터들이 한꺼번에 많은 양을 전달할 수 있게 넓은 통로를 제공합니다.
  • GPU와 함께 사용되어, 데이터 처리 속도를 더욱 향상 시킬 수 있습니다. 

GPU,NPU,HBM

반응형