Search
Duplicate

17차시) AI기반 인지 하드웨어 플랫폼 기술 심화

생성일
2023/01/18 06:42
태그

AI기반 인지 하드웨어 플랫폼 기술 심화

Q) 자율주행 인지를 위한 하드웨어로 GPU와 NPU가 있는데 그 차이는?
→ GPU는 병렬처리에 뛰어난 범용 프로세서로 학습에 많이 쓰이고 있다. NPU는 딥러닝에 특화된 기능을 고속으로 처리하기 위해 만들어진 칩셋이다. NPU는 주로 자율주행차와 같은 디바이스나 엣지에 사용될 것 같다.
학습 내용)
1.
AI기반 인지 하드웨어 플랫폼 개요
2.
AI기반 인지 하드웨어 플랫폼 기술
3.
AI기반 인지를 위한 자율주행 컴퓨터
keyword 1)

가속기

→ AI에 자주 사용되는 연산을 고속, 저전력으로 수행하기 위한 전용 하드웨어
keyword 2)

GEMM

→ General matrix and multiply engine
→ 가속기에서 계산량이 가장 많은 행렬곱을 계산하는 부분
keyword 3)

딥러닝 모델 압축

→ 계산량을 줄이기 위해 딥러닝의 모델 크기를 경량화
→ 노드 푸루닝, 채널 푸루닝, Depthwise Separable Convolution

AI기반 인지 하드웨어 플랫폼 개요

자율주행 컴퓨터

→ 하드웨어 사양 : 실시간 계산 가능해야함, 낮은 전력 소모

칩셋?

가속기 : 딥러닝 계산에 특화
센서 데이터 입출력 인터페이스
GPU, CPU : 전처리, 후처리

서버

가속기
GPU 서버 하드웨어
→ 딥러닝 학습을 위해 필요

AI기반 인지 하드웨어 플랫폼 기술

딥러닝 가속기 기술

하드웨어 설계할 때 딥러닝에 사용되는 연산(누적 연산)들을 가속화하여 하드웨어 안에서 빠른시간안에 적은 전력으로 계산할 수 있게 해주는 기술

딥러닝 가속기

많은 비트 연산 필요 없음
성능 저하 없이 8비트 이하의 연산 수행 가능

딥러닝 가속기 구성

GEMM (General matrix and multiply engine)
딥러닝에서 가장 계산량이 많은 행렬 곱 수행
SRAM
딥뉴럴 네트워크의 가중치, 활성화값 저장
DRAM
딥뉴럴 네트워크의 결과물, 입력 데이터 저장

아키텍쳐 경량화

이론 또는 시뮬레이션을 통해 딥러닝 모델 도출
하드웨어 스펙에 맞게 압축
→ 딥러닝 모델 압축
→ 신경망 가중치와 활성화값을 양자화 → 계산양 줄인다

컴파일러

AI기반 인지를 위한 자율주행 컴퓨터

테슬라 FSD 컴퓨터

NNA (Neural Network Accelerator)
→ 두개의 칩을 서로 다른 파워서플라이를 사용하여 장착 → 동작 오류 대체 가능