인공지능 하드웨어

From CS Wiki

인공지능 학습에 최적하된 CPU, Memory 등의 하드웨어

중요성[edit | edit source]

AI 기반 시스템, 특히 패턴 인식(예, 머신 비전, 음성 인식)을 수행하는 신경망으로 구현된 기계 학습(ML) 시스템은 많은 계산을 병렬로 수행해야 한다. 이런 계산을 효율적으로 수행하지 못하는 범용 CPU 대신, 수천 개의 코어를 사용해 이미지 병렬 처리에 최적화한 그래픽 처리 장치(GPU)를 종종 사용한다. 그러나 GPU는 AI에 최적화돼 있지 않으며 현재는 AI를 위해 특별히 개발된 차세대 하드웨어를 사용할 수 있게 되었다.

상당수의 AI 구현은 본질적으로 정확한 계산보다는 확률론적 결정에 중점을 두므로 64 비트 프로세서의 정확도는 불필요하고 비트 수가 적은 프로세서가 에너지를 덜 소비하면서 더 빠른 실행이 가능하다. 비교적 간단한 계산을 위한 많은 처리시간과 에너지는 RAM에서 프로세서로 대량의 데이터를 이동하는 것과 관련이 있기 때문에 메모리에서 직접 간단한 계산을 수행할 수 있는 위상 변경 메모리 장치(phase changing memory devices)의 개념도 개발되고 있다 [HPC 2018].

AI 특수 하드웨어 아키텍처(AI-specific hardware architectures)에는 차세대 GPU 외에도 신경망 처리 장치, FPGA(field programmable gate arrays), 응용프로그램 특화 집적 회로 및 뉴로모픽 컴퓨팅(neuromorphic computing) 등이 있다. 이러한 아키텍처 내의 일부 칩은 이미지 인식과 같은 AI의 특정 영역에 중점을 둔다. 기계 학습(ML)을 수행할 때(3장 참조) 모델훈련에 사용한 처리과정은 배치된 모델에서 추론을 실행하는 데 사용한 처리과정과 많이 다를 수 있으며 이는 각 활동에 대해 서로 다른 프로세서(processors)를 고려해야 함을 뜻한다.

예시[edit | edit source]

  • NVIDIA: VOLTA와 같은 다양한 GPU 및 AI 특수 프로세서(AI-specific processors)를 제공한다 [Volta 2019]
  • 구글(Google): 학습 및 추론을 위한 응용프로그램 특화 집적회로(application-specific integrated circuits) 를 개발했다
    • 구글 TPUs(클라우드 텐서 처리 장치) [CloudTPU 2019]는 구글 클라우드와 개인 장비에 AI를 실행하기 위해 설계한 특수제작 ASIC인 에지 TPU(Edge TPU) [Edge TPU 2019] 사용자가 접근할 수 있다.
  • 인텔(Intel): 심층 학습(훈련 및 추론)을 위한 너바나(Nervana) 신경망 프로세서 [Nervana 2019]와 컴퓨터 비전 및 신경망 애플리케이션에서 추론을 위한 모비디우스 미리어드 비전 프로세싱 유닛(Movidius Myriad 2 Vision Processing Unit) [Myriad 2019]을 제공한다.
  • 애플(Apple): 아이폰에 온디바이스 AI(on-device AI)를 위한 바이오닉 칩(Bionic chip)을 포함하고 있다

참고 문헌[edit | edit source]

  • 중소SW기업 SW품질관리 가이드-Ai 시스템 테스트