• 아시아투데이 로고
KAIST, 스스로 그림 그리는 인공지능 반도체 칩 개발

KAIST, 스스로 그림 그리는 인공지능 반도체 칩 개발

기사승인 2020. 04. 06. 18:41
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오톡 링크
  • 주소복사
  • 기사듣기실행 기사듣기중지
  • 글자사이즈
  • 기사프린트
GANPU 칩 활용 예
GANPU 칩을 활용해 머리 모양을 바꾼 모습./제공=KAIST
KAIST(총장 신성철)는 유회준 전기및전자공학부 교수 연구팀이 생성적 적대 신경망(GAN)을 저전력·효율적으로 처리하는 인공지능(AI) 반도체를 개발했다고 6일 밝혔다.

연구팀이 개발한 인공지능 반도체는 다중-심층 신경망을 처리할 수 있고 이를 저전력의 모바일 기기에서도 학습할 수 있다. 연구팀은 이번 반도체 칩 개발을 통해 이미지 합성, 스타일 변환, 손상 이미지 복원 등의 생성형 인공지능 기술을 모바일 기기에서 구현하는 데 성공했다.

강상훈 박사과정이 1 저자로 참여한 이번 연구결과는 지난 2월 17일 3000여 명 반도체 연구자들이 미국 샌프란시스코에 모여 개최한 국제고체회로설계학회(ISSCC)에서 발표됐다.

기존에 많이 연구된 인공지능 기술인 분류형 모델(Discriminative Model)은 주어진 질문에 답을 하도록 학습된 인공지능 모델로 물체 인식 및 추적, 음성인식, 얼굴인식 등에 활용된다.

이와 달리 생성적 적대 신경망(GAN)은 새로운 이미지를 생성·재생성할 수 있어 이미지 스타일 변환, 영상 합성, 손상된 이미지 복원 등 광범위한 분야에 활용된다. 또 모바일 기기의 다양한 응용 프로그램(영상·이미지 내 사용자의 얼굴 합성)에도 사용돼 학계뿐만 아니라 산업계에서도 주목 받고 있다.

그러나 생성적 적대 신경망은 기존의 딥러닝 네트워크와는 달리 여러 개의 심층 신경망으로 이루어진 구조로, 개별 심층 신경망마다 다른 요구 조건으로 최적화된 가속을 하는 것이 어렵다.

또 고해상도 이미지를 생성하기 위해 기존 심층 신경망 모델보다 수십 배 많은 연산량을 요구한다. 즉, 적대적 생성 신경망은 연산 능력이 제한적이고 사용되는 메모리가 작은 모바일 장치(스마트폰, 태블릿 등)에서는 소프트웨어만으로 구현할 수 없었다.

최근 모바일 기기에서 인공지능을 구현하기 위해 다양한 가속기 개발이 이뤄지고 있지만, 기존 연구들은 추론 단계만 지원하거나 단일-심층 신경망 학습에 한정돼 있다.

연구팀은 단일-심층 신경망뿐만 아니라 생성적 적대 신경망과 같은 다중-심층 신경망을 처리할 수 있으면서 모바일에서 학습도 가능한 인공지능 반도체 GANPU(Generative Adversarial Networks Processing Unit)를 개발해 모바일 장치의 인공지능 활용범위를 넓혔다.

연구팀이 개발한 인공지능 반도체는 서버로 데이터를 보내지 않고 모바일 장치 내에서 생성적 적대 신경망(GAN)을 스스로 학습할 수 있어 사생활을 보호를 가능케 하는 프로세서라는 점에서 그 활용도가 기대된다. 그외 다양한 기술을 사용함으로써 연구팀의 GANPU는 기존 최고 성능을 보이던 심층 신경망 학습 반도체 대비 4.8배 증가한 에너지효율을 달성했다.

연구팀은 GANPU의 활용 예시로 태블릿 카메라로 찍은 사진을 사용자가 직접 수정할 수 있는 응용 기술을 시연했다. 사진상의 얼굴에서 머리·안경·눈썹 등 17가지 특징에 대해 추가·삭제 및 수정사항을 입력하면 GANPU가 실시간으로 이를 자동으로 완성해 보여 주는 얼굴 수정 시스템을 개발했다.

유회준 교수는 “이번 연구는 하나의 칩에서 추론만이 아니라 학습까지 모두 가능해 여러 개의 딥러닝 네트워크를 동시에 지원하는 인공지능 반도체를 개발했다는 점에서 의미가 크다”며 “모바일 기기에서의 인공지능 활용 영역을 크게 넓혀 향후 이미지 스타일 변환, 영상 합성, 이미지 복원 등 GAN과 관련된 애플리케이션에 다양하게 응용될 것으로 기대된다”고 말했다.

특히 GANPU의 초기 연구는 삼성전자가 주최하는 과학기술 분야 논문대회 휴먼테크논문대상에서 발표돼 Circuit Design 부문에서 금상을 받기도 했다.
후원하기 기사제보

ⓒ아시아투데이, 무단전재 및 재배포 금지


댓글