미디어센터 media center

보도자료AI EXPO KOREA 2022. 3.16(수) - 18(금)

[AI EXPO KOREA 2019 미리보기] 한국전자통신연구원(ETRI)

과학기술정보통신부 산하 국첵연구기관인 한국전자통신연구원 SW콘텐츠연구소에서는 (대표 김명준, https://www.etri.re.kr/)은 오는 7월 17일(수)부터 19일(금)까지 서울 Coex 에서 열리는 ‘AI EXPO KOREA 2019’에 참가해 ‘고속 딥러닝 HPC 시스템 기술’을 선보인다.

 

 ‘고속 딥러닝 HPC 시스템 기술’은 대규모 데이터를 처리해야 하는 이미지 인식, 음성 인식을 위한 딥러닝 모델을 기존의 딥러닝 프레임워크를 그대로 이용하면서도 더 빠르게 고속으로 학습시킬 수 있도록 HW와 SW를 함께 구현한 딥러닝 분산 컴퓨팅 플랫폼 기술이다.

 

 

그림 1. 고속 딥러닝 HPC 시스템의 개념도

 

 딥러닝 학습할 데이터양이 많거나 모델이 커서 컴퓨터 한 대로 학습하기 어려운 경우 여러 컴퓨터가 나누어 학습을 하게 되는데 이 때 분산 컴퓨팅 기술이 필요하다. 기존의 분산 컴퓨팅 기술로 딥러닝 모델을 학습하기에는 분산 컴퓨터가 늘어날수록 통신 오버헤드가 커지는 문제가 있었는데, ETRI가 개발한 분산 컴퓨팅 기술은 오랜기간 동안 연구해 온 공유 메모리 기술을 딥러닝 모델 분산 학습에 최적화 시킴으로써 통신 오버헤드를 획기적으로 줄일 수 있게 되었다. 딥러닝 프레임워크(TensorFLow, Caffe)를 이용하여 개발된 모델을 ETRI 분산 컴퓨팅 기술로 학습할 경우 모델에 따라 최소 1.3배에서 4.2배까지 빠르게 학습할 수 있고, N대의 컴퓨터를 이용할 경우 N*0.95(예, 8대로 분산 훈련할 경우, 7.6배 빨리 학습할 수 있음)배의 확장 효율을 보이며 컴퓨터의 수가 늘어나더라도 확장효율성은 90%를 능가한다.

  ETRI 딥러닝 분산 컴퓨팅 기술은 HW와 SW로 모두 구현되었는데, 그림1은 HW로 구현된 공유메모리 장치 ETRI MemBoxTM이다. ETRI MemBoxTM은 여러 호스트에서 동일한 메커니즘으로 접근할 수 있는 공통 메모리를 제공한다. 기존의 스위치 네트워크를 사용 시에 각 컴퓨터(CPU)에서의 연산 결과를 다른 컴퓨터에 전파하기 위해서 컴퓨터마다 n번의 데이터 통신 즉, 총 n2의 통신을 필요로 하는 반면, MemBox가 설치된 네트워크에서는 MemBox Adapter가 설치된 컴퓨터(CPU)에서 일회성 접근만 수행하면 되므로 총 통신횟수를 n으로 감소시킬 수 있다. 이 기술은 대규모 딥러닝 시스템, 빅데이터 처리 등 대량의 데이터 교환이 필요한 시스템에 적용할 수 있다.

 

 

그림 2. ETRI MemBoxTM: HW로 구현된 공유메모리 장치

 

 한편, SW기술로 구현된 분산 컴퓨팅 플랫폼은 ETRI Soft Memory Box라는 공유메모리를 사용하여 Tensorflow와 Caffe 딥러닝 모델의 학습 속도를 빠르게 향상시키는 분산 컴퓨팅 기술이다. TensorFlow 모델의 학습 속도를 비교한 한 경우, 기존 기술로는 17분 30초에 종료하던 학습이 ETRI 분산 컴퓨팅 기술을 적용한 경우 8분 58초만에 종료되어 2배 빠른 처리 성능을 보였다.

 

 

그림 3. ETRI-Soft Memory Box : 딥러닝 분산 컴퓨팅 기술

 

 또한, ETRI DL-Dashboard라는 딥러닝 모델을 개발하고, 학습하고, 인퍼런스할 수 있도록 모델 개발 전주기를 지원하는 사용자 개발 환경을 선보인다. ETRI DL_Dashboard를 이용하면 딥러닝 모델을 처음 배우는 개발자는 직관적인 UI도구로 각종 샘플 모델을 참조하여 쉽게 모델 개발을 시작할 수 있고, 딥러닝 모델 개발에 익숙한 중급/고급 개발자는 분산 처리 기능과 모델 비교 기능을 이용해 빠르게 최적의 학습 모델을 찾아낼 수 있다. 이 기술은 ETRI 분산 컴퓨팅 기술이 적용된 시스템과 기존의 시스템에 모두 적용될 수 있다.

 

 

그림 4. ETRI DL-Dashboard : 사용자 인터페이스 예

 

 데이터센터를 이미 보유한 기업에서는 ETRI가 선보이는 기술을 온프레미스 방식으로 고속 딥러닝 시스템을 구축함으로써 자사 딥러닝/인공지능 모델을 빠르게 개발할 수 있다. 또한 클라우드 서비스 기업에서는 기존의 서버 클러스터에 고속 딥러닝 시스템을 구축하여 타 클라우드 서비스 기업과는 차별화된 AI 클라우드 서비스를 제공할 수 있다.

 

* 참고 : YTN 사이언스 “하이테크 코리아, 연구소를 가다 1화” (2019년 5월 9일 방송분), 30분 54초~끝.

https://science.ytn.co.kr/program/program_view.php?s_mcd=1338&s_hcd=&key=201905100846408267&page=1.

 

그림 5. 한국전자통신연구원 전경

 

한국전자통신연구원은 과학기술정보통신부 산하 국책연구기관으로 지난 40여년 간 전전자교환기, CDMA, WIRBO, 지상파 DMB등 국가 IT 인프라 구축에 선도적인 역할을 수행해 왔으며, 4차산업혁명 시대를 맞아 글로벌 기술경쟁력을 확보하여 국가 혁신성장을 이끌기 위해 초연결 지능화 인프라 기술 개발에 주력하고 있다. 본 연구는 2016년도 과학기술정보통신부의 정보통신·방송 기술개발사업의 일환(대규모 딥러닝 고속 처리를 위한 HPC 시스템 개발, 2016~2019)으로 수행되었다.