본문 바로가기

기술 동향

[반도체] 구글의 AI 칩 개발로 데이터 센터를 새로 짓지 않아도

반응형

참고 기사 : WIRED의 2017년 4월 5일 Building an AI Chip Saved Google From Building a Dozen New Data Centers


[요약]

구글이 음성 검색을 도입하면서 데이터 센터에서 처리해야 하는 용량이 급증함. 현재 15개 있는 데이터 센터를 2배로 늘려야 할 상황.

구글은 데이터 센터를 확장하기보다는 TPU라는 딥 러닝에 최적화된 자체 프로세서를 개발하여 도입함. 이 칩은 기존 프로세서보다 30~80배 에너지 효율적임.


대표적인 프로세서 수요자인 구글이 자체적으로 새로운 칩을 만들었다는 점에서 프로세서 시장에 미치는 영향이 큼.

구글은 마이크로소프트가 사용하는 FPGA대신에 ASIC로 만들었고, 인공신경망(Neural Network)에 최적화 되어서 어떤 종류의 인공신경망이든 다 동작할 수 있음.


[참고]

Cardiem20님 블로그 - Neural Network을 이용한 손글씨 인지

슬로우뉴스 - 쉽게 풀어쓴 딥 러닝의 거의 모든 것



[전체 기사 번역]

구글의 AI 칩 개발로 데이터 센터를 새로 짓지 않아도

 구글은 지구상에서 가장 큰 컴퓨터 네트워크를 운용하고 있다. 이 네트워크 시스템은 맞춤제작된 창고 크기의 데이터 센터로, 4개 대륙 15개 장소에 배치되어 있다. 하지만 6년 전 구글이 안드로이드에서 새로운 형태의 음성 인식 기술을 도입하면서, 엔지니어들은 이 네트워크가 충분히 크지 않다고 우려하였다. 만약 전세계에서 안드로이드 폰으로 구글의 새로운 음성검색 기능을 하루에 3분 만이라도 사용한다면, 데이터 센터가 2배로 커져야 된다는 것을 알아차렸다.


 그 당시, 구글은 심층 신경망(Deep Neural Network)*로 음성인식 서비스를 작동시키려고 겨우 시작하는 단계였다. 심층 신경망는 방대한 데이터를 분석하여 특정한 작업을 수행하는 법을 학습하는 복잡한 수학적인 시스템이다. 최근 들어서, 머신러닝의 한 분야인 이 분야가 음성 인식을 넘어 이미지 인식, 기계 번역, 인터넷 검색 등을 빠르게 재창조하고 있다. 이 방법을 도입하면서 구글은 오류율은 25 퍼센트까지 줄어들었다. 하지만 이렇게 바뀌면서 더 많은 성능이 필요하게 되었다.

 구글은 데이터 센터 규모를 2배로 늘리기보다는, TPU라는 자체 컴퓨터 칩을 개발하였다. TPU는 Tensor Processing Unit의 약자로 심층 신경망을 실행할 수 있는 칩이다. TPU 관련 엔지니어 70명 중 한 명인 Norm Jouppi는 "훨씬 더 에너지 효율적인 이 방벙에서 해결책을 찾는 게 타당합니다."라고 말하였다. TPU는 TOPS/Watt 단위로 환산하여 기존의 프로세서보다 30에서 80배 가량 효율적이다.

 인공 신경망 틈새시장

 구글은 이 자체 프로세서를 작년 5월에 처음 공개하였지만 자세한 내용은 거의 공개하지 않았다. 이제서야 Jouppi와 다른 팀원들이 칩이 어떻게 동작하고 특정 문제를 어떻게 해결했는지에 대해 자세히 설명하는 논문을 발표하였다. 구글은 이 칩을 오로지 사용자가 안드로이드 폰에 말로 명령을 순간에 인공 신경망을 작동하는 데에만 사용한다. 이 칩이 사전에 인공 신경망을 훈련하는 데에 쓰이지는 않지만, Jouppi의 설명에 의하면 단지 그것만으로도 여전히 많은 자원을 아낄 수 있다고 설명했다. 말하자면 구글은 이를 통해 데이터 센터 15곳을 추가로 짓지 않아도 되는 것이다.

 또한, 이 칩은 전세계 컴퓨터 프로세서 시장에서 일어난 엄청난 변화를 보여준다. 구글, 페이스북, 마이크로소프트 등의 인터넷 강자 기업이 심층 신경망을 활용한 서비스를 출시할수록, AI 모델을 훈련하고 작동할 때 특화된 칩이 필요하게 된 것이다. 기업 대부분이 GPU를 통해 모델을 훈련하고 있다. GPU는 원래 게임 그래픽이나 다른 고화질 소프트웨어를 렌더링하기 위해 설계된 칩인데, 인공 신경망에서 쓰이는 연산을 계산하는 데에도 적합하다. 또 마이크로소프트나 중국의 인터넷 강자인 바이두 같은 일부 기업은, AI 모델을 실행할 때 구글이 TPU를 사용하는 것처럼 다른 칩을 사용하기도 한다.

 구글과의 차이점은 구글은 자체 칩을 처음부터 끝까지 개발한 것이다.  거대 인터넷 기업이 비용을 절감하고 효율성을 높이는 방법의 일환으로, 서버와 네트워크 장비를 비롯한 자체 데이터 센터 장비의 대부분을 자체적으로 만들게 된 것이다. 이제 모든 각각의 프로세서 단계까지 확장해나가는 방향으로 나아갈 것이다.

 이 과정에서 프로세서 시장에도 큰 변화를 불러일으켰다. 구글이 자체적으로 칩을 만들므로, 인공 신경망을 적용하면서 증가한 연산을 처리하기 위하여 프로세서를 추가로 구입하지 않아도 되게 된다. 구글이 전문화된 영역까지 사내에서 해결한다는 점은, 전세계에서 가장 칩 수요가 많은 편인 페이스북이나 아마존, 마이크로소프트에도 영향을 미칠 것이다. 한편 가장 유명한 인텔을 비롯해 칩 제조사는 다시 시장을 되찾아 오기 위하여 새로운 종류의 프로세서를 만들려고 하고 있다.

특화되면서도 범용성 있는

Jouppi는 현재는 TPU를 만들어낸 프로젝트를 하기 위하여 2013년 말에 구글로 이직하였다. 그 이전에는 구글의 뛰어난 하드웨어 엔지니어가 많이 배출된 곳인 HP나 DEC 같은 여러 회사에서 하드웨어 연구원으로 근무하였다. 그는 처음에는 마이크로소프트도 사용하는 일종의 프로그래밍 가능한 칩인 FPGA**로 인공 신경망을 작동하려고 고려했다고 말하였다. 그 방법으로 진행되지는 않았다. FPGA는 변경가능하므로 필요하다면 다른 기능을 위하여 새로 프로그래밍할 수도 있었지만, 시험해 본 결과 필요한 속도가 나오지 않았다.  그의 설명에 의하면, FPGA에 걸리는 너무 많은 부하가 걸려서 GPU보다 더 빨라질 수 없다고 분석했다고 하였다.

결론적으로 구글에서는 특정 작업만을 위해 제작된 칩인 ASIC***로 만들었다. Jouppi는 구글이 칩을 인공 신경망만을 위해서 설계했기 때문에, 비슷한 제조 기술로 만들어진 다목적 칩보다 15배에서 30배 정도 빠르다고 설명했다. 또한 이 칩은 이미지 인식에 사용되는 컨불루션 신경망부터 음성을 인식하는 데 쓰이는 장단기 기억망까지 어떤 종류의 인공 신경망이든(최소한 오늘날까지 존재하는 모든 종류를) 작동하는 데에 적합하다고 한다. 한 가지 모델에 묶여있지 않다고 한다.

구글은 이미지 인식과 기계번역이나 작년 봄에 바둑을 정복한 알파고까지 다방면에 TPU를 2년 간 잘 활용하였다. 특히 데이터 센터를 짓지 않는 데 기여한 걸 생각하면 나쁘지 않다.


*심층 신경망(Deep Neural Network): 인간의 뇌신경의 작동방식을 본따 만든 인공 신경망 방식 중의 하나로, 기존 다층 신경망의 한계를 뛰어넘은 방법. 2010년에 등장하여 기존 방법론의 성능을 압도적으로 뛰어넘으면서 주목 받음. Deep이란 이름은 신경망 층의 깊이가 깊어서 붙음.

**FPGA(Field Programmable Gate Array): 제조 후에도 설계가 가능한 집적 회로

***ASIC(Application Specific Integrated Circuit, 주문형 반도체): 특정 용도로 설계된 집적 회로


[단어, 숙어]

from scratch: 맨처음부터, 사전 지식 없이

in-house: (회사·조직) 내부의, 사내의

in an effort to v-: -해보려는 노력으로

from the ground up: 밑바닥부터 끝까지, 처음부터 다시 시작하여; 완전히, 철저하게


외국 언론에서 나온 기사를 개인적인 공부 차원에서 번역 및 정리한 자료입니다. 번역 과정에서 실수가 있을 수 있으니 참고해주세요.

반응형