마이크로 소프트 "실시간 AI" 목표 프로젝트 Brainwave 시동


구글은 인공 지능(AI) 영역에서 우위를 선점하기 위한, 전용 프로세서 "Tensor Processing Unit(TPU)"를 개발했다. TPU는 딥 러닝의 알고리즘에 특화된 기능을 가진 칩이다. 구글은 또한 구글 클라우드에서 동작하는 "Cloud TPU"라는 보드를 개발하고, 외부 기업들이 이용가능하게 하려고 하고있다.



그리고 이제, 마이크로 소프트는 Project Brainwave라는 프로젝트를 발표하고, 빠르고 효율적인 딥 러닝이 회사의 데이터 센터에서 실시하는 구조를 구축하려고 하고있다.


마이크로 소프트의 접근 방식은 구글의 그것과는 조금 다르다. 특정 알고리즘에 특화 한 전용 프로세서를 개발하는 것이 아니라 재 프로그래밍 가능한 FPGA(field-programable gate arrays)라는 종류의 칩을 사용하는 것이다.




마이크로 소프트는 이번의 프로젝트에, 인텔이 2015년에 인수 한 알테라가 제조하는 FPGA 칩을 사용한다. 회사의 선임 엔지니어 인 Doug Burger는 "전용 칩을 이용한 딥 러닝보다 유연한 시스템 구축을 가능하게 한다"고 말했다. 딥 러닝 영역에서 거의 매달 새로운 진화가 일어나고 있으며, 유연성은 매우 중요하다.


Project Brainwave는 캘리포니아 주 쿠퍼티노에서 개최중인 "Hot Chips 컨퍼런스"의 회장에서 발표되었다. "우리의 목표는 대규모로 구현할 수 있고, 혁신성이 높고, 광범위하게 적용 할 수 있는 솔루션"이라고 Burger는 말했다.



마이크로 소프트의 Project Brainwave는 구글의 TensorFlow나 페이스북의 Caffe2, 심지어 자사의 CNTK 등 여러 딥 러닝의 프레임 워크를 지원하게 된다고 한다.


- 혁신의 열쇠는 "FPGA"


FPGA는 각종 애플리케이션에 유연한 대응이 가능하지만, 성능면에서는 과제도 있다. 그러나 Burger에 따르면 마이크로 소프트는 FPGA에 미세 조정을 가한 결과, 전용 칩에 필적하고, 때로는 보다 높은 성능을 내는 제품으로 완성하는데 성공했다고 한다.




Project Brainwave가 강점을 발휘하는 영역을 마이크로 소프트는 "실시간 AI"라고 정의하고, 특히 딥 러닝 알고리즘의 실행면에서 강점을 갖는다고 한다. 현재는 Project Brainwave은 마이크로 소프트 내부 AI 서비스에서만 사용 가능하지만, 장래적으로는 회사의 클라우드 서비스를 통해 외부 기업에 방출 할 가능성도 있다.



마이크로 소프트는 보안 및 검색 엔진 Bing을 위한 FPGA의 연구를 시작하고, 몇 년에 걸쳐 조사를 거듭해왔다. 이 회사는 현재 세계 최대의 규모에 FPGA를 운용하고 있다고 한다. Project Brainwave 팀은 지금으로부터 약 1년 전에 FPGA의 인프라를 최신의 딥 러닝 기술에 적용시켜 나가는 임무를 부여한다.


"우리 팀은 FPGA를 거대한 스케일로 실행 중"이라고 Burger는 말했다. "이 기술은 Azure 클라우드를 통해, 세계에서 운용 가능하게 된다"


기계 학습의 발전형 인 딥 러닝은, 기술 산업 분야의 모든 영역으로 확대하기 시작했다. 딥 러닝은 언어 인식이나 화상 인식, 번역 등의 분야에 큰 발전을 가져 오려고하고 있다. 이 분야의 기반을 지탱하는 하드웨어 인프라의 발달이 미래의 발전을 좌우한다.


이 분야에서 NVIDIA의 GPU가 시장을 리드하고, 동사의 주가는 지난 1년에 3배 가까운 상승을 이루었다. 그러나 구글을 비롯한 다양한 신생 기업들도 새로운 제품을 선 보이려하고 있다.