‘구글 I/O 2017’서 ‘AI 퍼스트’로의 전환 강조…최대 11.5 페타플롭스 지원하는 ‘TPU 팟’ 공개

▲ 선다 피차이 구글 CEO

[아이티데일리] 구글이 미국 캘리포니아주에서 개최된 자사 연간 최대 개발자 컨퍼런스 ‘구글 I/O 2017(Google I/O 2017)’에서 인공지능(AI)과 머신러닝에 대한 연구 결과를 발표했다.

순다 피차이 구글 CEO는 기조연설을 통해 “우리는 컴퓨팅의 새로운 전환, 즉 모바일 퍼스트(mobile-first)에서 AI 퍼스트(AI-first)로의 전환을 목격하고 있다”고 강조했다. AI 퍼스트로의 전환은 보다 자연스럽게 기술과 상호작용할 수 있는 제품을 요구한다는 설명이다.

‘구글 어시스턴트(Google Assistant)’는 이러한 기술의 발전이 실제로 활용되고 있는 예시다. ‘구글 홈(Google Home)’은 서로 다른 목소리를 구분해 각자에게 개인적인 경험을 제공하며, ‘구글 렌즈(Google Lens)’는 영상 기반의 컴퓨팅 능력과 결합해 사용자의 의도를 이해하고 적절한 피드백을 제공한다. 이는 별도의 조작이 필요한 기존 스마트폰 앱보다 훨씬 직관적이다.

이는 구글의 검색 기능에도 명백히 드러난다. 구글의 검색 기능은 텍스트와 웹페이지를 이해하는 역량에 기반하고 있지만, 딥러닝 분야의 발전 덕분에 구글은 텍스트만이 아닌 이미지, 사진, 영상, 음성을 이전과 다른 방식으로 제공할 수 있게 됐다.

이 같은 AI 퍼스트로의 전환에 구글 측은 발전이 모두에게 더 나은 결과를 가져와야 한다는 점을 강조하며, 구글이 제공하는 ‘구글.ai(Google.ai)’를 강조했다. ‘구글.ai’는 AI와 관련된 구글의 모든 노력을 통합해 연구원, 개발자, 기업들의 장벽을 낮추고 업무를 가속화 할 수 있도록 지원해 보다 모든 사람에게 도움이 될 수 있도록 하겠다는 방침이다.

순다 피차이 CEO는 “구글의 창립 미션은 정보를 누구나 접근 가능하고 유용하게 하자는 것이고, 이는 아직도 시의성이 높다”며, “구글은 정보에 대한 접근성을 모두에게 차별없이 제공함으로써 많은 사람을 도울 수 있다고 믿는다. 이러한 노력의 일환으로 수 주 내로 구글 검색 기능에 새로운 기능을 출시한다”고 말했다.


최대 180 테라플롭스 제공하는 차세대 TPU 공개

이어서 제프 딘(Jeffrey Dean) 구글 시니어 펠로우와 우르스 회즐(Urs Holzle) 구글 클라우드 인프라스트럭처 선임부사장은 보다 신속한 머신러닝을 지원하기 위한 ‘구글 차세대 TPU(Tensor Processing Unit)를 공개했다. 구글 클라우드에 차세대 TPU를 도입함으로써 머신러닝에 소요되는 시간을 단축할 수 있게 됐다는 설명이다.

지난 몇 년에 걸친 머신러닝의 발전상은 이미 잘 알려져 있다. 구글은 신경망 네트워크를 통해 구글 번역의 품질을 향상시키고 검색결과의 순위를 선정해 왔으며, 딥마인드의 ‘알파고’는 세계 최고의 바둑 기사 중 한 명인 이세돌을 꺾음으로써 일대 파란을 몰고 왔다.

이 같은 머신러닝의 성과를 뒷받침하기 위해서는 머신러닝 모델을 학습하고 실행할 수 있는 대규모 컴퓨팅 작업이 필수적이다. 이에 구글은 TPU를 개발함으로써 대규모 컴퓨팅 작업을 수행하고자 했다. 그러나 지난해 I/O에서 발표된 1세대 TPU는 별도의 머신러닝 모델을 학습하고 CPU와 GPU에서 몇 주에 걸쳐 정확성을 높이기 위한 컴퓨팅 작업을 해야 했다.

▲ 차세대 TPU 64개가 장착된 ‘TPU 팟’은 머신러닝 속도가 최대 11.5 페타플롭스에 달한다.

그러나 올해 I/O에서 발표된 차세대 TPU는 병목현상을 해결하고 전반적인 성능을 극대화할 수 있는 새로운 머신러닝 시스템으로 개발됐다.

차세대 TPU는 그 자체만으로도 최대 180 테라플롭스에 달하는 부동소수점 연산 성능을 제공하며, 각 TPU에는 맞춤형 고속 네트워크가 포함돼 있어 'TPU 팟(TPU pod)‘이라는 머신러닝 슈퍼컴퓨터를 구성하면 최대 11.5 페타플롭스의 연산 성능을 제공한다. 차세대 TPU 64개로 구성된 ’TPU 팟‘을 통해 대규모 컴퓨팅 작업을 신속하게 처리한다는 것이다.

구글 측이 밝힌 바에 따르면, 기존에 최고급 상용 GPU 32개를 사용해 하루가 꼬박 걸리는 데이터도 ‘TPU 팟’의 1/8만 사용해면 반나절만에 학습이 완료된다. 시간상으로만 봐도 많은 성능 차이가 난다는 의미다.

특히 새로운 TPU를 장착한 클라우드 TPU는 형태에 구애받지 않고 모든 가상머신에 연결할 수 있으며, 스카이레이크 CPU·엔비디아 GPU와 같은 유형의 하드웨어와도 함께 사용할 수 있다. 오픈소스 머신러닝 프레임워크인 텐서플로(TensorFlow)로 프로그래밍 할 수 있으며, 최소한의 코드 변경으로도 머신러닝 모델을 학습시킬 수 있는 고급 API도 도입할 예정이다.

구글 측은 또한 학계 연구원들이 사용할 수 있는 텐서플로 리서치 클라우드(TensorFlow Research Cloud)에 대해서도 언급했다. 머신러닝이 발전할 수 있었던 것은 상당 부분 전 세계 산업계 및 학계 연구원들의 개방형 협업 덕분이며, 구글은 되도록 많은 연구원들을 지원하고 개방형 머신러닝 연구를 가속화하겠다는 설명이다.

특히 뛰어난 아이디어가 있더라도 자금 문제로 머신러닝이 가능한 플랫폼을 도입하기 어려운 사람을 위해, 머신러닝 연구원들이 ‘텐서플로 리서치 클라우드’를 통해 ‘클라우드 TPU’ 1,000개를 무료로 사용할 수 있도록 지원할 예정이다. 향상된 성능의 머신러닝 모델을 사용하고자 하는 사람은 곧 선보일 ‘클라우드 TPU 알파(Cloud TPU Alpha)’에서 정보를 찾을 수 있다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지