‘텐서플로우’보다 5배 향상된 속도 제공
‘매트랩’은 딥러닝 모델을 신속하게 학습, 검증 및 배포하기 위한 워크플로우를 제공한다. ‘매트랩’에서 개발된 딥러닝 모델은 ‘텐서RT’및 ‘GPU 코더’와의 통합을 통해 높은 처리량 및 낮은 지연 시간으로 엔비디아 GPU에서 실행될 수 있다.
‘매트랩’에서 생성된 쿠다(CUDA) 코드는 ‘텐서RT’와 결합돼, 딥러닝 예측에 있어 ‘텐서플로우(TensorFlow)’보다 5배 향상된 성능으로 ‘알렉스넷(Alexnet)’을 배포한다. 또한 ‘VGG-16’ 배포는 1.25배 향상된 성능으로 할 수 있다.
데이비드 리치(David Rich) 매스웍스 이사는 “이미지, 스피치, 센서 및 사물인터넷(IoT) 기술이 빠르게 발전함에 따라 개발팀은 향상된 성능 및 효율성을 제공하는 AI 솔루션을 모색하고 있다”며, “‘매트랩’ 및 엔비디아 GPU를 이용해 딥러닝 모델을 학습시킴으로써 클라우드에서 데이터 센터 및 임베디드 디바이스에 이르는 모든 환경에 걸쳐 실시간 예측을 구현할 수 있을 것”이라고 말했다.
김성수 기자
kimss56@itdaily.kr