TECH M
TECH M
전용 프로세서와 모바일 인공지능 시대
[테크M= 이석원 벤처스퀘어 편집장]
인공지능(AI) 바람을 타고 AI 프로세서가 몰려온다. 중국 화웨이는 유럽 최대 가전 전시회인 IFA 2017 기간 중 AI 전용 프로세서인 NPU(Neural network Processing Unit)를 내장한 SoC '기린 970(Kirin 970)'을 발표했다.
인공지능 프로세서 발표한 화웨이
기린 970은 화웨이 산하 기업인 하이실리콘테크놀러지가 만든 것. CPU는 ARM '코어텍스-A73'과 '코어텍스-A53', 두 개의 쿼드코어로 이뤄져 있다. 여기에 그래픽 기능을 맡은 GPU로 ‘말리-G72' 12코어를 곁들였다. 10㎚ 제조공정을 이용해 만든 제품으로, 화웨이 측에 따르면 이전 버전인 기린 960보다 다이 크기는 40% 줄었지만 전력 효율은 20% 끌어올렸다.
GPU도 이전 모델보다 성능은 20%, 전력 효율은 50% 높였다. 또 2160p, 60프레임으로 H.264/HEVC 디코딩을 할 수 있다. LTE 모뎀은 카테고리18을 지원한다. 이 제품의 가장 큰 특징은 SoC 내부에 AI 전용 프로세서인 NPU를 탑재한 것. “AI는 클라우드에만 있는 게 아니라 항상 당신 곁에 있다”는 것이다.
보통 AI 서비스는 빠른 연산 처리는 클라우드 기반으로 이뤄진다. 하지만 클라우드에서 처리하는 탓에 반응속도가 안 좋거나 보안면에서 불안 요인이 발생할 가능성이 있다.
NPU는 딥러닝의 추론 과정을 클라우드가 아닌 모바일 기기가 단독으로 처리할 수 있게 딥러닝 처리 전용 프로세서로 만든 것이다. NPU는 CPU와 견줘 AI 연산은 25배, 전력 효율은 50배에 달한다고 한다. NPU의 연산 성능은 FP16 기준 1.92TFLOPS다.
화웨이는 기린 970을 모바일 AI 구현을 위한 오픈 플랫폼으로 삼을 계획이다. 이를 위해 개발자에게 애플리케이션 프로그래밍 인터페이스(API)도 배포한다.
딥러닝 개발 프레임워크는 텐서플로와 텐서플로 라이트, 카페(Caffe)와 카페2를 지원한다. 기린 970은 화웨이가 10월 16일 발표할 하이엔드 스마트폰인 ‘메이트10’에 처음 탑재된다.
인텔도 동전 크기 딥러닝 프로세서
인텔 역시 지난 8월 말 딥러닝 처리를 위한 전용 프로세서, 미리아드 X를 발표했다. 인텔 산하 모비디우스가 개발한 것으로, VPN(Vision Processing Unit)이란 프로세서에 영상 처리뿐 아니라 신경망 처리가 가능하게 설계했다. 크기는 8.7×8.5㎜에 불과하다.
미리아드 X는 내부에 SHAVE(Streaming Hybrid Architecture Vector Engine) 프로세서 16개를 갖추고 있다. 이 프로세서는 프로그래밍을 할 수 있는 128비트 VLIW 벡터 유닛으로 이뤄져 있다.
DNN, 심층신경망 추론 성능의 경우 1테라플롭스로 빠르고 저전력으로 실행할 수 있다. 또 영상 가속 기능과 내부 대역폭 400㎇/초에 이르는 온칩 메모리 아키텍처를 채택, 대기시간을 최대한 아끼고 소비전력은 억제하는 효과를 기대할 수 있다.
이 제품은 사진과 동영상 여러 개를 동시 실행할 수 있고 16레인을 이용해 HD해상도 RGB 카메라 8대를 연결, 1초에 7억 화소 신호처리를 기대할 수 있다.
인코더는 H.264와 H.265로 30프레임, 모션JPEG로는 60프레임, 4K 해상도를 지원한다.
내부에는 USB 3.1과 PCI익스프레스 인터페이스도 갖추고 있다. 미리아드X는 메모리 포함 여부에 따라 2가지 버전을 준비할 예정이라고 한다.
모비디우스는 지난 7월 USB 타입으로 연결할 수 있는 스틱형 딥러닝 처리 가속기인 모비디우스 뉴럴 컴퓨트 스틱을 내놓기도 했다.
이 제품 역시 영상 처리나 인공지능 관련 기술을 로컬 환경에서 손쉽게 처리, 개발할 수 있게 지원하기 위한 것이다.
이 제품은 모비디우스가 개발한 전용칩인 미리아드2 비전 프로세싱 유닛을 탑재하고 있다. 소비전력 1W 상태에서 100기가플롭스 딥러닝 처리를 할 수 있다. 외부 인터페이스는 USB 3.0을 지원하며 라이브러리는 카페를 이용할 수 있다.
이 제품에 들어간 미리아드 2는 동전보다 작은 딥러닝 전용 칩이다. 실제로 DJI의 스파크 드론에서 실시간으로 이미지를 처리, 손짓만을 이용한 셀카 비행을 하는 역할을 맡고 있다. 가격은 79달러다.
드론 활용 예에서 알 수 있듯 이들 프로세서가 AI 개발을 위한 신경망 훈련을 빠르게 할 수 있게 돕고 기기 자체에서 이미지를 처리하는 등 다방면에 활용될 수 있다.
인텔은 AI 전용 프로세서가 기존 칩보다 10배 가량의 신경망 처리를 기대할 수 있다고 밝히고 있다. 활용 기대 분야는 로봇이나 자율비행 드론, 감시 카메라, 가상현실이나 증강현실 기기다.
구글도 머신 인텔리전스... 엣지컴퓨팅 시대 예고
인텔은 지난해 9월 모비디우스를 인수했지만 그보다 먼저 AI 전용 프로세서에 대한 관심을 나타낸 기업이 있다. 바로 구글이다.
구글은 차세대 스마트폰에 필요한 기술로 머신 인텔리전스를 꼽고 지난해 1월 모비디우스와 제휴를 발표한 바 있다.
당시 구글은 제휴를 발표하면서 컴퓨팅 자체가 연결을 통해 더 똑똑해지고 있고 덕분에 단말도 주변 세상을 이해할 수 있게 됐다고 밝혔다.
마치 사람이 바로 앞에 뭘 보고 있는지 아는 것처럼 혹은 뭘 얘기하고 있는지 의미를 아는 것처럼 말이다. 이런 관계를 이해하려면 인간의 두뇌 같은 구조가 필요하다는 것이다. 이런 이유로 필요한 게 딥러닝 기술을 지원하면서 저전력을 동시에 지원하는 AI 전용 프로세서라는 얘기다.
AI 전용 프로세서는 예전에는 마치 데이터센터에서나 쓰이던 기술을 현장에 접목하는 것과도 같다고 할 수 있다. 구글이 머신 인텔리전스를 활용할 분야로 가장 먼저 꼽는 건 영상 분야다. 예를 들어 방안에 어떤 물건이 있는지 인식하는 센싱 기술을 들 수 있다.
앞으로 10년 안에 이 같은 머신 인텔리전스가 사람과 세계의 관계를 바꿀 것으로 기대하고 있다.
실제로 모비디우스가 개발한 칩은 구글이 개발하는 실시간 증강현실 플랫폼인 ‘프로젝트 탱고’의 기기에 사용되기도 했다. 프로젝트 탱고는 스마트폰으로 실제 공간을 스캔, 실시간으로 입체화 해 공간정보를 확보하게 해준다.
AI 전용 프로세서의 활용이 기대되는 분야 중 하나는 증강현실. 애플이 에이알킷(ARKit)을 발표한 데 이어 구글도 얼마 전 에이알코어(ARCore)를 발표했다. 에이알코어는 일반 스마트폰에서도 증강현실 체험을 할 수 있게 하려는 것.
두 회사가 일제히 증강현실 관련 기술을 내놓은 만큼 모바일 기기에서 증강현실 콘텐츠가 빠르게 확산될 가능성이 생긴 건 분명하다.
프로젝트 탱고 지원제품만 가능하던 증강현실을 일반 안드로이드폰에서도 쓸 수 있게 했기 때문. 구글은 에이알코어 소프트웨어 개발킷(SDK)을 공개하는 등 1억대의 안드로이드 기기에서 증강현실을 쓸 수 있게 하려고 한다. 또 증강현실을 지원하는 브라우저도 개발 중이다.
애플 역시 WWDC 2017 기간 중 에이알킷을 발표, 세계 최대 증강현실 플랫폼이 되겠다고 벼르고 있다. 이렇게 되면 좀 더 빠르고 안전한 처리를 위한 AI 전용 프로세서에 대한 요구도 커질 것이다.
실제로 애플은 ‘아이폰X’, ‘아이폰8’, ‘아이폰8플러스’ 등을 발표하면서 내부에 SoC로 A11 바이오닉(A11 Bionic)을 탑재했다.
A11 바이오닉은 CPU의 경우 고성능 코어 2개와 효율을 강조한 코어 4개 등 6코어로 이뤄져 있다. 여기에 애플이 자체 개발한 3코어짜리 GPU를 곁들였다.
카메라 촬영을 할 때 이용하는 이미지 처리 엔진인 ISP도 독자 개발해 이 SoC에 넣었다고 한다. 기존 A10 퓨전과 견줘 CPU 70%, GPU 30%의 성능 향상을 기대할 수 있다.
물론 여기에서 관심을 끌만한 건 애플이 ‘A11 바이오닉’에 신경망 엔진(Neural engine)을 곁들였다는 것. 애플은 이 엔진을 이용해 머신러닝을 적용, 제품을 사용할수록 학습해 정밀도를 끌어올릴 수 있다고 설명하고 있다.
음성비서 기능인 시리나 카메라를 활용한 머신러닝에 최적화된 도구를 만들겠다는 목적을 지니고 있는 것.
애플은 또 이런 구성을 통해 속도를 높이고 최적화를 진행, 증강현실 앱 성능도 높일 수 있다고 밝히고 있다.
마이크로소프트가 개발 중인 혼합현실 헤드셋인 홀로렌즈에도 딥러닝 처리를 위한 전용 AI 프로세서가 탑재되어 있다.
홀로렌즈는 머리 움직임을 추적하는 센서와 관성 측정장치 등 온갖 센서에서 들어온 정보를 처리하기 위한 전용 프로세서인 ‘HPU 2.0’을 내장했다. 딥러닝 학습을 위한 다량 데이터나 신경망 다층화 처리에 일반 CPU나 메모리는 비효율적이라는 이유에서다.
연산속도나 소비전력을 모두 고려했을 때 전용 프로세서가 필요하다는 이유는 앞서의 기업들과 다르지 않다.
이렇게 인공지능이나 리얼 센싱 기술, 사람의 표정 등 주위 정보에서 맥락을 판단하는 기술, 주위 상황을 순간 판단해 충돌을 회피하는 드론, 가상현실과 증강현실 같은 분야가 대표적인 활용 분야가 될 수 있다.
AI 전용 프로세서를 개발하는 모비디우스 측은 컴퓨팅 환경에서 딥러닝을 이용하는 건 표준이 되어갈 것이라고 말한다.
인간처럼 시각 처리를 할 수 있는 기기가 만들어지는 만큼 컴퓨팅 환경 자체가 또 한 차례 도약할 수 있는 기회를 줄 것이라는 것. 이런 점에서 딥러닝을 클라우드가 아닌 기기에서 자체 처리할 수 있는 SoC가 요구된다는 얘기다.
추론과 학습이라는 2가지 측면을 고려하면 데이터센터에 위치한 클라우드상의 학습 처리와 격을 맞추듯 추론, 그러니까 주로 이미지나 언어 인식에 쓰이는 학습된 모델을 이용한 연산을 위한 기기 진화는 필수라고 할 수 있겠다.
구글의 표현처럼 머신 인텔리전스의 시대가 다가오고 있다. 이와 동시에 AI 프로세서의 등장은 단말의 역할을 확대, 데이터 분석과 연산을 분산 처리하는 엣지 컴퓨팅(Edge Computing) 시대를 예고하는 것이기도 하다.
-
아이폰X는 들고 다니는 증강현실 플랫폼아이폰X에 숨은 혁신은?[테크M=케빈 조 미국 어웨어 공동창업자 겸 CTO]애플이 신제품을 발표할 때마다 나오는 국내 언론들의 평가는 특별한 것이 없다거나 혁신이 없다는 것이었다. 이번 아이폰X도 예외가 아니었다.사실 이번 아이폰X는 제품에 대한 루머가 일찍부터 퍼졌던 터라 새로 보여준 것이 없었던 것도 사실이다.애플이 그동안 기대 이상의 변화를 보여줬던 터라 평가에 대한 눈높이가 다른 측면도 있다. 그런데 그 기대치는 객관적 기준이나 명확한 근거 없이 막연한 느낌이나 겉모습만 보고 이야기하는 경우가 많다.2017-10-16 10:25:21케빈 조 미국 어웨어 공동창업자 겸 CTO
-
‘누구는 다정다감, 빅스비는 쾌활' 목소리 색깔 따라 다른 효과[테크M = 글 연세대학교 UX랩 인지공학스퀘어(김세이, 조광수)]“시리야~ 문자 좀 보내줘”음성으로 문자 메시지를 보내는 일은 이제 우리에게 익숙하다. 스마트폰을 사용하면서 음성인식 서비스와 대화를 나눠보지 않은 사람은 없을 것이다.국내에도 SK텔레콤 ‘누구’, KT ‘기가지니’, 삼성 ‘빅스비’, 네이버 ‘웨이브’, 카카오 ‘카카오미니’ 등 다양한 제품들이 등장하기 시작하면서 음성 비2017-10-14 15:03:26글 연세대학교 UX랩 인지공학스퀘어(김세이, 조광수)
-
구글 주도 반(反) 아마존 연대 확대일로온라인을 넘어 오프라인 유통 시장에서도 영향력을 확대해 나가고 있는 아마존을 상대로한 구글과 거대 소매 업체간 협력에 가속도가 붙었다.오프라인 소매 업체들과 구글 모두에게아마존은'공공의 적'으로 부상했음을 보여주는 장면이다.12일(현지시간) 월마트에 이어 타깃도 구글과의 유통 사업 제휴를 확대한다고 발표했다. 그동안 타깃과 구글은 미국내 몇몇 지역에서 음성 쇼핑 및 배송 서비스 협력을 진행해왔는데, 이번에 미국 전역으로 협력을 확대하기로 했다.양사 협력은 음성 기반 인공지능(AI) 비2017-10-13 16:21:14황치규 기자