TECH M
TECH M
전용 프로세서와 모바일 인공지능 시대
[테크M= 이석원 벤처스퀘어 편집장]
인공지능(AI) 바람을 타고 AI 프로세서가 몰려온다. 중국 화웨이는 유럽 최대 가전 전시회인 IFA 2017 기간 중 AI 전용 프로세서인 NPU(Neural network Processing Unit)를 내장한 SoC '기린 970(Kirin 970)'을 발표했다.
인공지능 프로세서 발표한 화웨이
기린 970은 화웨이 산하 기업인 하이실리콘테크놀러지가 만든 것. CPU는 ARM '코어텍스-A73'과 '코어텍스-A53', 두 개의 쿼드코어로 이뤄져 있다. 여기에 그래픽 기능을 맡은 GPU로 ‘말리-G72' 12코어를 곁들였다. 10㎚ 제조공정을 이용해 만든 제품으로, 화웨이 측에 따르면 이전 버전인 기린 960보다 다이 크기는 40% 줄었지만 전력 효율은 20% 끌어올렸다.
GPU도 이전 모델보다 성능은 20%, 전력 효율은 50% 높였다. 또 2160p, 60프레임으로 H.264/HEVC 디코딩을 할 수 있다. LTE 모뎀은 카테고리18을 지원한다. 이 제품의 가장 큰 특징은 SoC 내부에 AI 전용 프로세서인 NPU를 탑재한 것. “AI는 클라우드에만 있는 게 아니라 항상 당신 곁에 있다”는 것이다.
보통 AI 서비스는 빠른 연산 처리는 클라우드 기반으로 이뤄진다. 하지만 클라우드에서 처리하는 탓에 반응속도가 안 좋거나 보안면에서 불안 요인이 발생할 가능성이 있다.
NPU는 딥러닝의 추론 과정을 클라우드가 아닌 모바일 기기가 단독으로 처리할 수 있게 딥러닝 처리 전용 프로세서로 만든 것이다. NPU는 CPU와 견줘 AI 연산은 25배, 전력 효율은 50배에 달한다고 한다. NPU의 연산 성능은 FP16 기준 1.92TFLOPS다.
화웨이는 기린 970을 모바일 AI 구현을 위한 오픈 플랫폼으로 삼을 계획이다. 이를 위해 개발자에게 애플리케이션 프로그래밍 인터페이스(API)도 배포한다.
딥러닝 개발 프레임워크는 텐서플로와 텐서플로 라이트, 카페(Caffe)와 카페2를 지원한다. 기린 970은 화웨이가 10월 16일 발표할 하이엔드 스마트폰인 ‘메이트10’에 처음 탑재된다.
인텔도 동전 크기 딥러닝 프로세서
인텔 역시 지난 8월 말 딥러닝 처리를 위한 전용 프로세서, 미리아드 X를 발표했다. 인텔 산하 모비디우스가 개발한 것으로, VPN(Vision Processing Unit)이란 프로세서에 영상 처리뿐 아니라 신경망 처리가 가능하게 설계했다. 크기는 8.7×8.5㎜에 불과하다.
미리아드 X는 내부에 SHAVE(Streaming Hybrid Architecture Vector Engine) 프로세서 16개를 갖추고 있다. 이 프로세서는 프로그래밍을 할 수 있는 128비트 VLIW 벡터 유닛으로 이뤄져 있다.
DNN, 심층신경망 추론 성능의 경우 1테라플롭스로 빠르고 저전력으로 실행할 수 있다. 또 영상 가속 기능과 내부 대역폭 400㎇/초에 이르는 온칩 메모리 아키텍처를 채택, 대기시간을 최대한 아끼고 소비전력은 억제하는 효과를 기대할 수 있다.
이 제품은 사진과 동영상 여러 개를 동시 실행할 수 있고 16레인을 이용해 HD해상도 RGB 카메라 8대를 연결, 1초에 7억 화소 신호처리를 기대할 수 있다.
인코더는 H.264와 H.265로 30프레임, 모션JPEG로는 60프레임, 4K 해상도를 지원한다.
내부에는 USB 3.1과 PCI익스프레스 인터페이스도 갖추고 있다. 미리아드X는 메모리 포함 여부에 따라 2가지 버전을 준비할 예정이라고 한다.
모비디우스는 지난 7월 USB 타입으로 연결할 수 있는 스틱형 딥러닝 처리 가속기인 모비디우스 뉴럴 컴퓨트 스틱을 내놓기도 했다.
이 제품 역시 영상 처리나 인공지능 관련 기술을 로컬 환경에서 손쉽게 처리, 개발할 수 있게 지원하기 위한 것이다.
이 제품은 모비디우스가 개발한 전용칩인 미리아드2 비전 프로세싱 유닛을 탑재하고 있다. 소비전력 1W 상태에서 100기가플롭스 딥러닝 처리를 할 수 있다. 외부 인터페이스는 USB 3.0을 지원하며 라이브러리는 카페를 이용할 수 있다.
이 제품에 들어간 미리아드 2는 동전보다 작은 딥러닝 전용 칩이다. 실제로 DJI의 스파크 드론에서 실시간으로 이미지를 처리, 손짓만을 이용한 셀카 비행을 하는 역할을 맡고 있다. 가격은 79달러다.
드론 활용 예에서 알 수 있듯 이들 프로세서가 AI 개발을 위한 신경망 훈련을 빠르게 할 수 있게 돕고 기기 자체에서 이미지를 처리하는 등 다방면에 활용될 수 있다.
인텔은 AI 전용 프로세서가 기존 칩보다 10배 가량의 신경망 처리를 기대할 수 있다고 밝히고 있다. 활용 기대 분야는 로봇이나 자율비행 드론, 감시 카메라, 가상현실이나 증강현실 기기다.
구글도 머신 인텔리전스... 엣지컴퓨팅 시대 예고
인텔은 지난해 9월 모비디우스를 인수했지만 그보다 먼저 AI 전용 프로세서에 대한 관심을 나타낸 기업이 있다. 바로 구글이다.
구글은 차세대 스마트폰에 필요한 기술로 머신 인텔리전스를 꼽고 지난해 1월 모비디우스와 제휴를 발표한 바 있다.
당시 구글은 제휴를 발표하면서 컴퓨팅 자체가 연결을 통해 더 똑똑해지고 있고 덕분에 단말도 주변 세상을 이해할 수 있게 됐다고 밝혔다.
마치 사람이 바로 앞에 뭘 보고 있는지 아는 것처럼 혹은 뭘 얘기하고 있는지 의미를 아는 것처럼 말이다. 이런 관계를 이해하려면 인간의 두뇌 같은 구조가 필요하다는 것이다. 이런 이유로 필요한 게 딥러닝 기술을 지원하면서 저전력을 동시에 지원하는 AI 전용 프로세서라는 얘기다.
AI 전용 프로세서는 예전에는 마치 데이터센터에서나 쓰이던 기술을 현장에 접목하는 것과도 같다고 할 수 있다. 구글이 머신 인텔리전스를 활용할 분야로 가장 먼저 꼽는 건 영상 분야다. 예를 들어 방안에 어떤 물건이 있는지 인식하는 센싱 기술을 들 수 있다.
앞으로 10년 안에 이 같은 머신 인텔리전스가 사람과 세계의 관계를 바꿀 것으로 기대하고 있다.
실제로 모비디우스가 개발한 칩은 구글이 개발하는 실시간 증강현실 플랫폼인 ‘프로젝트 탱고’의 기기에 사용되기도 했다. 프로젝트 탱고는 스마트폰으로 실제 공간을 스캔, 실시간으로 입체화 해 공간정보를 확보하게 해준다.
AI 전용 프로세서의 활용이 기대되는 분야 중 하나는 증강현실. 애플이 에이알킷(ARKit)을 발표한 데 이어 구글도 얼마 전 에이알코어(ARCore)를 발표했다. 에이알코어는 일반 스마트폰에서도 증강현실 체험을 할 수 있게 하려는 것.
두 회사가 일제히 증강현실 관련 기술을 내놓은 만큼 모바일 기기에서 증강현실 콘텐츠가 빠르게 확산될 가능성이 생긴 건 분명하다.
프로젝트 탱고 지원제품만 가능하던 증강현실을 일반 안드로이드폰에서도 쓸 수 있게 했기 때문. 구글은 에이알코어 소프트웨어 개발킷(SDK)을 공개하는 등 1억대의 안드로이드 기기에서 증강현실을 쓸 수 있게 하려고 한다. 또 증강현실을 지원하는 브라우저도 개발 중이다.
애플 역시 WWDC 2017 기간 중 에이알킷을 발표, 세계 최대 증강현실 플랫폼이 되겠다고 벼르고 있다. 이렇게 되면 좀 더 빠르고 안전한 처리를 위한 AI 전용 프로세서에 대한 요구도 커질 것이다.
실제로 애플은 ‘아이폰X’, ‘아이폰8’, ‘아이폰8플러스’ 등을 발표하면서 내부에 SoC로 A11 바이오닉(A11 Bionic)을 탑재했다.
A11 바이오닉은 CPU의 경우 고성능 코어 2개와 효율을 강조한 코어 4개 등 6코어로 이뤄져 있다. 여기에 애플이 자체 개발한 3코어짜리 GPU를 곁들였다.
카메라 촬영을 할 때 이용하는 이미지 처리 엔진인 ISP도 독자 개발해 이 SoC에 넣었다고 한다. 기존 A10 퓨전과 견줘 CPU 70%, GPU 30%의 성능 향상을 기대할 수 있다.
물론 여기에서 관심을 끌만한 건 애플이 ‘A11 바이오닉’에 신경망 엔진(Neural engine)을 곁들였다는 것. 애플은 이 엔진을 이용해 머신러닝을 적용, 제품을 사용할수록 학습해 정밀도를 끌어올릴 수 있다고 설명하고 있다.
음성비서 기능인 시리나 카메라를 활용한 머신러닝에 최적화된 도구를 만들겠다는 목적을 지니고 있는 것.
애플은 또 이런 구성을 통해 속도를 높이고 최적화를 진행, 증강현실 앱 성능도 높일 수 있다고 밝히고 있다.
마이크로소프트가 개발 중인 혼합현실 헤드셋인 홀로렌즈에도 딥러닝 처리를 위한 전용 AI 프로세서가 탑재되어 있다.
홀로렌즈는 머리 움직임을 추적하는 센서와 관성 측정장치 등 온갖 센서에서 들어온 정보를 처리하기 위한 전용 프로세서인 ‘HPU 2.0’을 내장했다. 딥러닝 학습을 위한 다량 데이터나 신경망 다층화 처리에 일반 CPU나 메모리는 비효율적이라는 이유에서다.
연산속도나 소비전력을 모두 고려했을 때 전용 프로세서가 필요하다는 이유는 앞서의 기업들과 다르지 않다.
이렇게 인공지능이나 리얼 센싱 기술, 사람의 표정 등 주위 정보에서 맥락을 판단하는 기술, 주위 상황을 순간 판단해 충돌을 회피하는 드론, 가상현실과 증강현실 같은 분야가 대표적인 활용 분야가 될 수 있다.
AI 전용 프로세서를 개발하는 모비디우스 측은 컴퓨팅 환경에서 딥러닝을 이용하는 건 표준이 되어갈 것이라고 말한다.
인간처럼 시각 처리를 할 수 있는 기기가 만들어지는 만큼 컴퓨팅 환경 자체가 또 한 차례 도약할 수 있는 기회를 줄 것이라는 것. 이런 점에서 딥러닝을 클라우드가 아닌 기기에서 자체 처리할 수 있는 SoC가 요구된다는 얘기다.
추론과 학습이라는 2가지 측면을 고려하면 데이터센터에 위치한 클라우드상의 학습 처리와 격을 맞추듯 추론, 그러니까 주로 이미지나 언어 인식에 쓰이는 학습된 모델을 이용한 연산을 위한 기기 진화는 필수라고 할 수 있겠다.
구글의 표현처럼 머신 인텔리전스의 시대가 다가오고 있다. 이와 동시에 AI 프로세서의 등장은 단말의 역할을 확대, 데이터 분석과 연산을 분산 처리하는 엣지 컴퓨팅(Edge Computing) 시대를 예고하는 것이기도 하다.
-
'전자정부 名家' LG CNS, 1200억 '행복e음' 사업 수주로 자존심 회복할까공공 소프트웨어(SW) 사업의 강자 LG CNS가 올해 공공시장 첫 '대어'로 꼽히는 보건복지부 차세대 사회보장정보시스템(행복e음) 구축 사업에 출사표를 던졌다.17일 업계에 따르면 LG CNS는 이날 행복e음 사업 재입찰에 제안서를 제출했다.행복e음 사업은 지난 2009년 복지부가 각종 사회복지 급여 및 서비스 지원 대상자의 자격과 이력에 관한 정보를 통합 관리하기 위해 구축한 시스템을 현대화 하는 사업이다. 올해부터 3년간 약 1220억원이 투입된다.이 사업은 지난 3일 첫 입찰 공고를 마감했으나 무2020-03-17 16:54:47테크M 남도영 기자
-
네이버 vs 카카오, 포털-메신저 이은 3라운드... 링은 '콘텐츠'#수천억 자금으로 뭘 만들까#넷플릭스 잡을 수 있을까#톡TV-네이버TV 경쟁 볼만할 듯국내 대표 인터넷 맞수 기업 네이버와 카카오의 세번재 경쟁 무대 막이 올랐다. 포털과 메신저 플랫폼에서 치열하게 경쟁해온 두 기업의 3라운드 링은 '콘텐츠'다. 이미 양사는 콘텐츠 자회사에 수천억원의 자금을 쌓아놨다. 올해부터 본격적으로 콘텐츠 양산에 돌입한다. 콘텐츠 주도권 경쟁의 전초전은 이미 시작됐다.◆실탄 마련한 카카오M, 직접 콘텐츠 제작 개시카카오는 지난 16일 콘텐츠 자회사 카카오M이 3자 배정 유상증자2020-03-17 15:53:45테크M 허준 기자
-
[템 사이트] 게임 하면 유니티! 2020년 기대되는 유니티 기반 게임은?연일 쏟아지는 신작 소식이 게이머들을 설레게 하고 있습니다. 남다른 스케일을 자랑하는 게임업체들의 대형 신작은 물론 독특한 게임성을 내세운 게임까지, 게이머들의 다양한 취향을 만족시킬만한 다양한 신작게임들이 많습니다.오늘은 특히 유니티 엔진을 기반으로 한 신작 게임들을 엄선해서 소개할까 합니다. 유니티는 이미 전세계 수백만명의 게임 개발자들이 사용하는 유명한 게임엔진입니다. 최신 버전의 엔진 '유니티 2019.3' 업데이트를 통해 260가지가 넘는 개선사항과 신규 기능이 포함돼 진일보한 고성능 그래픽과 최적화 기2020-03-17 15:30:39테크M 허준 기자