TECH M
TECH M
구글, 대화하는 인공지능 개발 어디까지?
궉 레(Quoc Le)는 구글 본사의 한 컨퍼런스 룸에서 어떻게 기계가 적절한 대화를 이어나가게 할지를 생각하고 있다.
레의 야망은 왜 기계와 대화하는 것이 중요한지를 정확히 알려준다.
“나는 생각을 흉내내는 기계를 만들고 싶습니다. 그렇게 되면 우리는 기계에게 지금 뭘 생각하고 있는지 물을 수 있을 겁니다.”
구글은 이미 컴퓨터에게 언어의 기본을 가르치고 있다. 지난 5월 구글은 파시 맥 파스페이스(Parsey McParseface)란 시스템을 발표했다. 이 시스템은 문법을 이해하고 명사, 동사, 문장의 다른 요소를 구별한다.
구글에게 언어를 이해하는 것은 매우 중요하다.
과거 구글의 검색 알고리즘은 단순히 키워드와 웹페이지 간의 링크를 사용했다. 그러나 이제는 랭크브레인(RankBrain)이란 시스템을 사용하고 있다. 이 시스템은 웹페이지를 읽고 의미를 해석해 더 나은 검색 결과를 만든다.
레는 여기에서 한걸음 더 나아가려 한다. 번역과 사진설명 달기에 성과를 낸 시스템을 이용, 지메일에 '스마트 응답' 기능을 만들었다. 도착한 편지를 읽고 내용에 따라 적절한 몇 가지 답글을 추천해주는 것이다.
또 구글의 IT 고객센터 기록을 이용, 단순한 기술적 질문에 답하는 프로그램을 만들기도 했다.
레가 가장 최근 개발한 것은 확실한 답이 없는 질문에 적당히 쓸만한 답을 주는 프로그램이다. 그는 1만8900개의 영화 대사를 이용해 이를 훈련시켰다.
몇몇 질문들에 대한 대답은 소름 끼칠 정도로 적절하다.
“인생의 목적이 뭐지?”라는 물음에 프로그램은 “세상을 더 밝고 아름답게 만드는 것이죠.” 라고 답했다.
레는 “상당히 좋은 대답이에요, 내가 할 수 있었던 답보다 분명히 더 나아요”라며 웃었다.
이 프로그램에는 딱 한 가지 문제가 있는데, 몇 가지 질문을 하다 보면 그 한계가 보인다는 점이다.
레가 “고양이는 다리가 몇 개지?”하고 묻자 시스템은 이렇게 답했다.
“네 개에요. 내 생각에는.”
그는 다시 이렇게 물었다. “지네는 몇 개의 다리를 가지고 있지?”
이번 답은 이상했다. “여덟 개요.”
레의 프로그램은 자신이 무슨 이야기를 하고 있는지 사실 전혀 모르는 것이다.
이 프로그램은 몇몇 기호의 조합이 자주 나타난다는 것을 알 뿐, 실제 세상은 전혀 알지 못한다.
지네가 뭔지 모르며, 어떻게 생겼는지, 어떻게 움직이는지도 모른다. 그저 지능 비슷한 허깨비만 있을 뿐 인간이 당연히 가지고 있는 상식이란 것이 없다. 딥러닝 시스템은 종종 이런 문제를 드러낸다.
구글의 시스템 중 사진에 대한 설명을 다는 프로그램 역시 가끔씩 거리의 표지판을 음식으로 가득 찬 냉장고처럼 묘사하는 등의 이상한 오류를 보인다.
우연의 일치인지 테리 위노그라드의 옆 방에는 컴퓨터가 단어의 실제 뜻을 이해할 수 있게 도와줄 수 있는 사람이 있었다.
스탠포드 인공지능 실험실을 이끄는 페이-페이 리는 방문시 출산휴가 중 이었지만 나를 집으로 초대, 자신의 세 달 된 아기 피닉스를 소개해줬다.
리는 피닉스가 나를 빤히 보는 것을 보고 “아이가 나보다 당신을 더 많이 쳐다보는 걸 보세요. 당신이 새로운 사람이라 그래요. 얼굴 인식 능력이 벌써 나타난 거죠”라고 말했다.
리는 오랫동안 머신러닝과 컴퓨터 비전 분야를 연구해 왔다. 몇 년 전, 그녀는 수백만 개의 사진에 적절한 단어를 붙인 데이터베이스 구축 프로젝트를 이끌었다.
기계가 세상을 더 구체적으로 이해할 수 있어야 한다고 믿는 리는 올해 각 그림에 훨씬 더 자세한 설명이 붙어 있는 새로운 데이터베이스를 발표했다.
각 사진에는 사람이 붙인 수십 개의 설명이 달려있다.
사진마다 ‘스케이트 보드를 타는 개’, ‘이 개는 털복숭이로 곱슬한 털을 가지고 있다’, ‘도로는 갈라져 있다’ 같은 설명이 붙었다. 이들은 이 데이터베이스를 바탕으로 한 머신러닝을 통해 기계가 실제 세상을 더 잘 이해하기를 바란다.
“인간의 뇌에서 언어 부분은 시각적 정보를 포함한 수많은 정보를 받습니다. 인공지능 역시 여러 시스템을 통합해야 합니다.”
이는 실제로 아이들이 말을 배울 때 단어와 물체, 관계, 행동 등을 연관 짓는다는 점에서 인간의 학습 방식과 비슷하다. 그러나 사람이 배우는 방식과의 비교는 여기까지다.
아이들은 스케이트 보드를 타는 개를 상상하거나 말하기 위해 실제로 이 장면을 볼 필요가 없다. 바로 이 점 때문에 리는 오늘날의 머신러닝과 인공지능 기술이 진짜 인공지능을 만들기에는 부족하다고 생각한다.
“더 많은 데이터와 딥러닝만으로는 부족합니다.”
리는 인공지능 연구자들이 감정 지능과 사회적 지능을 생각하게 될 것이라고 믿는다. “인간은 많은 데이터를 다루지 못합니다. 하지만 추상화와 창의적 사고에 뛰어나지요.”
누구도 기계가 인간의 능력을 가질 수 있다해도 어느 누구도 기계에게 어떻게 이런 인간의 능력을 전달할 수 있을지 모른다. 인공지능이 결코 인간을 따라잡을 수 없게 만드는 그런 능력과 관련해, 과연 인간에게 특별한 뭔가가 있는 것일까?
MIT의 테넌바움과 같은 인지 과학자들은 오늘날의 신경망 기술에는 설사 그 신경망이 아무리 거대하다고 해도 인간의 마음에 포함된 중요한 요소가 결여돼 있다고 말한다.
인간은 상대적으로 적은 데이터만으로도 매우 빠르게 학습하는 능력이 있으며 3차원 세상을 매우 효율적으로 마음 속에 그리는 타고난 능력을 갖고 있다.
“언어 능력은 아마 더 근본적인 다른 능력들을 바탕으로 만들어지는 듯 합니다. 그 능력이란 언어를 말하지 못하는 어린 아기들도 이미 가진 능력으로 눈으로 세상을 이해하고 몸을 움직이고 세상을 이루는 물리 법칙을 이해하며 다른 사람의 의도를 파악하는 능력 등을 말합니다.”
만약 그가 옳다면, 기계와 인공지능이 인간의 학습, 정신적 모델의 발달과정, 그리고 심리학을 모사하지 않으면서 언어를 말할 수 있게 만드는 것은 쉽지 않을 것이다.
<본 기사는 테크M 제43호(2016년 11월) 기사입니다>
-
내년 공공 SW 사업 3조6997억원으로 제자리걸음(2017년 공공 정보화 사업 수요예보 조사 결과 [자료: 미래창조과학부]) 내년 공공 정보화 사업에 먹구름이 낄 것으로 보인다. 내년 공공 소프트웨어(SW) 사업은 올해 대비 제자리 걸음할 것으로 보이며 하드웨어(HW) 사업은 감소할 것이라는 예측이다. 미래창조과학부와 정보통신산업진흥원(NIPA) 등은 28일 삼성동 코엑스에서 ‘2017년 공공부문 SW, ICT 장비, 정보보호 수요예보(예정) 설명회’를 개최했다. 김은찬 NIPA 팀장은“조사 결과, 내년도 SW사업 예산이 총 3조6997억 원이2016-11-28 17:10:01강진규 기자
-
감정을 3D프린터로…AI와 함께 만드는 예술인도 작가 하싯 아그라왈의 작품 IBM 왓슨과 구글 마젠타가 그리는 예술은 어떤 모습일까.아트센터 나비가 내년 1월 20일까지 ‘아직도 인간이 필요한 이유:AI와 휴머니티’전을 연다. 이 전시는 창의성, 직관 등 인간의 고유성(Humanity)에 대해 질문하고, 기술 발전에 따른 인간과 기계의 관계를 재조명한다. 국내·외 아티스트, 프로그래머, 디자이너 등 다양한 창작자가 인공지능(AI)을 활용해 작업한 15점의 작품이 전시된다.특히2016-11-28 11:10:01마송은 기자
-
"교사는 단지 학생의 생각을 이끌어낼 뿐이죠."(서울 계성초등학교의 스마트 교육을 주도하고 있는 조기성 선생님. 사진=성혜련)서울 서초구에 위치한 계성초등학교는 학교를 직접 방문하지 않아도, 학교 내부 시설을 실감나게 둘러 볼 수 있다. 이 학교는 학교 시설을 가상현실(VR)로 촬영해 10월부터 홈페이지에 관련 자료를 제공하고 있다.360도로 움직이는 영상을 통해 학교 내부 시설을 생생하게 볼 수 있어 학부모와 학생들로부터 좋은 반응을 얻고 있다.VR 제작을 기획한 조기성 선생님을 계성초등학교에서 만났다. 그는2016-11-28 08:40:02마송은 기자