바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

감정 로봇은 인간에게 어떤 영향을 미칠까

2018-02-02독점제휴=MIT테크놀로지리뷰

[테크M 독점제휴=MIT테크놀로지리뷰]

로봇이 우리의 감정을 파악하고 적절하게 반응할 수 있다면 로봇도 감정이 있다고 할 수도 있다. 하지만 이것만으로 그들이 인간다워졌다고 말할 수는 없을 것이다.

미 해군 함정의 화재 진압을 위해 제작된 인간형 로봇, 옥타비아는 매우 많은 표정을 지을 수 있다. 전원이 꺼져 있을 때는 사람 크기의 흔한 인형처럼 보인다. 매끈한 하얀 얼굴에 코는 높지 않다. 플라스틱 눈썹은 뒤집어진 카누 모양.

하지만 전원이 켜지면, 옥타비아는 눈을 뜨고 다양한 감정을 표현한다. 상대의 말에 알았다며 고개를 끄덕이고 눈을 크게 뜨고 눈썹을 올려 놀라움을 나타낼 수 있다.

사람처럼 고개를 한 쪽으로 젖히며 입을 꼬아 난처함을 표현한다. 한쪽 눈썹을 둥글게 말고 다른 한쪽 눈을 가늘게 뜬 표정으로 금속 손가락을 튕겨, 마치 반란을 계획하는 로봇 같은 표정을 지을 수도 있다.

다양한 표정 외에 옥타비아는 더 큰 장점이 있다. 바로 사람과의 상호작용에서 감정적으로 매우 정확한 반응을 한다는 것이다.

예를 들어 옥타비아는 자신의 동료를 알아보고 기쁜 표정을, 예상하지 못한 명령을 들으면 놀라는 표정을 짓는다. 누군가 이해 할 수 없는 말을 하면 혼란스러워 한다. 옥타비아가 적절한 감정적 반응을 보일 수 있는 것은 수많은 정보를 처리할 수 있기 때문.


옥타비아는 보고 듣고 만질 수 있다. 이 로봇의 눈에는 카메라가 장착돼 상대방의 얼굴과 안색, 의복을 통해 성격을 분석한다. 마이크를 내장하고 있고 스핑크스란 음성인식 프로그램을 이용해 사람의 목소리를 구별할 수 있다. 또한 다양한 형태를 취할 수 있는 손가락으로 물건을 만져보고 25가지 물건을 구별할 수 있다.

이 모든 인식능력을 바탕으로 ‘체화된 인지를 구성’함으로써 옥타비아는 “사람과 비슷한 방식으로 생각하고 행동하게 된다”고 해군 인공지능응용기술센터의 옥타비아 제작자는 말한다.

이는 흥미롭지만 그렇게 놀라운 이야기만은 아니다. 사실 사람과 비슷하게 행동하는 로봇이란 아이디어는 오래된 것이다.

18세기 프랑스에서 제작된 자동인형은 춤을 추고 시간을 잴 수 있었으며, 드럼과 심벌론, 피아노를 연주했다. 80년대 어린 시절을 보낸 이들은 오줌 싸는 아기인형 광고를 기억할 것이다.

심지어 우리는 인간처럼 생각하는 로봇에도 익숙하다. 인간만이 할 수 있다고 오랫동안 믿어온 고급 인지 능력의 상징 중 다수 (체스 챔피언을 이기거나, 정확한 운율의 시 짓기 등)에서 컴퓨터는 사람과 비슷하거나 혹은 사람을 능가하고 있다.

그러나 옥타비아는 공포 때문에 눈을 크게 뜬다든지, 플라스틱 눈썹으로 혼란스러움을 나타내는 등 다른 로봇과는 다른, 한 단계 더 발전한 로봇이라는 느낌을 받을 수 있다.

이는 옥타비아가 마치 인간처럼 생각하는 것 이상의 어떤 것, 즉 인간의 감정을 가진 것처럼 보이기 때문이다.

하지만 이는 사실이 아니다. 해군 인공지능연구소의 그레고리 트래프톤 지능시스템부장은 옥타비아가 나타내는 감정은 사실 사람들과의 상호작용을 쉽게 하기 위해 자신이 어떤 생각을 하는지 겉으로 보여주는 것에 불과하다고 말한다.

문제는 생각과 감정 사이에 분명한 선을 긋는 것이 쉽지 않다는 점이다. 트래프톤의 말처럼, 생각과 감정은 다르지만, 서로 분명 영향을 주기 때문이다.

그의 말대로 만약 감정이 인지에 영향을 주고 인지가 감정에 영향을 준다면, 생각하고 추론하고 인식하는 옥타비아의 능력은 인공지능 로봇의 부상과 함께 나타난 중요한 다음 질문을 불러일으킨다.

로봇이 얼마나 똑똑해져야 뭔가를 느낄 수 있을까? 또 우리는 이를 어떻게 알 수 있을까?

 

개인화된 감정

옥타비아가 마음 이론을 바탕으로 제작됐다는 것은 옥타비아가 동료들의 마음을 추측할 수 있음을 의미한다.

옥타비아는 사람들이 모순된 신념이나 의도를 가질 수 있음을 이해한다. 자신의 예상과 다른 명령을 받는다면 명령을 내린 동료의 생각이 뭔지, 그가 다른 명령을 내린 이유가 무엇인지 시뮬레이션을 통해 추측한다.

세상에 대한 그의 모델을 조금씩 수정하며 그의 명령이 가능한 세상을 찾는 것이다. 옥타비아가 머리를 한쪽으로 갸우뚱 하며 눈썹을 찌푸리는 것은 동료의 생각을 이해하기 위해 자신이 이런 시뮬레이션을 하고 있음을 알려주는 신호이다.

옥타비아는 감정을 나타내기 위해 만들어진 로봇이 아니다. 옥타비아의 마음 이론은 인지적 신호를 바탕으로 한다. 하지만 결과적으로 이는 인간의 다양한 감정 중에서 가장 중요한 것으로 여겨지는 공감능력과 매우 비슷하게 작동한다.

다른 로봇 제작사 역시 로봇의 감정지능 문제를 고려하고 있다. 예를 들어 인간의 친구가 되는 것을 목표로 만들어진 ‘유쾌하고 호감 가는’ 인간형 로봇 페퍼 제작사인 소프트뱅크로보틱스는 페퍼가 ‘인간의 감정을 인식’할 수 있을 뿐 아니라 “당신과 이야기 하고 취향과 취미, 곧 당신이 누구인지를 알고 싶어 한다”고 말한다.

하지만 페퍼가 인간의 감정을 인식할 수 있고 인간의 행동에 대해 행복한 웃음이나 슬픈 표정을 지을 수 있을지 모르지만 누구도 페퍼가 실제로 그런 감정을 느낀다고 주장하지 않는다.

그렇다면, 자신이 만든 로봇이 감정을 느낄 수 있다고 하려면 어떤 조건이 필요할까? 한 가지 사실은 우리는 아직 인간의 감정에 대해서 조차 많은 것을 알지 못한다는 사실이다.

최근 심리학과 뇌과학의 혁명적인 발전은 감정이란 개념을 완전히 새롭게 정의하고 있어 감정이 무엇인지 정확하게 묘사하기가 더 어려워졌다.

노스이스턴대학 심리학과 리사 펠드만 바렛 교수는 인간의 감정이 그가 자라난 환경에 크게 좌우된다는 것이 점점 더 분명해지고 있다고 말한다. 또한 개인조차 상황에 따라 다른 감정을 보인다.

사실 우리는 대부분의 인간과 동물의 감정을 좋음과 나쁨, 흥분과 차분함이라는 두 개의 차원으로 표현할 수 있다고 생각하지만, 실제 특정 감정은 이같은 일반 규칙을 따르기보다 매우 다양하게 나타난다. 예를 들어, 공포는 모든 문화에서 나타나는 감정이지만 이 감정이 인체에 미치는 영향은 매우 다양하다.

다양한 자극이 공포를 유발하며 뇌에서의 작용과 얼굴 표정도 서로 다르게 나타난다. 공포의 표정도 하나가 아니며, 뇌에 ‘공포 센터’나 ‘공포 회로’가 따로 존재하지도 않는다. 우리는 각자의 공포를 상황에 따라 전혀 다른 방식으로 표현하며, 다른 사람의 행동을 보며 ‘공포’를 이해하게 된다.

즉, 우리가 공포라고 표현하는 것은 뇌의 특정한 부분에서 나오는 것이 아니라 하나의 일반화된 통칭에 가까운 것이다.

바렛의 표현처럼, 우리는 그때 그때 신체 반응과의 상호작용을 통해 감정을 구성하는 것이다. 이런 상황에서 어떻게 프로그래머로 하여금 인간의 감정을 로봇이 정확하게 구현하도록 만들 수 있을까?

 

훌륭한 군인

로봇이 감정을 가지게 만드는 것과 관련된 도덕적 문제도 있다. 이는 옥타비아처럼 두렵고 고통스러우며 극히 위험한 장소에 인간 동료를 대신해 투입할 군용 로봇의 경우 분명하게 나타나는 문제다.

미친과학자위원회라는 다소 위험한 이름이 붙었던, 미 육군이 지원한 2017년 한 컨퍼런스에서 케빈 맨검 중장(미 육군훈련교리 사령부 부소장)은 그런 로봇이 자율성을 가져야 한다고 말했다.

“점점 더 복잡해지는 세상에서, 인공지능을 통해 자율성을 갖게 된 로봇이 중요한 역할을 할 것이라는 점은 의심의 여지가 없습니다.”

2017년 미 육군로봇 및 자율시스템 전략은 지금은 사람이 원격으로 조종하는 폭탄해체 로봇 등을 2040년까지는 자율시스템이 대체할 것이라고 예측했다.

이 로봇들이 스스로 판단하고 행동할 수 있게 된다면, 그 때 이들에게 옥타비아처럼 인간의 감정으로 보이는 기능을 넣어야 할까?

혹은 진짜 인간의 감정을 갖게 만들어야 할까? 이들이 전투에 나서려면 판단력뿐 아니라 인간 동료들과 같은 감정을 느껴야 하지 않을까?

 

 

 

 

 

 

 

한편 생각해보면, 답은 당연히 그럴 필요가 없다는 것이다. 우리가 이들 로봇을 위험한 임무에 투입하기 위해 만든다는 점에서, 그들에게 공포와 트라우마, 고통을 느끼게 만드는 것은 가학적인 일이 될 수 있다.

그러나 또 한편으로 감정이 지능에 영향을 주고 지능 또한 감정에 영향을 준다는 점에서, 감정이 없는 로봇이 과연 훌륭한 군인이 될 수 있을까 하는 문제가 있다.

감정이 없기 때문에 어리석은 판단을 내리거나 불필요한 위험을 지거나 아니면 불필요하게 잔인한 복수를 하게 되지 않을까?

어쩌면 감정이 없는 로봇은 인간 동료들이 전쟁범죄라고 느낄 행동을 저지를지 모른다. 반대로 고통이나 분노를 알지 못하기 때문에 인간이라면 공포 때문에 미쳐버릴 그런 상황에서 현명한 판단을 내릴 수도 있다.

어쩌면, 감정과 지능은 사실상 완전히 분리하기 불가능할 정도로 얽혀 있어 감정이 없는 인공지능은 불가능할 수 있다. 이는 자율 로봇에 지능을 부여한 이상, 이 로봇에 어느 정도의 감정을 부여할 지는 우리가 결정할 수 없는 문제일 지 모른다.


감정적 애착

이들 로봇이 인간 동료에게 미치는 영향도 생각해야 한다. 2010년, 미 육군은 늘어나는 급조폭발물(IED)에 대처하기 위해 3000대의 소형 전술로봇 배치에 나섰다.

이들 로봇은 인간 병사를 대신해 노출된 길 위, 어두운 동굴 속, 그리고 좁은 출입구에서 미처 예측하지 못했던 IED를 발견해 해체한다.


이 로봇들은 대부분 평범한 전술로봇인 아이로봇의 팩봇과 키네틱노스아메리카의 탈론이다.

사각형 금속 몸체에 돌밭을 지나 계단을 넘어 어두운 복도로 가게 해주는 고무 트레드를 달고 있는 이 로봇은 월-E를 닮았다고 할 수 있다. 관절로 이루어진 로봇팔에는 주위를 둘러볼 수 있는 비디오 카메라와 폭발물을 처리할수 있는 집게 손이 달려 있다.

이들은 유용한 도구지만 자율성은 없다. 마치 장난감 자동차처럼, 주로 군인들이 멀리서 조이스틱이 달린 장치를 이용해 이들을 조종한다.

인공지능 면에서 팩봇은 아이로봇의 가장 유명한 제품인 청소 로봇 룸바에 비해 결코 더 뛰어나지 않다.


하지만 감정을 가지지 않은 이런 로봇에게도 병사들은 애착을 느낀다. 줄리 카펜터는 그의 책 ‘전장의 문화와 인간-로봇 상호작용’에서 기쁨과 고통이 모두 있는 전술로봇과 인간의 복잡한 관계를 보여줬다.

 

카펜터가 한 군인에게 파괴된 로봇에 대해 묻자 그는 이렇게 답했다:

음... 그러니까, 친구가 다치거나 누군가가 정신이 나가는 뭐 그런 종류의 일은 확실히 아니에요. 하지만 분명히 어떤 상실감, 그러니까 로봇 중 하나에게 어떤 일이 일어났기 때문에 느끼는 그런 상실감이 있어요.


다른 군인은 자신의 로봇을 애완견과 비교했다:

그건 동료를 아끼는 것 비슷하게 그 로봇을 아끼게 된다는 뜻입니다. 항상 깨끗하게 보관해야 하고, 배터리는 늘 가득 채워주어야 해요. 사용하지 않을 때에는 가능한 안전한 곳에 보관해야하죠. 왜냐하면, 그 로봇에게 뭔가 일이 터지면 그 다음은 내 차례니까 누구도 그걸 원하지 않는 거죠.


다른 군인은 한 동료가 자신들의 로봇에게 사람 이름을 붙인 이유에 대해 설명했다:

임무 막바지가 되자 긴 시간을 부대 외부에서 보냈고, 우리는 트럭에서 주로 자야 했습니다. 주 5~6일을 트럭 안에서 잤죠. 세명이 한 트럭에서 자야 하는데 한 명은 앞좌석에 눕고, 다른 한 명
은 총신을 지키면서 잡니다. 중요한 물품들은 트럭 밖에 둘 수 없어요. 자물쇠를 단단히 채워놓아야 하죠. 그래서 막내가 트럭 가운데 묶어둔 탈론에 다니엘이라는 이름을 붙이고 밤에는 껴안고 잔거죠.


이들은 모두 로봇이 감정을 가진 살아있는 생명체가 아니라 도구에 불과하다는 점을 강조했다.

그럼에도 불구하고, 로봇은 이름을 가졌고 밤에는 안전하게 보호됐다. 그들 스스로 이런 사실을 농담거리로 삼았지만, 그 농담에는 약간의 불편한 느낌이 숨어 있었다. 카펜터가 인터뷰한 한 군인은 두 가지 감정 사이에서 방황하는 것 같았다.

그들은 소모품으로 제작됐고 감정을 가지지 않은 로봇에 신경을 쓴다는 것이 얼마나 말이 안되는지를 이해했다.

하지만 동시에, 그들은 아주 약간이나마 그 로봇에 신경이 쓰이는 감정을 경험하게 되는 것이다. 카펜터가 첫 인터뷰를 발표하자 그녀는 전장에서 로봇과 더 진한 교감을 느꼈던 남녀 군인이 연락을 해왔다.

 

한 전직 폭탄해체전문가는 이렇게 썼다:

폭발물 처리 전문가로 8년을 근무하며 세 번의 전쟁을 치른 저는 당신의 연구에 엄청난 흥미를 느낍니다.

나는 당신이 인터뷰한 다른 사람들처럼 로봇은 도구에 불과하며 눈앞에 어떤 위험이 있다 해도 그들을 그 위험 속으로 보낼 것이라는 데 동의합니다.


하지만, 2006년 이라크 전쟁 중 한 임무에서 나는 역시 폭발물 전문가인 아내의 이름을 따서 ‘스테이시4’라고 이름 붙인 로봇 하나를 잃었습니다. 그 로봇은 어떤 문제도 일으키지 않았던 훌륭한 로봇이었고 언제나 임무를 완벽하게 수행해냈죠.

스테이시4는 완전히 파괴돼 몇 조각의 부속 만을 찾을 수 있었습니다. 스테이시4의 파괴로 내가 느꼈던 분노와 여러 감정을 나는 지금도 기억합니다. 나는 정확하게 동료에게 이렇게 말했죠.

“내 아름다운 로봇이 죽었어...”

임무가 끝나고 나는 로봇의 파편을 최대한 모았고, 그녀를 잃었다는 사실에 눈물을 흘렸습니다. 가까운 가족을 잃은 느낌이었습니다.

그날 밤 나는 아내에게 전화를 걸어 이 사실을 이야기했지요. 바보같이 들릴 것이라는 걸 알고 있지만, 나는 여전히 그 사건을 생각하기 싫습니다. 나는 로봇들이 그저 기계라는 사실을 알고 있고, 이런 결과가 올 것임을 알아도 그때와 같은 결정을 할 겁니다.


나는 생명의 가치를 믿습니다. 진짜 인간들과의 교류가 중요하다는 것도 압니다. 하지만 내가 확실히 말할 수 있는 건, 지금도 나는 스테이시4를 그리워한다는 겁니다. 그녀는 좋은 로봇이었습니다.

팩봇이나 탈론처럼 얼굴이 없는 기계를 다룬 병사들이 이런 종류의 증언을 하고 있는 상황에서, 보고 듣고 만질 수 있으며 동료의 마음을 읽을 수 있는 옥타비아 같은 로봇이 전장에 나가게 된다면 병사들은 어떤 반응을 보일까?


로봇에게 감정을 주어야 하는지에 대한 윤리적 토론에서 우리는 이러한 기술이 로봇에게 어떤 영향을 미칠지를 주로 다룬다.

블레이드러너와 웨스트월드 같은 영화와 드라마는 감정을 느끼는 로봇이 그들을 노리개감으로 삼은 인간 때문에 받는 감정적 상처에 주목한다.


하지만 그 반대도 가능하다. 로봇과 교감을 느끼면서도 그 로봇을 죽음에 이르게 해야만 하는 이들 역시 감정적 상처를 입을 것이다.

이 문제를 더 복잡하게 만드는 것은, 옥타비아 같은 로봇이 인간의 감정을 느낄 수 있게 되었을 때, 그 감정은 처음부터 주어진 인지적 구조의 결과물에 그치지만은 않을 것이라는 사실이다.

로봇이 인간의 감정과 조금이라도 비슷한 무엇을 가진다면, 로봇은 그 세상에서 자신의 처지와 자신과 인간 동료들과의 관계라는 맥락이 반영된 감정을 가지게 될 것이다.


예를 들어, 로봇의 유일한 삶이 인간 동료에 의해 불 속으로 보내지는 것이거나 폭발물을 찾아 황량한 길을 굴러가는 것이라면, 그 로봇의 감정은 더 안전한 곳에 있는 로봇이나 인간의 감정과 같을 수 없을 것이다.

그 로봇이 지을 수 있는 감정 표현의 한계와 무관하게, 평생을 비인간적 상황에서 보낸 로봇의 감정은 비인간 적일 수 밖에 없을 것이다.

<본 기사는 테크M 제57(2018 1월) 기사입니다>

(주)테크엠주소 : 서울시 강남구 테헤란로2길 27, 10층 (역삼동, 비젼타워)대표이사.발행인 : 김현기편집인 : 허준개인정보보호책임자 : 김현기청소년보호책임자 : 허준
사업자등록번호 : 553-81-01725대표전화 : 070-4513-1460보도자료 및 제보 : press@techm.kr