바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

지능정보 윤리 가이드라인에 ‘킬 스위치’ 조항 포함된다

정부, 관련 가이드라인 1분기 중 발표

2018-01-03강진규 기자

정부가 준비 중인 지능정보사회 윤리 가이드라인에 지능정보 기술 개발 시 '절대적 동작 중지' 일명 ‘킬 스위치’ 기능을 만들어야 한다는 내용이 담길 것으로 알려졌다. 또 가이드라인에는 사회적 차별요소를 배제한 인공지능 기술 개발, 악의적인 인공지능 이용 금지, 은닉기능 개발 금지 등의 내용이 포함될 전망이다.

3일 정부 관계자들에 따르면 과학기술정보통신부는 최근 지능정보사회 윤리 가이드라인 초안을 만들어 관련 기관들과 논의 중이다. 과학기술정보통신부 관계자는 “지난 12월 내부적으로 검토를 한 후 4차산업혁명위원회 등과 내용을 논의하고 있다”며 “올해 1분기 중 가이드라인을 발표할 수 있을 것으로 예상하고 있다”고 말했다.

지능정보사회 윤리 가이드라인에 어떤 내용 담기나

테크엠이 입수한 지능정보사회 윤리 가이드라인 초안에 따르면 정부는 4대 원칙을 규정하는 방안을 논의하고 있다. 4대 원칙은 ‘공공성’, ‘책무성’, ‘통제성’, ‘투명성’이다. 공공성은 지능정보기술이 많은 사람들에게 도움을 주고 그 혜택이 인류에 돌아가야 한다는 것이다. 책무성은 지능정보기술과 서비스로 인한 사고의 책임을 명확히하고 사회적 의무도 충실히 따라야 한다는 내용이다.

통제성은 지능정보기술과 서비스에 대한 인간의 제어 가능성과 오작동 대비책을 미리 마련해야 한다는 뜻이다. 투명성은 기술개발, 설계 등의 과정에서 이용자의 의견이 반영돼야 하며 위험에 관련된 정보는 공개, 공유해야 한다는 원칙이다.

지능정보사회 윤리 4대 원칙

정부는 4대 원칙별로 개발자, 공급자, 이용자가 지키고 참고해야할 세부 사항도 마련하고 있다. 초안에 포함된 내용에는 그동안 우려했던 사안에 대한 대비책이 포함됐다.

우선 통제 불가능한 인공지능 출현을 막기 위해 가이드라인 초안에는 개발자가 개발단계부터 인공지능 알고리즘의 기술적 오작동 및 위험에 대한 절대적 동작 중지 기능 등을 마련해야 한다고 지적하고 있다. 또한 이같은 제어 가능성을 유지하기 위해 지속적인 제품 관리가 필요하다는 내용도 있다.

기술과 서비스 공급자는 제품 유통 전에 위험 요소를 파악할 수 있도록 철저히 사전 검증을 해야 하며 인간이 기계의 선택을 거부할 수 있는 장치도 마련해야 한다. 공급자는 위험한 정보를 인지할 경우에는 이용자는 물론 일반인들에게 정보를 공유해야 한다.

인공지능의 악의적 사용을 막기 위한 내용도 담길 예정이다. 개발자는 이용자의 사생활 침해나 안전을 위협할 수 있는 은닉기능을 개발해서는 안 된다. 공급자는 선한 의도를 갖고 세비스 개발을 기획, 발주해야 하며 이용자도 지능정보기술과 서비스를 악의적인 목적으로 사용하지 말아야 한다.

인공지능 확산으로 인한 차별과 소외문제에 대한 내용도 가이드라인에 담길 전망이다. 초안에는 기술 개발 시 성, 인종, 종교, 지역, 민족 등으로 인한 차별을 배제할 수 있도록 해야 한다는 내용이 수록돼 있다. 또 사회적 약자 및 취약계층 등의 접근성이 보장돼야 하며 공급자는 공공의 이익에 부합되는 제품을 공급해야 한다.  

이밖에도 이용자 보호와 권리에 대한 부분과 공공 이익에 관한 내용들이 가이드라인에 담길 예정이다.

정부는 우선 가이드라인을 만들어 공개하고 향후에는 세부 내용별로 보완 방안도 내놓을 것으로 보인다. 정부는 인공지능의 올바른 활용을 위한 법제도 등을 마련하는 방안도 고민하고 있다. 법제도 마련은 가이드라인의 원칙을 기반으로 전문가, 이용자 등의 의견을 수렴해 추진될 전망이다.

인공지능의 급격한 확산과 우려

정부가 이같은 가이드라인을 만들게 된 것은 인공지능 확산에 따른 우려 때문이다. 과거 인공지능은 공상과학(SF) 영화 속 이야기로 치부됐다. 하지만 최근 수년 사이 인공지능이 급격히 발전하고 실생활에도 적용되고 있다. 

2016년 구글 인공지능 알파고는 바둑기사 이세돌 9단을 4대1로 이겼으며 2017년에는 중국 커제 9단과 세 번의 대결에서 모두 승리해 충격을 줬다. 인공지능은 점차 현실 속으로 녹아들고 있다. 우리가 들고 다니는 스마트폰 속 음성인식 서비스에 인공지능 기술이 적용되고 있다. 가정에는 인공지능 스피커가 놓이고 있으며 카카오톡으로 인공지능 챗봇과 대화를 하고 있다. 앞으로는 의료, 자율주행차, 스마트가전, 드론 등에 인공지능이 활발히 적용될 것으로 예상된다.

스티븐 호킹 박사

인공지능 확산 만큼 우려도 높아지고 있다. 지난해 11월 2일(현지시간) 영국 BBC는 세계적인 물리학자 스티븐 호킹 박사가 인공지능의 위험성을 경고했다고 보도했다. 호킹 박사는 BBC와 인터뷰에서 “완전해진 AI는 인류가 멸망을 초래할 수 있다”며 “효과적인 인공지능을 만드는 것은 우리 문명사에서 가장 큰 사건이 될 수도 있고 최악의 사건이 될 수도 있다. 우리는 AI로부터 큰 도움을 받을지, 그것에 의해 옆으로 밀려나거나 파괴될지 아직 알 수 없다”고 말했다.

엘론 머스크 테슬라 최고경영자(CEO)도 꾸준히 AI의 위협을 경고하고 있다. 미국 워싱턴포스트는 지난해 8월 20일(현지시간) 머스크 CEO가 세계 26개국 IT 및 로봇 전문가 116명과 유엔(UN)에 인공지능이 적용된 킬러 로봇을 금지할 것을 촉구했다고 보도했다.

이어 9월 4일(현지시간) 머스크 CEO는 자신의 트위터를 통해 “북한(핵 위협)은 현존하는 문명 위기의 우려 목록들 중 하단에 위치해야 할 것”이라며 ”나의 견해로는 국가 차원의 AI 우월성 경쟁이 3차 세계 대전의 원인이 될 가능성이 크다“고 주장했다.

이에 따라 다양한 대응 방안이 마련되고 있다. 2017년 1월 6일 미국 캘리포니아 아실로마에서 열린 인공지능 콘퍼런스에서 2300명이 넘는 전문가들이 발표한 ‘아실로마 인공지능 원칙(Asilomar AI Principles)’이 대표적이다. 23개로 구성된 이 원칙은 안전, 투명성, 책임, 사생활 보호, 이익의 공유, AI 무기경쟁 방지 등에 대한 내용을 담고 있다.

또 지난해 초 유럽연합(EU) 의회는 AI 로봇의 법적 지위를 ‘전자 인간(Electronic Person)’으로 인정하는 결의안을 의결했다. EU는 결의안에 AI 로봇이 인류에 도움을 줄 수 있어야 한다는 기술적, 윤리적 기준을 담았으며 킬 스위치 기능도 제안했다.

한국도 세계적인 흐름에 맞춰 가이드라인을 내놓은 것이다. 전문가들은 가이드라인이 필요한 것에 대해서 인정하고 있다. 한 인공지능 연구자는 “가이드라인을 만들고 원칙을 정하는 방향성이 맞다고 생각한다”고 말했다. 다만 가이드라인이 선언적인 의미에 그쳐서는 안 되며 인공지능 기술 발전, 적용 확산에 따라 발전하며 인공지능 개발의 나침반이 돼야 한다는 지적이다.

[테크M = 강진규 기자(viper@techm.kr)]  

(주)테크엠주소 : 서울시 강남구 테헤란로2길 27, 10층 (역삼동, 비젼타워)대표이사.발행인 : 김현기편집인 : 허준개인정보보호책임자 : 김현기청소년보호책임자 : 허준
사업자등록번호 : 553-81-01725대표전화 : 070-4513-1460보도자료 및 제보 : press@techm.kr