바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

스스로 학습하는 AI, 통제할 수 있을까?…MIT에 OECD 정책 담당자들이 모인 이유

미국이나 중국에서만 AI 규범 필요한 것 아냐…모든 나라 아우르는 표준 필요

2019-01-25곽예하 기자

지난주 MIT에서는 OECD 정책책임자들이 AI규범을 세우는데 도움을 주기 위한 할 아벨슨 교수의 강연이 진행됐다. (사진은 본 강연과 무관)

지난주 MIT 캠브리지 캠퍼스에서 강연을 하는 할 아밸슨(Hal Abelson) 교수 모습은 유독 긴장돼 보였다. MIT에서 저명한 컴퓨터 과학자로 평가받고 있는 아밸슨 교수가 이날 강연한 주제는 평소와 같이 인공지능(AI)이었다. 하지만 학생들이 달랐다. 경제협력개발기구(OECD) 36개국에서 온 고위 정책책임자들이 강연을 들었다.

20일 뉴욕타임즈는 지난주 MIT에서 3일간 진행한 AI 토론회 중에서 아밸슨 교수 강연을 소개했다. 강연은 올해 여름까지 AI관련 권고안 합의를 준비하고 있는 OECD 전문가들을 위해 마련했다.

아밸슨 교수는 1950년대부터 이어진 머신러닝 역사를 소개하는 것으로 강연을 시작했다. 다음으로는 AI 작동 원리에, 실제 프로젝트 연구 사례를 소개했다. 이날 그의 목표는 프랑스와 일본, 스웨덴 같은 나라에서 온 정책 책임자들에게 AI의 강점과 약점을 설명하고, AI 발전을 위해서는 사람 역할이 중요함을 강조하는 것이었다.

어떤 이는 AI가 국가 번영에서 필수 요소라고 주장하는 반면, 한편에서는 일자리를 없애고 인류를 위협하는 존재가 될 것이라고 경고한다. 이러한 양면성이 AI관련 규범을 설립하기 까다로운 이유이기도 하다.

OECD 전문가들이 이번 강연을 듣고 돌아가 AI관련 선언을 한다고 해도, 이것이 모든 국가에서 법 제정으로 이어지는 것은 아니다. 하지만 뉴욕타임즈는 이것이 많은 국가에게 하나의 ‘표준’을 제시할 수 있다는 점에서 의미가 크다고 말했다.

앤드류 와이코프 OECD 과학기술 혁신 이사는 “이번 기회에 우리 기관이 앞장서서 세계 국가들에게 일종의 정책 일관성을 제시할 수 있기를 희망한다”고 말했다.

이날 강연장에서는 크게 3가지 의견이 나왔다.

첫째는 ‘AI안전성과 번영을 위해 규제는 꼭 필요하다’는 의견에 모든 전문가가 동의했다. 현재 머신러닝 시스템은 수없이 많은 복잡한 데이터를 소화하고 있다. 따라서 사람이 AI가 어떤 경로로 결정을 내리는지 일일이 분석하는 것은 불가능하다고 전문가들은 설명했다.

그럼에도 의사보다 더 암을 잘 진단하는 AI가 있다면 이를 사용해야 할까? 라는 질문에 레지나 바질레이 MIT 컴퓨터 과학자는 “답은 매우 분명하다. 사용해야 한다”고 강조했다. 하지만 AI가 점점 더 많은 결정을 내리는 것은 불편한 일이 될 수 있다고 말했다. 그는 “대중을 안심시킬 실질적인 규칙 마련이 우리 삶에 AI를 채택할 수 있는 유일한 길”이라고 말했다.

둘째로 전문가들은 ‘AI 규범을 만들고 싶은 것은 강대국뿐만이 아니다’라고 주장했다. 많은 나라들이 ‘새로운 규제’는 곧 ‘성장 지연’과 연결된다고 생각하는 경우가 많다. 하지만 이날 전문가들은 AI 규범을 세우는 것이 AI 성장을 막는 것은 아니라고 강조했다.

그리고 이들은 모든 나라가 이런 흐름에 동참하길 원한다고 말했다. 프랑스와 캐나다가 좋은 예시가 될 수 있다고 설명했다. 전문가들은 프랑스와 캐나다가 명백한 AI전략을 가지고 있고, 이 기술을 성장 동력으로 여겨 차세대 연구자들을 교육하고 모집하는데 적극적인 나라라고 소개했다.

 

캐나다 고등 연구소(Canadian Institute for Advanced Research)에서 AI 전략을 담당하는 엘리사 스트롬은 “머신러닝은 파괴적인 기술”이라며 “에너지, 환경, 교통, 헬스케어 같은 분야에 머신러닝이 활용할 수 있는 큰 기회가 있다”고 말했다.

전문가들은 국제적으로 AI정책을 세우면, 그동안 미국이나 중국 같은 AI강국에게만 규제가 필요한 것처럼 여겨졌던 생각을 깰 수 있을 것이라고 말했다. 배트랜드 팔리헤스 프랑스 AI전략 담당 국가 조정자는 “어떤 나라에는 중국이나 미국과는 다른 형태로 개발하는 새로운 AI모델이 있을 수 있다”고 말했다. 이에 전체를 아우르는 국제 표준이 필요하다는 설명이다.

마지막으로 전문가들은 ‘AI정책은 곧 데이터 정책’이라고 의견을 모았다. AI발전에서 높은 수준의 컴퓨터 알고리즘을 개발하는 것도 중요하지만 결국 중요한 것은 데이터라고 설명했다. 스마트폰과 웹, 각종 센서 등으로 수집하는 데이터는 AI에게 ‘산소’와도 같다고 말했다.

MIT 안토니오 토랄바는 “데이터 접근은 과학 발전에서 가장 중요한 요소”라고 말했다. 그는 개인 정보보호와 책임에 관한 규정이 마련되지 않는다면 데이터는 공유되지 않을 것이고, 이는 의료나 헬스케어 같은 분야 발전을 막을 것이라 설명했다.

그러나 데이터 중심 AI가 때론 위험을 증폭시킬 수도 있다. 예를 들어 흑인 여성 얼굴을 인식하지 못하는 AI 소프트웨어가 있는가 하면, 미국 법정에서 사용되고 있는 AI 프로그램이 아프리카계 미국인들을 차별하는 결정을 내려 논란이 되기도 했다.

전문가들은 이런 경우 문제는 데이터에 있다고 말했다. 애초 AI에 입력된 데이터에 편견이 담겨있었기 때문에 편향적인 판단을 내리게 됐다는 것이다.

캐롤 로즈 매사추세츠 시민 자유 연합 전무이사는 “우리는 인종차별적 결정을 내리는 지금의 AI 시스템을 더 부추길 것인가, 아니면 내재된 편견을 없애기 위해 노력할 것인가?”라고 질문을 던졌다.

새로운 기술을 설계할 때, 그리고 새로운 정책을 세우고자 할 때 공통으로 생각해봐야 할 질문이 있다. 아밸슨 교수는 “정책을 만드는 여러분이 꼭 생각해야 하는 것이 있다”며 “지금 누가 학대받고 소외되고 있는가?”라고 말했다.

 

[테크M = 곽예하 기자(yeha1798@techm.kr)]

(주)테크엠주소 : 서울시 강남구 테헤란로2길 27, 10층 (역삼동, 비젼타워)대표이사.발행인 : 김현기편집인 : 허준개인정보보호책임자 : 김현기청소년보호책임자 : 허준
사업자등록번호 : 553-81-01725대표전화 : 070-4513-1460보도자료 및 제보 : press@techm.kr