본문 바로가기
컴퓨팅/IT·인터넷

AI 시대, 왜 윤리가 중요할까

by Cicadakorea 2018. 12. 5.

공정성-투명성 핵심…MS, '윤리적AI' 선

 

 

 

구글 인공지능(AI) 연구조직 '구글 브레인은' 지난 2016년 흥미로운 논문을 한편 발표했다. AI의 편견을 극복하는 방법을 주제로 한 연구 논문이었다.

 

이 논문에서 연구진은 AI가 편견을 가질 수 있다고 지적했다. 편향된 데이터로 편향된 판단을 내릴 위험이 충분하다는 경고였다. 한 걸음 더 나가 사람에게 영향을 미칠 수 있는 수많은 판단 결과로 누군가를 차별할 수도 있다고 봤다. 이런 차별 문제는 수학적 방법론만으론 해결할 수 없다는 견해를 제시했다.

 

요컨대 편향된 데이터를 근거로 한 AI의 판단은 공정하지 않다. 사람들에게 신뢰를 못 준다. 의심스러운 AI는 인간 사회에 융화할 수 없다. 이 상황이 바뀌지 않는 한, AI 개발과 활용은 현실적인 문제가 된다. 아직 주류 AI의 역할은 제한적이다.

 

단순한 정보 탐색 및 제공이나 일상적인 편의를 돕는 데 그친다. 당장 기업 환경의 거래와 계약, 인명을 다루는 의료, 법집행과 같은 영역에서 AI가 널리 쓰이지 못한다. 믿을 수 있는 데이터로 투명한 판단 과정을 거쳐 사람들에게 설명이 가능한, 이해될 수 있는 결과를 제공하는 AI가 개발, 보급되지 못해서다.

 

 

 

 

 

 

■ '편견을 갖는 AI'에 대한 공포

 

AI의 편향과 그로 인한 차별은 공상과학(SF) 세계 속 상상이 아니다. 먼 미래를 예견하는 우려는 더더욱 아니다. 지금 우리가 맞닥뜨리고 있는 현실이다. 예를 들어보자.

 

탐사보도 전문매체 프로퍼블리카의 2016년 5월 보고서 '기계 편향(Machine Bias)'은 범죄 전과자의 얼굴 이미지를 기반으로 '재범률'을 추론하는 AI 알고리즘을 테스트했다. 결과는, 백인에 비해 흑인의 재범률을 실제보다 훨씬 높게 추론하는 것으로 나타났다. AI가 판사 대신 수감자의 보석을 결정할 경우 '기계적 인종차별'을 야기할 수 있었다.

 

이런 위험성은 수감자라는 제한적인 집단에게만 해당되는 문제가 아니다. 광범위한 일반인에게도 멀지 않은 얘기다.

미국 스탠퍼드대학이 2017년 발표한 연구다. 온라인 데이팅사이트에 공개된 남녀 프로파일 사진을 보고 그 성적 지향성을 추론한 결과, 사람보다 정확했다. 성소수자 특질을 지닌 점만으로도 감수할 불이익이 존재하는 현실을 감안하면, 정확도를 차치해도 이런 연구방식 자체에 윤리적 문제의 소지가 있다.

 

AI의 편향, 차별, 윤리의 문제를 특정한 문화권이나 지역 안에 국한해 다룰 수만도 없다.

 

미국 국토안보부(DHS)는 지난해 6월 도널드 트럼프 미국 대통령의 행정명령에 따라 과거부터 수차례 '극단적 심사(extreme vetting)'라 불리는, 이민자와 방문자의 입국심사 절차에 머신러닝 기반 자동화 소프트웨어(SW) 도입을 검토해 왔다. 그해 11월 구글, 마이크로소프트(MS), MIT, 스탠포드, 뉴욕대, AI나우 등의 전문가 50여명이 공개적으로 그 위험성을 경고한 바 있다.

 

AI는 사람들과 더 많이 맞닿는, 그렇게 커 갈 존재다. 인간을 대신하거나 그를 도와 판단하고 결정하는 역할의 사례와 범주는 확장될 것이다. 그렇게 AI가 일상과 업무 흐름에, 사회문화적 환경 안에 더 녹아들수록, 윤리(Ethics) 문제는 떼려야 뗄 수 없게 될 것이다. 앞서 든 예시들처럼 윤리적 문제 소지가 있는 AI 동작 또는 기능 자체가 일견 공포스러운 측면을 띤다. 윤리적 AI라는 화두가 대두되는 배경이다.

 

IT거인 MS가 윤리적 AI의 중요성을 강조하고 나서는 움직임도 이 흐름과 무관치 않다. 일반인들도 MS의 제품을 이용하지만, MS의 기술을 활용하려는 기업과 그 기술의 가치를 더하는 개발자가 핵심 고객이다. MS는 개발자와 기업을 위한 AI 기술을 만들고 보급하면서 그들에게 AI 기술을 개발하고 활용할 때 염두에 둬야 할 얘기를 내놓고 있다.

 

 

 

 


지디넷코리아는 MS의 윤리적 AI를 비롯한 주요 IT기업들의 AI 관련 화두를 주제로 한 컨퍼런스를 개최한다. 오는 12월 12일 서울 포시즌스호텔에서 진행하는 '아시아테크서밋(ATS) 2018'이다. 오전 키노트로 '윤리적 AI'와 관련된 MS의 박선정 아태본부 정책협력법무실 지사장의 발표가 예정돼 있다. ATS 2018의 자세한 프로그램을 링크로 확인할 수 있다. [☞ATS 2018 안내 바로가기]

 

그간 MS는 윤리적 AI라는 화두를 어떻게 다뤄 왔을까.

 

지난 7일 방한한 사티아 나델라 MS 최고경영자(CEO)는 자체 AI 컨퍼런스 '퓨처나우' 기조연설 자리에서 AI를 다루는 연구자, 개발자, 기업 등 결과물을 만들어내는 주체의 책임있는 인식을 촉구했다. 그는 "AI 기술과 업계의 사례를 보면서, 기술이 초래할 결과를 깊이 이해해야 한다"며 "언어를 훈련하는 AI는 사람의 편견도 함께 배우므로, 그런 편견을 없애야 한다"고 강조했다.

 

■ "책임을 받아들이세요"…MS 대화형 AI 개발자를 위한 지침

 

MS는 내부 윤리위원회를 설치하고 윤리적 문제를 일으킬 위험을 낮출 수 있는 견고한 AI 모델을 만들도록 돕고 있다. 이는 지난 14일 MS 본사의 '책임지는 봇: 대화형 AI 개발자를 위한 10가지 지침(Responsible bots: 10 guidelines for developers of conversational AI)' 발표로 이어졌다. 이는 AI 챗봇을 개발하는 이들이 인식해야 할 윤리적 지침을 정리한 가이드라인이다.

 

영어로 작성된 MS의 가이드라인은 핵심이 되는 10가지 주제와 각 주제별 세부 요령으로 구성돼 있다. 각 주제를 한국어로 옮겨 보면 ▲봇이 중대한 사용사례를 지원한다면 그 목적을 명시하고 주의를 기울이라 ▲제품 또는 서비스 일부로 봇을 사용하고 있다는 사실을 명확히 드러내라 ▲봇의 역량을 넘어서 발생하는 상호작용을 인간에게 매끄럽게 넘기도록 하라 ▲봇이 적절한 문화규범을 존중하고 오용을 방지하도록 설계하라 ▲봇을 믿음직스럽게 만들라 ▲봇이 사람들에게 공평하게 만들라 ▲봇이 사용자 프라이버시를 존중하게 하라 ▲봇이 데이터를 보안상 안전히 다루게 하라 ▲봇을 접근성있게 보장하라 ▲책임을 받아들이라 등의 메시지다.

 

마지막 '책임을 받아들이라'는 지침이 눈길을 끈다. 개발자에게 직접 뭔가를 요구하는 유일한 항목이기 때문이다. 아무래도 MS는 AI의 윤리에 얽힌 문제 중에서도 그걸 만든 주체의 책임에 관심이 높은 듯하다. 어쩌면 MS는 책임성을 윤리와 불가분 관계로 보고 윤리적AI라는 화두를 끌고 가는 분위기다.

 

챗봇, 또는 대화형AI는 앞으로 범용화할 AI시스템의 실질적인 사례 중 하나일 뿐이다. 결국 대다수 AI시스템이 이런 규범을 갖추도록 요구받을 공산이 커 보인다. 결과의 책임소재 인식을 AI를 만드는 출발선으로 삼으라는 얘기가 대화형AI 개발자를 위한 10가지 지침의 함의다.

 

이는 기술적인 요구사항에 앞서 윤리적인 조직의 의지가 윤리적 AI의 선결조건이라는 말로도 이해된다. 대부분의 맥락에서 윤리적 AI의 개념 자체는 여전히 추상적이 수준이지만, AI나 알고리즘의 책임이 윤리와 밀접하게 맞닿아 있다는 인식은 학계와 산업계에서 확산 추세다.

 

 

 

 

 

자율주행차, 진단과 처방을 수행하는 의료서비스, 개인 및 기업간 거래 중개, 보험과 대출을 비롯해 금융상품 제공을 위한 신용평가 등에 AI시스템을 접목하는 것은 기술적으로 이미 현실화 가능한 단계다. 관건은 이런 AI를 도입했을 때의 문제를 어떻게 처리할 것이냐다.

 

기업 환경에서, 비즈니스 생태계에서 책임은 결국 법과 연결된다. 발생한 문제의 책임을 지는 주체가 사전에 문제를 최소화할 충분한 노력을 기울였는가, 사후에 벌어진 문제의 피해를 복구하거나 배상해야 한다면 그 부담을 누가 얼마나 져야 하는가가 모두 법에 의한 판단을 전제한다. 윤리적 AI란 화두를 MS의 연구진과 기술담당자뿐아니라 법무실 소속의 임원들까지 나서서 강조하는 이유를 짐작할만한 대목이다.

 

MS의 '퓨처 나우' 행사는 나델라 CEO와 다른 연사들의 키노트 후 '혁신과 책임의 조화, AI 윤리를 말하다'라는 패널토의로 이어졌다. 지디넷코리아 ATS 컨퍼런스에 기조연설자로 참석할 박선정 지사장이 이 패널토의의 사회를 맡았다. 그가 컨퍼런스에서 MS의 윤리적 AI와 관련된 화두를 어떻게 풀어낼지 지켜볼 만하다. ATS 2018의 자세한 프로그램을 링크로 확인할 수 있다. [☞ATS 2018 안내 바로가기]

 

■ AI 윤리, 책임, 설명가능성…공공•학계에서 기업으로 넘어온 화두

 

MS는 대화형 AI 개발자를 위한 10가지 지침 발표에 앞서 올해 1월 AI 기술 관련 6가지 윤리적 원칙(ethical principles)을 정의했다. 공정성(Fairness), 포괄성(Inclusiveness), 신뢰성 및 안전(Reliability & Safety), 투명성(Transparency), 프라이버시 및 보안(Privacy & Security), 책임성(Accountability)이다. MS는 이 원칙을 정부, 학계, 기업, 시민사회가 AI 기술을 개발하고 활용할 때 적용해야 한다고 봤다.

 

MS의 6가지 윤리적 원칙 중에서도 마지막 항목인 책임성에 무게가 실린다. 특히 MS가 말하는 책임은 문제가 생기고 난 뒤에 그걸 만든 사람이 질 책임에 앞서, AI시스템에 갖춰야 할 알고리즘적 책임(algorithmic accountability)이다.

 

 

 

 

 

알고리즘적 책임은 지난해 미국의 컴퓨터학회(ACM) 미국 공공정책이사회(U.S. Public Policy Council)와 ACM 유럽정책위원회(Europe Policy Committee)가 낸 성명서의 핵심이었다.

 

ACM 성명서에 담긴 알고리즘적 책임도 AI 시스템 구현 시점의 7대 원칙으로 구성된다.

 

첫째는 알고리즘이 사용되고 있음을 충분히 알리고 가능하면 그 사용법도 공지하는 '인지가능성(Awareness)'이다. 둘째는 알고리즘에 대한 조사가 원칙적으로 가능해야 하고 오류 및 잘못된 의사결정에 대한 수정 지침을 사전에 제공하는 '접근 및 교정(Access and Redress)'이다. 셋째는 알고리즘 구현과 운영 담당 주체를 명확히 하고 책무(responsibility)를 부여하는 '책임성(Accountability)'이다. 넷째는 인간이 이해할 수 있는 수준으로 작동원리를 설명할 수 있어야 한다는 '설명(Explanation)'이다. 다섯째는 알고리즘의 올바른 작동을 위한 충분한 데이터를 확보하고 출처 기록과 무결성을 제공하는 '데이터출처(Data Provenance)'다. 여섯째는 로그와 작동기록을 남겨 감사와 분쟁해결을 가능케하는 '감사가능성(Auditability)'이다. 일곱째는 알고리즘 성능 평가방식을 제공하고 적절한 방식으로 검사가 가능케하는 '검증 및 시험(Validation and Testing)'이다.

 

ACM 성명서의 요구사항에서 책임성과 함께 감사가능성 및 설명과 같은 측면을 더 강조한 AI시스템을 미국 방위고등연구계획국(DARPA)에서 추진하고 있는 '설명가능한 인공지능(XAI)'으로 볼 수도 있다. XAI 프로그램은 AI시스템의 예측정확성과 같은 학습 성능을 고수준으로 유지하면서 더 설명력있는 모델을 갖춘 머신러닝 도구를 만드는 것, 이를 통해 인간 사용자가 협력상대인 AI를 이해하고, 신뢰하고, 효율적으로 관리할 수 있게 돕는 것이 목표다.

 

IBM은 왓슨 AI 기술을 활용해 기업들이 XAI 프로그램의 목적을 실제 비즈니스 환경에서 달성할 수 있게 유도하고자 한다. 지난달 'AI 오픈스케일(OpenScale)'이란 AI 편향 검증 플랫폼을 내놓고 IBM 클라우드 기반으로 XAI 구현 효과를 제공할 계획이라는 뉘앙스로 소개 중이다. 마침 IBM 체탄 크리시나무르티 아시아태평양 지역 왓슨비즈니스 총괄 임원이 ATS 2018 키노트 연사로 참석해, 기업에게 신뢰와 투명성을 보장하는 AI 활용 전략을 발표할 예정이다. ATS 2018의 자세한 프로그램을 링크로 확인할 수 있다. [☞ATS 2018 안내 바로가기]