2018년 3월 26일 월요일

EU의 알고리즘 규제 이슈와 정책적 시사점

 뉴딜코리아 홈페이지 




▣ EU의 알고리즘 규제 이슈와 정책적 시사점

최근 인공지능 기술ㆍ서비스가 크게 확산되면서 정보의 생산과 유통 주체가 사람이 아닌 인공지능 알고리즘에 의해 가능해지기 시작했다.

그런데 인공지능의 산업적 편익 못지 않게 그것에 대한 반작용으로 인공지능의 기술적ㆍ사회적 부작용이나 역기능에 대한 규범적 대응, 예컨대 ‘알고리즘 책무성(algorithmic accountability)’ 또는 ‘알고리즘 투명성’을 규범화하려는 논의도 활발하게 전개되고 있다.

그러한 논의의 출발점은 인공지능 알고리즘이 공정하고 중립적인 것이 아니라 특정한 알고리즘의 선택이나 알고리즘 기반의 의사결정이 차별적 ㆍ배제적인 결과를 초래한다는 데 있다.

예컨대 최근 미국 대선에서도 논란이 있었듯이, 구글이나 페이스북의 추천 및 검색 알고리즘이 정치적으로 편향된 여론 형성을 초래할 수도 있다는 우려인 셈이다.

그래서 올해 미국 오바마 행정부는 널리 상용화된 빅데이터 분석 알고리즘이 사회적 편견과 왜곡, 특히 성차별, 인종 차별의 문제를 야기시킬 수 있음을 경고하기도 했다.

따라서 알고리즘도 인간의 판단이나 선택에 의해 구성되므로 편향성, 차별성을 내포할 수밖에 없기 때문에 알고리즘 설계ㆍ개발 및 활용과정 전반에 대한 규제의 필요성이 자연스럽게 제기된다.

알고리즘규제(algorithmic regulation)와 관련한 본격적 논의는 최근 유럽연합 (EU)의‘개인정보보호규정(GDPR: General Data Protection Regulation)’이 알고리즘 투명성(algorithmic transparency)과 관련해서 프로파일링(profiling) 등 자동화된 개인적 의사결정에 대해 ‘설명을 요구할 권리(right to explanation)’를 적극 포함한 데서 비롯되었다.

알고리즘이 단순히 자동화되어 작동하는 ‘기계의 영역’이 아니라 ‘공공의 영역’에서 사회적 감시와 규제를 받아야 하는 존재로써 부각되기 시작한 셈이다.

EU GDPR의 ‘설명을 요구할 권리’ 규정은 인공지능 시대 알고리즘규제의 중요한 전환점을 제공한 것으로 평가 받는데, 본고는 이 ‘설명을 요구할 권리’를 중심으로 최근 EU의 알고리즘 규제 이슈 및 그 정책적 시사점을 검토하고자 한다


◆ 알고리즘 기반 사회의 도래

○ 자동화, 무인화로 특징지어지는 인공지능(AI) 기술의 급격한 진전은‘알고리즘(algorithm)’으로 대표되는 소프트웨어 주도형 사회로의 변화를 가속화시킴

- 예컨대 검색ㆍ추천 알고리즘이 디지털 상품의 거래구조를 근본적으로 변화시키고, 알고리즘에 의한 노동대체도 가속화되는 등 알고리즘의 사회경제적 영향력이 급증하고 있음

- 실제로 알고리즘이 이용자의 행위를 기반으로 음악, 방송, 영화 등의 상품이나 서비스를 추천, 선택하는 경우도 늘어나고 있음

- 심지어 ‘로봇 저널리즘’의 예와 같이 저널리즘 영역에서도 뉴스 콘텐츠를 알고리즘(기계)이 자동화하여 생산, 유통하는 사례도 급증 하고 있음(오세욱, 2016)


○‘알고리즘’이란 “컴퓨터 혹은 디지털 대상이 과업을 수행하는 방법에 대한 설명으로 명확히 정의된 한정된 개수의 규제나 명령의 집합”(Goffey, 2008: 15)으로 정의됨

- 즉 특정한 값(value)이나 값의 집합을 받아 처리해 또 다른 값이나 값의 집합을 내놓은 사전에 잘 정의된 계산 절차, 즉 ‘데이터를 처리하는 규칙’이라고 할 수 있음(오세욱ㆍ김수아, 2016: 17)

- ‘코드는 법(Code is Law)’이라는 로렌스 레식(Lessig, 1999)의 명제가 있듯이, 알고리즘도 우리가 접하는 정보의 취사선택 및 의사결정에 큰 영향을 미친다는 점에서 일종의 ‘미디어 프레임(media frame)’으로 기능함 (최수진, 2016)


○ 그런데 알고리즘의 사회경제적 활용이 급증하고 있지만 알고리즘이 과연 공정하고 중립적이고 객관적인가에 대한 문제들이 지속적으로 제기되고 있음

- 알고리즘이 내리는 자동화된 의사결정에는 우선순위 결정, 분류, 관련짓기, 필터링이라는 과정(Diakopoulos, 2015, 2016)이 존재하는데, 이 과정이 인간 개입에 따른 오류와 편향성, 검열의 가능성 등 본질적으로 차별적인 성격을 내포하기 때문임

- 알고리즘은 정의된 명령에 따라서만 작동하는 것이 아니라 이용하는 사람 혹은 객체와의 상호작용 속에서 끊임없이 수정 및 조정 되므로 인간(소프트웨어 개발자)의 편견이나 선입견이 반영될 가능성 상존

- 특히, 알고리즘은 과거로부터 쌓여온 데이터를 학습하면서 인종차별, 성차별 등 역사적 편향성을 반영할 가능성도 매우 높음

- 이와 관련해서 지난 2016년 5월, 미국 백악관은 ‘빅데이터: 알고리즘 시스템, 기회와 시민권(Big Data: A Report on Algorithmic Systems,Opportunity, and Civil Rights)’이라는 제목의 보고서에서 알고리즘이 4가지의 편향된 데이터를 반영할 가능성을 제기


○ 따라서 인공지능, 로봇, 소프트웨어의 숨은 명령어로서의 알고리즘에 의한 비의도적인 차별성, 편향성, 편협성 등의 같은 윤리적, 정치사회적 문제가 계속 발생

-  (인종차별) 2016년 7월, 인공지능을 활용한 온라인 국제미인대회에 출전한 참여자들의 프로필 사진을 심사하는 인공지능 프로그램 ‘뷰티닷에이아이(Beauty.AI)’가 백인을 제외한 유색인종 여성들을 전혀 입선하지 않았던 사건(Levin, 2016)

-  (알고리즘 조작) 지난 2016년 5월, 미국의 IT매체 ‘기즈모도’가 페이스북이 특정 미국 대선후보를 낙선시키기 위해 자신의 뉴스편집 서비스‘트렌딩 토픽’의 알고리즘을 조작했다는 의혹을 제기한 사건(Nunez, 2016)

- (미국 대선 여론 조작) 기계학습의 알고리즘적 편견이 반영된 개인 추천 시스템(personal reccommendation system)이 미국 대통령 선거후보자에 대한 유권자들의 선택에 영향을 미쳤다는 주장도 제기(Polonski, 2016)

※ 예컨대 미국 대선동안 유투브의 인공지능 동영상 추천시스템이 80% 이상의 동영상을 트럼프 후보에 우호적인 결과물로 검색, 추천하였는데, 이 추천의 대부분이 가짜 뉴스(fake news)에 의한 추천인 것으로 밝혀짐(Chaslot, 2016).

- (인터넷 극단주의) 최근 가디언(The Guardian)지는 구글의 검색 및 자동완성 알고리즘이 극우적 편견을 포함한 허위정보를 확산시키는 극우집단의 디지털 수단으로 악용될 우려를 경고하기도 했음(Solon & Levin, 2016).


○ 알고리즘을 구축하는 단계에서 개발자의 성향과 판단, 사회적 풍토, 외적인 압력이 개입되기 때문에 알고리즘은 편향적일 수밖에 없으며, 기술적이든 제도적이든 알고리즘의 책임성, 공정성, 투명성을 제고하기 위한 사회적 제어 노력이 요구됨

- 알고리즘은 사회적 상호작용과 독립된 것이 아니라 그 자체가 사회적 상호작용의 한 기능이므로, 사용자들의 피드백이 어떻게 시스템에 선입견이나 편향을 주입하는지에 대한 철저한 고려가 필요

- 그래서 미국 정부는 잘못된 데이터를 학습한 빅데이터 알고리즘의 부작용(차별, 편견, 배제 등)을 우려하고 이에 대한 정책 대응의 필요성을 역설(FTC, 2016.1; Executive Office of the President, 2016.5)

- 최근 독일의 메르켈 총리도 알고리즘 투명성의 결여는 우리의 인식을 왜곡시키고 토론문화와 공론장을 위험에 빠트릴 수 있다며 경고한바 있음(Conolly, 2016)

- 특히 유럽연합(EU)은 개인정보보호 차원에서 알고리즘 규제를 제도화 하려는 노력을 적극 추진하고 있는데, 지난 2016년 4월 개인정보의 수집, 저장, 사용에 대한 포괄적인 규제를 담고 있는 법안인 ‘개인정보보호 규정’(General Data Protection Regulation, Regulation (EU) 2016/679, 이하 ‘GDPR’)4)을 발표

- EU의 GDPR은 머신러닝이나 의사결정 알고리즘 등 새로운 IT기술에 대비하기 위한 규제의 일환으로 정보주체에게 알고리즘 의사결정에 대해 ‘설명을 요구할 권리(right to explanation)’를 제안

- 본 고는 EU의 알고리즘 규제를 가장 체계적으로 정리한 것으로 평가받는 굿맨과 플랙스맨(Goodman & Flaxman, 2016)의 논의를 중심으로 그 내용을 검토하고자 함(Goodman & Falxman, 2016)5)

- 이러한 알고리즘 규제의 흐름은 이제 알고리즘이 단순히 자동화되어 작동하는 ‘기계의 영역’이 아니라 ‘공공의 영역’에서 사회적 감시와 비판을 받아야 하는 존재임을 시사함(최수진, 2016)


☞ 추가 상세내용은 첨부파일을 참고 바랍니다

▶ 이 원 태(정보통신정책연구원 연구위원)
GDPR 교육 및 컨설팅 | ISMS 인증 컨설팅
(070-7867-3721, ismsbok@gmail.com)



댓글 없음:

댓글 쓰기