2018년 3월 26일 월요일

EU의 인공지능 新규제메카니즘 설명가능 인공지능(XAI)

 뉴딜코리아 홈페이지 

EU의 인공지능 新규제메카니즘 설명가능 인공지능(XAI)




2018년 5월25일부터 발효되는 EU의 일반정보보호규정(GDPR) 내용중, 최근 이슈가 되고 있는 머신러닝 인공지능 관련된 규정의 내용과 시사하는 바를 요약, 정리하였습니다.

ㅇ 머신러닝 AI가 문제 해결능력이 뛰어나고, 빅데이터를 통한 효과적인 의사결정으로 비즈니스 활용 수요가 증가하는 한편,
- 알고리즘의 조작가능성, 의사결정의 편향성 등 부작용이 세상에 알려지면서 머신러닝 AI에 대한 신뢰성 문제가 제기

ㅇ EU는 적절하고 안전하며 신뢰할 수 있는 알고리즘 기능뿐만 아니라 기본 권리를 보장하기 위한 규제 메카니즘을 구축 - 정보주체가 인공지능의 의사결정에 대해 설명을 요구할 수 있는 권리를 법제화함으로써 AI규제에 대한 중요한 전환점으로 평가

ㅇ 이러한 안전장치의 핵심은 공정과 신뢰의 도덕적 원칙이 알고리즘을 통해 발현될 수 있도록 기업을 독려하는 것으로,
- 기업으로 하여금 공정한 알고리즘의 설계, AI윤리의 선포, 설명가능 AI 기술개발, 품질관리 등 자발적 규제준수 노력을 요구

Ⅰ. 개요
Ⅱ. EU의 ML/AI 신 규제 메카니즘
Ⅲ. 신뢰의 ML/AI를 향한 자발적 조치
Ⅳ. 시사점

본 보고서는 EU의 일반정보보호규정(GDPR) 보고서 및 , ‘Regulatory Mechanisms and Algorithms towards Trust in AI/ML, Eva Thelisson 등 3인 공저, 2017’ 논문을 요약․정리한 것으로 원문에 대한 저작권은 EU 및 논문 저작자에 있습니다.

작성 및 문의
- 정책본부 미래전략센터 김동현 수석(053-230-1288, kimdh@nia.or.kr)​

첨부파일 :
EU의 인공지능 新규제메카니즘: ‘설명가능 인공지능(XAI)


GDPR 컨설팅 & DPO교육
(070-7867-3721, ismsbok@gmail.com)


댓글 없음:

댓글 쓰기