EU의 인공지능 新규제메카니즘 설명가능 인공지능(XAI)
ㅇ 머신러닝 AI가 문제 해결능력이 뛰어나고, 빅데이터를 통한 효과적인 의사결정으로 비즈니스 활용 수요가 증가하는 한편,
- 알고리즘의 조작가능성, 의사결정의 편향성 등 부작용이 세상에 알려지면서 머신러닝 AI에 대한 신뢰성 문제가 제기
ㅇ EU는 적절하고 안전하며 신뢰할 수 있는 알고리즘 기능뿐만 아니라 기본 권리를 보장하기 위한 규제 메카니즘을 구축 - 정보주체가 인공지능의 의사결정에 대해 설명을 요구할 수 있는 권리를 법제화함으로써 AI규제에 대한 중요한 전환점으로 평가
ㅇ 이러한 안전장치의 핵심은 공정과 신뢰의 도덕적 원칙이 알고리즘을 통해 발현될 수 있도록 기업을 독려하는 것으로,
- 기업으로 하여금 공정한 알고리즘의 설계, AI윤리의 선포, 설명가능 AI 기술개발, 품질관리 등 자발적 규제준수 노력을 요구
Ⅰ. 개요
Ⅱ. EU의 ML/AI 신 규제 메카니즘
Ⅲ. 신뢰의 ML/AI를 향한 자발적 조치
Ⅳ. 시사점
본 보고서는 EU의 일반정보보호규정(GDPR) 보고서 및 , ‘Regulatory Mechanisms and Algorithms towards Trust in AI/ML, Eva Thelisson 등 3인 공저, 2017’ 논문을 요약․정리한 것으로 원문에 대한 저작권은 EU 및 논문 저작자에 있습니다.
작성 및 문의
- 정책본부 미래전략센터 김동현 수석(053-230-1288, kimdh@nia.or.kr)
첨부파일 :
EU의 인공지능 新규제메카니즘: ‘설명가능 인공지능(XAI)
댓글 없음:
댓글 쓰기