정보통신정책연구원의 이원태 박사님께서 페이스북에 포스팅하신 내용과 관련 자료 링크. 미디어 리터러시의 기존 원칙을 지키면서도 인공지능, 데이터 리터러시와 윤리 등 새로운 화두를 녹여내고 대응하는 일이 시급해졌다.
독일 정부의 인공지능 윤리 관련 정책이 주목받고 있다. 지난 2017년에는 세계최초로 ‘자율주행자동차 윤리가이드라인’을 발표했고 2018년에는 독일 정부 차원의 인공지능전략(“AI made in Germany”)을 통해 공급자에게 투자안정성 및 법적 확실성을 제공하고 사용자에겐 합법적인 신뢰와 수용성 기반을 제공하는 AI 규제체계를 조정하는데 있어 ‘데이터윤리위원회(Data Ethics Commission)’의 권고를 적극 고려할 것을 강조한 바 있다.
특히 독일 정부는 알고리듬 규제와 관련해서 1) 알고리듬 기반의 예측 및 의사 결정 시스템을 사용할 때 특히 편향, 차별, 조작 또는 기타 오용에 대한 효과적인 보호가 가능하도록 AI 시스템의 투명성, 추적성 및 검증 가능성 보장, 2) 시민의 자기 결정권, 사회적 참여와 사생활 보호를 지원하는 혁신적인 애플리케이션의 개발촉진, 3) 노동계에 AI를 통합할 때 사회적 파트너십의 강화, 4) 상업 및 비상업적 목적을 위한 기계 학습의 기초로서 텍스트 및 데이터 마이닝(TDM)을 용이하게 하기 위한 저작권 체계 검토. 관련자들의 이익은 공정한 균형을 이루어야 함 등을 제안한 바 있다.
<
(1) 음료자판기와 같이 잠재적 피해가 적은 시스템은 규제해서는 안된다.
(2) 전자상거래(e-commerce)에서의 다이나믹 프라이싱(dynamic pricing: 동일한 제품 및 서비스에 대한 가격을 시장상황에 따라 탄력적으로 변화시키는 가격전략)과 같이 약간의 잠재적 피해가 있는 시스템은 가볍게 규제하거나 사후적 통제(post-hoc controls)를 적용해야 한다.
(3) 개인화된 가격결정(personalized pricing: 개별소비자들의 성향이나 취향을 고려해 알고리듬이 최적화해서 가격결정)과 같이 규칙적이거나 명백히 잠재적인 피해가 있는 시스템은 정기적인 통제와 관련된 승인 절차를 거쳐야 한다.
(4) 신용평점(credit scoring)에서의 준독점(quasi-monopoly) 성격을 지닌 기업과 같이 상당히 잠재적 피해가 예상되는 시스템은 계산 및 가중치에 사용되는 요소, 처리된 데이터 및 그 내적 논리에 대한 설명책임을 포함해 알고리듬의 세부 정보를 공개해야 하며, 실시간 인터페이스를 통해 제어될 수 있어야 한다.
(5) 자율적 무기(autonomous weapons)와 같이 보증되지 않은(unwarranted) 잠재적 피해가 예상되는 시스템은 “완전히 또는 부분적으로(fully or partially)” 금지되어야 한다.
그래서 위원회는 이러한 잠재적 피해 기준에 따른 알고리듬 시스템의 유형 분류 기준으로서, 소위 ‘알고리듬 책임성 코덱스’(Algorithmic Accountability Codex)라는 새로운 알고리듬 규제 기준을 개발하는데 정부의 적극적 지원을 요구했으며, AI 알고리듬 시스템 관련 기업들도 GDPR에 근거한 데이터 보호책임자 모델과 같이 ‘알고리듬 설명책임자(person in charge of algorithmic accountabilit)’를 지명할 것을 권고했다.
(*독일 데이터윤리위원회 보고서 원문: https://datenethikkommission.de/wp-content/uploads/191015_DEK_Gutachten_screen.pdf)
Germany’s data ethics commission releases 75 recommendations with EU-wide application in mind