





지난 12월6일자 뉴욕타임즈에서도 다룬 이슈지만(https://www.nytimes.com/2019/12/06/business/algorithm-bias-fix.html), 알고리듬 공정성(algorithmic fairness) 관련 자료를 읽다보면 ‘알고리듬 편견(algorithmic bias)’ 혹은 ‘기계 편견(machine bias)’이란 표현이 자주 등장하는데, 마치 닭이 먼저냐, 계란이 먼저냐의 기원 논쟁처럼 데이터와 알고리듬이 biased된 것이 먼저냐, 사람과 환경이 biased된 것이 먼저냐 이런 논쟁을 하기 십상이다.
그런데 분명한 것은 알고리듬을 바꾸는 것이 사람을 바꾸는 것보다는 쉽다는 것이다. 컴퓨터의 소프트웨어는 기술적으로 업데이트할 수 있기 때문이다. 하지만 그러한 소프트웨어를 생각해내는 우리 인간의 두뇌 즉 ‘웻웨어(wet-ware)’는 그리 유연하지가 않다는 것이 정설이다. 오랜 기간 동안 사회적,문화적으로 형성된 고정관념은 정말 쉽게 바뀔 것 같지 않다. 그만큼 알고리듬 편견을 수정하기 위해서 인공지능 알고리듬의 데이터셋 등 기술적인 차원 뿐만 아니라 사회문화적 차원 등을 어떻게 변경(교정)하는지는 정말 어려운 작업이다.
따라서 알고리듬 편견을 기술적인 차원과 사회적인 차원의 다양한 요인들을 복합적, 다차원적으로 고려하는 프레임워크가 필요한데, 자료를 보다보니 두 명(군)의 AI 연구자가 제시한 설명이 큰 도움이 된다고 생각한다. 하나는 AI사회 정책연구의 새로운 메카로 급부상한 AI Now Institute를 선도적으로 이끌고 있는 케이트 크로포드(Kate Crawford) 뉴욕대 교수가 지난 2017년 “The Trouble with Bias”란 주제의 강연에서 밝힌 algorithm bias의 복합적 상호작용(allocation, representation, classification 등)을 논의한 내용이고, 다른 하나는 MIT대의 하리니 수레슈(Harini Suresh)와 존 구탁(John V. Guttag) 교수가 AAAI(Association for the Advancement of ArtificialIntelligence)의 저널에 게재한 논문 “A Framework for Understanding Unintended Consequences of Machine Learning”이다.
특히 후자는 머신러닝과 알고리듬의 5가지 편향, 즉 (1) 역사편향(historical bias), (2) 대표편향(representation bias), (3) 측정편향(measurement bias), (4) 평가편향(evaluation bias), (5) 집계편향(aggregation bias) 등을 다차원적으로 고려해야 한다고 보는데 그것을 도식화한 아래의 프레임워크는 알고리듬 편향의 복합적 성격을 이해하는데 큰 도움이 된다.
- 케이트 크로포드 교수의 강연 동영상 : https://youtu.be/fMym_BKWQzk
- 5가지 알고리듬 편향 모델을 다룬 하리니 수레슈 & 존 구탁의 논문 pdf 파일: https://arxiv.org/pdf/1901.10002.pdf