정서적 경계에 관한 글을 읽고

아이와 자주 주고받는 이야기인데, 이런 개념으로 설명이 가능하구나. 가끔 아이에게 이야기를 해 준다.

엄마는 학교 다닐 때 인기 있는 아이가 아니었어. 영혼이 통하는 소울 메이트는 초등학교 6학년이 되어 처음 생겼어. 그런데 그 친구는 지금은 미국에 살아서 2-3년에 한 번밖에 못 만나. 그래도 여전히 친해. 엄마에게 친한 친구들이 더 많아진 건 고등학교 때였고, 대학을 졸업하고 일을 하면서 만난 사람들 중에 친해진 사람들도 많아. 그리고 너하고 정말 마음이 통하는 사람은 지금 이 나라에 없을 수도 있어. 엄마도 책을 보고 논문을 보다가 같이 공부하고 싶은 선생님이 생겨서 유학을 갔던 런던에서 같은 가치를 가진 친구들을 만났어. 중요한 건 네가 어떤 생각을 하고 행동하느냐란다. 그릭고 모두와 친해지려고 하기보다는 그냥 친절한 사람이 되면 된단다. 이해하기 힘든 사람이나 사건이 생기면 의논하자.

다행히 아이는 친한 친구도 있고, 무리에 끼어 놀기도 하지만, 자기 주관도 있는 것 같다. 이런 관계에 대한 이해와 사회성 기술 훈련이 학교에서도 제대로 이루어졌으면 좋겠다. 솔직히 초중등 교육에서는 인공지능에 대한 이해보다 인간 심리와 사회적 관계 기술이 훨씬 더 중요하다고 생각한다.

https://binmaum.blogspot.com/2019/11/10-marilyn-price-mitchell.html

독일 정부의 인공지능 윤리 관련 정책 (by 이원태 박사님)

정보통신정책연구원의 이원태 박사님께서 페이스북에 포스팅하신 내용과 관련 자료 링크. 미디어 리터러시의 기존 원칙을 지키면서도 인공지능, 데이터 리터러시와 윤리 등 새로운 화두를 녹여내고 대응하는 일이 시급해졌다.

독일 정부의 인공지능 윤리 관련 정책이 주목받고 있다. 지난 2017년에는 세계최초로 ‘자율주행자동차 윤리가이드라인’을 발표했고 2018년에는 독일 정부 차원의 인공지능전략(“AI made in Germany”)을 통해 공급자에게 투자안정성 및 법적 확실성을 제공하고 사용자에겐 합법적인 신뢰와 수용성 기반을 제공하는 AI 규제체계를 조정하는데 있어 ‘데이터윤리위원회(Data Ethics Commission)’의 권고를 적극 고려할 것을 강조한 바 있다.
특히 독일 정부는 알고리듬 규제와 관련해서 1) 알고리듬 기반의 예측 및 의사 결정 시스템을 사용할 때 특히 편향, 차별, 조작 또는 기타 오용에 대한 효과적인 보호가 가능하도록 AI 시스템의 투명성, 추적성 및 검증 가능성 보장, 2) 시민의 자기 결정권, 사회적 참여와 사생활 보호를 지원하는 혁신적인 애플리케이션의 개발촉진, 3) 노동계에 AI를 통합할 때 사회적 파트너십의 강화, 4) 상업 및 비상업적 목적을 위한 기계 학습의 기초로서 텍스트 및 데이터 마이닝(TDM)을 용이하게 하기 위한 저작권 체계 검토. 관련자들의 이익은 공정한 균형을 이루어야 함 등을 제안한 바 있다.

<

(1) 음료자판기와 같이 잠재적 피해가 적은 시스템은 규제해서는 안된다.
(2) 전자상거래(e-commerce)에서의 다이나믹 프라이싱(dynamic pricing: 동일한 제품 및 서비스에 대한 가격을 시장상황에 따라 탄력적으로 변화시키는 가격전략)과 같이 약간의 잠재적 피해가 있는 시스템은 가볍게 규제하거나 사후적 통제(post-hoc controls)를 적용해야 한다.
(3) 개인화된 가격결정(personalized pricing: 개별소비자들의 성향이나 취향을 고려해 알고리듬이 최적화해서 가격결정)과 같이 규칙적이거나 명백히 잠재적인 피해가 있는 시스템은 정기적인 통제와 관련된 승인 절차를 거쳐야 한다.
(4) 신용평점(credit scoring)에서의 준독점(quasi-monopoly) 성격을 지닌 기업과 같이 상당히 잠재적 피해가 예상되는 시스템은 계산 및 가중치에 사용되는 요소, 처리된 데이터 및 그 내적 논리에 대한 설명책임을 포함해 알고리듬의 세부 정보를 공개해야 하며, 실시간 인터페이스를 통해 제어될 수 있어야 한다.
(5) 자율적 무기(autonomous weapons)와 같이 보증되지 않은(unwarranted) 잠재적 피해가 예상되는 시스템은 “완전히 또는 부분적으로(fully or partially)” 금지되어야 한다.

그래서 위원회는 이러한 잠재적 피해 기준에 따른 알고리듬 시스템의 유형 분류 기준으로서, 소위 ‘알고리듬 책임성 코덱스’(Algorithmic Accountability Codex)라는 새로운 알고리듬 규제 기준을 개발하는데 정부의 적극적 지원을 요구했으며, AI 알고리듬 시스템 관련 기업들도 GDPR에 근거한 데이터 보호책임자 모델과 같이 ‘알고리듬 설명책임자(person in charge of algorithmic accountabilit)’를 지명할 것을 권고했다.

(*독일 데이터윤리위원회 보고서 원문: https://datenethikkommission.de/wp-content/uploads/191015_DEK_Gutachten_screen.pdf)

Germany’s data ethics commission releases 75 recommendations with EU-wide application in mind