[제3차 민주주의 정상회의] AI 디지털교과서 개발 정책의 프라이버시와 감시 이슈 (코엑스, 2024.3.19.)

한국 외교부가 주최한 ‘제3차 민주주의 정상회의’의 ‘시민사회 및 청년의 날'(코엑스, 2024.3.19.) 행사의 일환으로 개최된 <AI 디지털 교과서 개발 정책의 프라이버시와 감시 이슈 > 패널의 기록입니다. 이 내용은 이 패널을 조직한 사단법인 오픈넷(OpenNet)의 유튜브 채널에서 다시 보실 수 있고, 자료집은 오픈넷의 홈페이지에서 내려받으실 수 있으며, 영어로 작성된 패널 소개 내용도 보실 수 있습니다.

이 패널은 교육부가 추진하고 있는 초등학교 3학년 이상의 학교 교육에 ‘AI 디지털 교과서’를 도입하고 이를 단계적으로 확대하고자 하는 정책(2025년 수학, 영어, 정보기술, 국어(특수교육) 등의 과목에 우선 적용)에 대해, 정보 주체로서 학생의 프라이버시 침해 및 감시라는 쟁점을 중심으로 정보 인권의 측면에서 문제를 제기하기 위해 기획되었습니다.

‘AI 디지털교과서’ 정책을 추진하고 있는 교육부와 한국교육학술정보원은 AI 디지털 교과서를 “학생 개인의 필요와 능력에 맞는 다양한 개인 맞춤형 학습 기회를 제공하기 위해 인공지능 및 기타 정보기술을 활용한 다양한 학습 자료와 학습 지원 기능을 포함하는 소프트웨어”로 정의하고 있습니다. AI 디지털 교과서의 상용화는 학생들이 생산하는 데이터가 플랫폼에 탑재되는 것이므로 학생들의 개인정보가 수집될 것임을 의미합니다. AI 기술을 학교 현장에 도입하는 정책에는 학생의 프라이버시, 보안, 감시의 위험으로부터 아동 청소년이 보호받을 수 있는 제도적 장치(예산 및 전문 인력 배치 등)가 포함되어야 합니다. 그러나 AI 디지털교과서 정책의 추진 속도에 비해 아동의 프라이버시의 침해를 최소화할 수 있는 안전설계 정책은 부재하고 있는 상황입니다.

또한, AI 및 디지털 기술을 전면적으로 수업에 도입하는 방식으로 이루어지는 학교 교육에 반대하거나, 이로 인한 자녀의 건강한 발달을 우려하는 학생, 교사, 학부모의 학습권도 제대로 고려되지 않고 있습니다. 이 토론에서는 교육 전문가, AI 디지털 교과서 개발 정책 담당자, 법률 전문가, 기술 전문가가 참여해 AI 디지털 교과서 개발 정책의 진행상황을 점검하고자 했습니다. 패널들은 개발 과정에서 우선적으로 논의해야 할 구체적인 우려사항과 아동의 디지털 권리, 특히 개인정보보호와 보안을 최우선으로 하는 기술 개발 등 필수 고려사항에 대해 논의하고 아이디어를 제시하였습니다.

<AI 디지털교과서 개발 정책의 프라이버시와 감시 이슈>

일시: 2024년 3월 19일(화) 오후 2시~3시 30분

장소: 코엑스 E1

주최: 사단법인 오픈넷, 고려대 인터넷법클리닉

– 사회: 오경미(사단법인 오픈넷 연구원)

– 발표: 정현선(경인교육대 교수)

– 토론:
고우현(세이브더칠드런 선임매니저)
손주은(고려대 법학전문대학원 인터넷법클리닉)
조경숙(소프트웨어공학자, 테크페미 활동가)
표지우(고려대 법학전문대학원 인터넷법클리닉)

디지털 환경의 아동 권리 관점에서 교육부의 ‘AI 디지털 교과서’ 정책을 수정, 보완하기 위한 논의가 필요합니다.

‘AI 디지털 교과서’가 학교에서 생산되는 학생 데이터를 사기업에 그대로 넘기는 방식으로 추진되고 있음에 문제 제기를 하는 기사가 나왔습니다.

관련 기사: 바로 가기

깊이 있는 취재를 하시는 훌륭한 기자, 탐사보도 전문가, 그리고 기술정보사회의 문제를 깊이 있게 연구하시는 학자와 전문가들이 이 문제에 대해 두루 관심을 가져주시기를 바랍니다.

‘교과서’라고 표현되어 있으니 디지털 방식의 학습 자료라고 생각하시는 분들도 많고 그래서 관심을 기울이지 않으신 분들도 있을 거라 생각합니다. 그러나 ‘AI 디지털 교과서’는 단지 학습자료가 아니라 디지털 플랫폼이 학교를 통해 학생들의 삶에 들어오는 문제입니다.

가장 최근의 정책은 “AI 디지털 교과서 개발 가이드라인“ 보고서(한국교육학술정보원, 2023.8.)에서 볼 수 있습니다.

그런데 이 정책이 추진되는 과정과 논의가 충분한 설명 없이 정부 당국 및 산하기관과 교육행정, 교육공학, 컴퓨터교육 분야의 일부 전문가의 참여에 의해 불투명하게 이루어지고 있고 그 추진 속도가 너무 빠르기 때문에, 보다 다양한 전문가들의 참여 하에 문제들을 깊이 있게 검토하고 정책에 반영하거나 수정 보완하는 신중한 태도의 논의, 연구, 제언들이 필요하다고 봅니다.

특히 어린 학생들의 데이터 권리, 데이터에 반영되는 사생활 보호 등의 측면에 대해서는, AI 기술과 디지털 플랫폼을 정보 인권, 데이터 권리, 감시사회 등의 차원에서 깊이 있게 연구해 온 철학, 정보기술사회학, 비판 커뮤니케이션 등 분야의 학자들과 전문가들이 적극 관심을 갖고 문제의 소지가 무엇인지 들여다보며 목소리를 낼 필요가 있습니다.

학생들의 학습 데이터를 활용해 “AI 튜터”나 AI 평가 시스템을 통해 학생 맞춤형 학습을 제공하는 것은 학생들의 학습 결과물을 어떻게 데이터로 사용할 것인지에 대한 깊이 있는 논의를 필요로 합니다.

예를 들어 학교 국어 수업에서 학생들이 수업 중 활동 혹은 수행평가 결과물로 제출하는 말하기, 글쓰기, 토의 토론, 발표, 미디어 제작 결과는 학생들의 이름이나 주소 등 개인식별정보를 삭제한다 하더라도 누구의 음성인지, 누구의 모습인지, 누가 한 이야기와 발언인지 등을 쉽게 유추할 수 있는 경우가 다반사입니다.

수학 문제 풀이나 코딩 연습 활동 등의 학습 결과물과는 달리, 국어, 도덕, 사회 등의 과목은 과목 성격상 학생들의 개인적인 경험, 생각, 감정 등에 관련된 많은 정보가 학습 결과물에 담깁니다. 따라서 이런 과목 혹은 이런 성격의 활동 결과인 학생 데이터를 “AI 튜터”의 학습 데이터로 사용하거나 이런 기술을 활용해 학생들에게 “맞춤형 예시 자료” 등을 제공하는 방식으로 사용하는 것은 매우 위험합니다.

’AI 기술‘을 교육에 도입할 때에는 단지 해킹을 방지하는 기술적인 ‘보안’만 잘 해결하면 아무 문제가 없는 것이라고 보시는 분들의 논의도 보았습니다. 그러나 기술적인 보안뿐 아니라, 학생 데이터의 수집, 접근, 보관, 사용 및 폐기의 과정과 방법 측면에서 기술정보사회의 위험, 정보 인권과 윤리 등 매우 복잡한 문제들을 방지할 수 있어야 합니다.

사실 연구자들이 이런 자료를 연구 목적으로 수집하려면, 예를 들어 어린이, 청소년들을 인터뷰하고 그림을 그리게 하거나 글쓰기를 하게 하는 경우에도 연구 윤리가 엄격히 적용되고, 수집된 데이터는 익명 처리뿐 아니라, 내용상 사생활 침해가 이루어지지 않도록 분석과 해석, 발표 이전에 전처리가 매우 세심하게 이루어져야 하고 동의 절차도 까다롭습니다.

데이터 수집, 보관, 접근, 보존 기간괴 방법, 파기 방법과 시기 등을 포함해 생명윤리위원회의 사전 승인을 받아야 함은 물론이고, 자발적 동의를 하지 않은 사람들의 자료는 수집 및 사용할 수 없고, 자료 수집에 동의헸다 하더라도 마음을 바꾼 경우 동의를 철회할 수 있고, 이 과정에서 어떤 불이익도 받아서는 안 됩니다.

그런데 현재 추진되는 ‘AI 디지털 교과서’ 정책은 (실제로는 전자책 형태의 ‘교과서’인 것이 아니라 그것을 포함한 교수학습평가 플랫폼임) 학생들의 학습 결과물들을 디지털 플랫폼에 탑재해 ‘맞춤형 교육’을 위한 AI 학습 데이터로 사용하는 수업과 평가를 전제로 한 것으로 보입니다.

이런 엄청난 변회를 가져오는 정책에 대해 아직까지 교육부는 교사, 학생, 부모를 포함해 우리 사회 전체적으로 어떤 사회적인 합의 절차도 진행한 바 없으며, 정보 인권, 사생활 보호를 비롯한 데이터화 사회의 문제에 대한 전문가들의 의견를 듣는 절차도 전혀 없었습니다. 지난해인 2023년 6월에 교육부에서 정책을 발표한 후 공청회 한 번 없이 정책에 속도를 냈고, 그로부터 불과 두 달만인 2023년 8월에는 아래 댓글에 링크된 ‘AI 디지털 교과서 개발 가이드라인’이 발표되었습니다.

AI 디지털 교과서 사용 여부, 사생활 보호 등에 대해 각 학교의 부모(보호자)와 학생들에게 어떻게 설명하고 동의를 받을 것인지, 부모나 보호자가 동의하지 않는 학생들의 학습권은 공교육 내에서 어떻게 보장할 것인지, 다른 방식으로 수업과 평가를 하는 학교는 없애겠다는 것인지, 그렇지 않다면 학교에 따라 AI 기술의 사용 방식과 정도를 조절하거나 거부 또는 중단할 수 있는 선택권을 어떻게 보장할 것인지 등에 대한 논의 및 정책 반영이 반드시 필요합니다.

에듀테크가 곧 AI 기술은 아니며, AI 디지털 교과서나 플랫폼 사용에 대한 신중한 접근이 디지털 기술을 교육에 활용하는 것을 ’all or nothing‘과 같이 단순하게 생각해 거부하는 것도 아닙니다. 제 글이 디지털 기술과 AI 기술에 대한 거부감을 바탕으로 한 것이 아니라는 점은 이해하실 거라 생각합니다.

그러나 ChatGPT 등 생성형 AI 기술은 만13세 미만 아동의 경우 직접 사용이 아니라 부모나 교사 등 성인을 통한 간접 체험만 허용되는 반면, AI 디지털 교과서를 실제로 설계하는 사람들이나 기업들이 이를 학생들의 AI 튜터 활용에 어떻게 ‘간접 체험’의 방식으로 적용하도록 유도할 것인지, 혹은 꼭 그렇게 해야 하는지에 대한 논의조차 실종되어 있습니다.

학생의 연령에 따른 발달과 학습이 균형 있게 이루어지도록 하는 실물 교실 공간, 그 안에서 사용되는 종이 교과서, 종이 노트/워크시트 활용, 손글씨 쓰기, 얼굴 보고 말하기 등 다양한 수업 활동을 기획하고 운영하는 ’사람 교사‘의 역할을 새삼 주목합니다. 표정, 몸짓, 움직임, 학생들과의 물리적 거리, 말걸기와 침묵 등의 교육적 가치와 효율성을 교실 상황에 적합하게 이해하고 실행히며, AI와 디지털 기슬을 학습 목적과 환경, 학교 구성원의 동의에 따라 유연하게 적용하도록 자율성을 부여해야 합니다. 그런데 이러한 선택권이 정책에서 논의된 바 없습니다.

학생의 다양한 발달상의 요구(발달 지연, 자폐/ADHD 등 신경다양성, 사회성 기술 훈련, 사회정서적 발달 등)로 인해 특수교육의 도움이 필요한 학생들의 디지털 기술과 AI 기술 이용에 대한 접근성과 활용 방법도 중요하게 다루어져야 합니다. 전반적으로 ‘AI 디지털 교과서 정책’에는 ‘학생 맞춤형 교육’이라는 말을 제외하고는 교수학습평가 방법에 대한 그간의 연구 성과를 바탕으로 한 세심한 논의를 찾아볼 수 없습니다.

AI 디지털 교과서 정책 역시 유엔아동권리위원회의 일반논평 25호에서 국제 사회에 권고한 ‘디지털 환경의 아동권리’를 존중하고 실현하는 관점에서, ‘기회’와 ‘혜택’뿐 아니라 기술사회의 ‘위험’으로부터 학생들을
보호하고 학습 방식에 대한 선택권을 존중하고 보장하는 관점에서도 균형 있고 신중한 논의가 필요하다고 보며, 이를 위해 현재의 정책 추진과 시스템 개발 및 학교 현장 적용 일정을 포함한 속도 조절과 사회적 숙의가 이루어져야 한다고 봅니다.

이 문제에 대해 지속적으로 관심 갖고, 취재, 보도, 학술 세미나/포럼 개최, 연구 논문 작성과 발표 등 각자의 방법으로 주시기 바랍니다.

“이슈리포트: 2022 개정 교육과정의 미디어 리터러시 교육 강화 방안” (교육부, 한국청소년정책연구원, 2021.10.)

교육부와 한국청소년정책연구원에서 발간한 이슈리포트로인 <2022 개정 교육과정의 미디어 리터러시 교육 강화 방안>(2021.10.)이 발간되었습니다.

이 보고서에서는 ‘미디어’, ‘미디어 교육’, ‘미디어 리터러시 교육’의 개념과 주요 해외 국가 교육과정 미디어 리터러시 반영 동향 및 시사점을 다룬 후, 학교 미디어 리터러시 교육 강화를 위한 2022 개정 교육과정의 개선 방향을 제안하고 정책 제언을 덧붙였습니다.

보고서에서 2022 개정 교육과정에 요구한 주요 사항은 다음과 같습니다.

1) 교육과정 총론에서 주요 개념 및 학년군별 목표를 명료화할 것.

2) 총론과 교과 교육과정의 연계성을 확보할 것.

3) 초등학교의 경우 ‘특화 단원’을 구성할 것.

4) 중학교의 경우 자유학기 등에서 ‘독립 프로그램’을 운영할 것.

5) 고등학교의 경우 독립 선택과목을 개설할 것

부록으로는 해외 학교 미디어 리터러시 교육 운영 방식과 미디어 리터러시 관련 국내외 주요 연구 목록을 담았습니다.

미디어 리터러시의 개념과 용어에 혼란을 느끼는 분들이 많이 계신데, 이 보고서가 학교 현장과 학계, 정책을 마련하는 분들에게 도움이 되기를 바랍니다.