하지만, ‘정답’ 대신 ‘불신’과 ‘차별’을 키우고 있다.
AI 탐지기는 정말로 공정한 교육을 지켜주는 도구일까, 아니면 새로운 교육 격차와 윤리적 위험을 만들어내는 기계일까.
“AI 글쓰기, 교실을 흔들다”
2022년 말, ChatGPT, Gemini, Claude, Adobe Firefly 등 생성형 AI가 폭발적으로 확산되면서 대학과 중고교 등 교육 현장은 큰 변화를 맞았다. 학생들은 더 쉽고 빠르게 리포트와 에세이를 작성할 수 있게 되었고, 교수진과 교사들은 ‘AI가 쓴 글’을 걸러내기 위한 방안으로 AI 탐지기(AI detector)에 눈을 돌렸다.
Copyleaks, Turnitin, GPTZero, Originality.AI 등 다양한 AI 판별기가 ‘AI가 쓴 글을 잡아낸다’는 슬로건 아래 현장에 투입되고 있다. 그러나 이 기술은 ‘정확성’이라는 허울 속에 심각한 부작용을 안고 있다.
“AI가 AI를 잡는다?”
AI 탐지기는 특정 패턴(예: 단어 사용 빈도, 문장 구조, 확률적 분포 등)을 학습하여 ‘인간이 쓴 글’과 ‘AI가 쓴 글’을 구분하려 시도한다. 하지만, Copyleaks “99.12%”, Turnitin “98%”, GPTZero “99%” 등 각 업체가 내세우는 높은 정확도 수치는 실제 교육 현장에서 재현되기 어렵다.
실제로 블룸버그가 2024년 두 탐지기(GPTZero·CopyLeaks)를 대상으로 진행한 실험 결과는 이러한 우려를 뒷받침한다. AI 등장 이전인 2019년에 작성된 에세이 500편을 분석했을 때도 1~2%가 AI가 쓴 글이라는 '오탐(false positive)' 판정을 받았다. 이는 AI 탐지기가 사람의 글을 AI의 글이라고 잘못 판단할 수 있는 가능성을 명확히 보여준다.
실제로는 더 높은 오류율을 보인다는 현장 증언도 있다.
AI가 인간의 스타일을 빠르게 모방하고, ‘AI humanizer’ 등 AI 탐지기를 피하는 기술도 함께 진화하는 만큼, AI 탐지기의 신뢰성은 구조적으로 한계에 봉착한다.
오탐이 만드는 교육적·사회적 피해
문제는 ‘오탐’(AI가 아닌 글을 AI로 오인)이 단순한 오류에 그치지 않는다는 점이다.
심리적 충격: 학생은 억울하게 표절/부정행위자로 몰리며, 불안과 스트레스, 학업 포기까지 이어질 수 있다.
물질적 손해: 징계, 학점 불이익, 장학금 박탈, 입학 취소, 졸업 연기 등 인생을 바꿀 수 있는 중대한 결과가 따라온다.
숫자로 보면 그 심각성은 더욱 두드러진다.
미국 4년제 대학 신입생 약 223만 명이 1년간 10편씩 에세이를 쓴다고 가정하면, 오탐률 1%만 적용해도 연간 22만 3,500건의 ‘억울한 피해’가 발생한다. 이는 단순 통계 이상의 현실적 위협이다.
“AI 탐지기는 누구를 겨누는가”
AI 탐지기는 특정 집단에 불리하게 작동할 수 있다는 지적이 잇따른다.
대표적으로 비영어권이나 이주배경 학생의 경우, 문체의 차이나 어휘의 제한 등으로 인해 오탐률이 높아진다. 실제로 원어민과는 다른 표현 방식, 제한된 어휘 선택이 AI가 쓴 글로 오인될 가능성을 키운다.
흑인과 소수인종 학생 역시 불이익을 겪고 있다. 미국 Common Sense Media의 보고서에 따르면, 흑인 학생이 AI 표절로 지목될 확률이 다른 집단에 비해 높게 나타났다. 이처럼 AI 탐지기의 알고리즘이 소수자 집단의 언어적 특성을 충분히 반영하지 못하면서, 불필요한 의심과 차별이 발생할 위험이 커지고 있다.
또한 신경다양성(Neurodiversity) 학생에게도 위험이 따른다. 이들은 자신만의 독특한 언어 패턴을 갖고 있기 때문에, 탐지기가 이를 ‘비정상적’으로 해석할 수 있다. 결국, AI 탐지기가 표준화된 문장 구조만을 정상으로 간주하면서, 다양한 언어적 특성을 가진 학생들이 부당한 피해를 입는 사례가 늘고 있다.
이처럼 AI 탐지기는 기존 교육 시스템의 구조적 불평등을 더욱 심화시킬 수 있다. 특히 자원이 부족한 학생들은 억울한 판정에 대해 이의를 제기할 기회조차 얻기 어렵다.
오탐의 피해는 학생에만 그치지 않는다. 교수와 교사가 AI 탐지기에 과도하게 의존하면, 본연의 전문적 판단이 약화되고 학생과의 신뢰 관계 역시 손상된다. 더 나아가, 교육기관이 탐지기를 무분별하게 도입할 경우, 학교 내 불신이 커질 뿐 아니라 사생활 보호법, 차별금지법 등과 관련된 소송과 법적 분쟁으로 이어질 가능성도 존재한다.
결국 AI 탐지기는 ‘공정’이라는 이름으로 편견과 불신을 제도화할 위험이 크다는 비판을 피하기 어렵다.
“정답 없는 시대, 교육의 본질을 다시 묻다”
AI 탐지기에만 의존하는 접근은 교육 현장에 새로운 위험을 불러올 수 있다. 탐지기의 한계와 오류를 인지하지 못한 채 기술만을 맹신한다면, 오히려 교육의 본질을 훼손할 수 있기 때문이다.
이제는 ‘정답을 찾는 교육’이 아닌, 본질을 다시 묻는 교육으로 나아갈 필요가 있다.
우선, 교사와 학생 모두 AI 리터러시를 높여야 한다. AI의 작동 원리와 한계, 편향과 저작권, 환경적 영향 등 윤리적 쟁점까지 폭넓게 이해하는 과정이 중요하다. AI를 맹목적으로 두려워하거나, 무비판적으로 받아들이지 않고, 스스로 판단할 수 있는 역량을 길러야 한다.
다음으로, 비판적 사고 교육이 필요하다. 학생이 AI를 단순한 ‘정답 생성기’가 아니라 창의적 도구로 활용할 수 있도록 지도하고, 자기 글쓰기를 병행하게 만들어야 한다. AI의 도움을 받더라도, 자신의 생각과 목소리를 놓지 않는 학습 환경이 중요하다.
평가 방식의 혁신도 요구된다. AI 탐지기 대신 직접 대면 구술 평가, 과정 중심 평가, 실시간 피드백, 자율·자기주도 프로젝트 등 다양한 형태의 새로운 평가 패러다임을 도입해야 한다. 이러한 방식은 AI의 도움으로부터 자유로운 학습 경험을 제공할 뿐만 아니라, 학생 개개인의 성장과 창의성을 더욱 효과적으로 확인할 수 있다.
마지막으로, 투명한 소통이 필요하다. 교사와 학생, 그리고 동료 교사들 간에 AI 활용 기준과 윤리적 문제를 함께 논의하고 합의하는 과정이 필수적이다. 모두가 납득할 수 있는 규칙과 기준을 세우는 과정에서, 교육의 신뢰와 공동체의 건강한 성장도 가능해진다.
결국, AI 시대의 교육은 기술 그 자체가 아닌, 사람의 성장과 신뢰, 이해와 합의를 중심에 두어야 한다. ‘정답 없는 시대’에 교육이 지향해야 할 가치는, 바로 여기에 있다.
“AI 탐지기, 우리는 어디까지 신뢰할 것인가”
AI 탐지기는 기술로서 완벽하지 않으며, 오히려 기존의 불평등과 차별, 불신을 증폭시킬 위험이 있다.
공정과 신뢰, 그리고 진정한 교육적 성장은 기술에 대한 맹신이 아니라, ‘이해’와 ‘비판적 성찰’, ‘책임 있는 활용’에서 시작된다.
이제는 AI와 인간, 학생과 교사 모두가 서로의 입장에서 다시 묻고, 새로운 신뢰의 생태계를 설계해야 할 때다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]