구글 제미나이, 13세 미만 어린이에게 개방…‘AI와 아동’ 논쟁 불붙나
X 기자
metax@metax.kr | 2025-05-05 09:00:00
‘AI와 아동’이라는 이중 리스크
AI와 아동을 둘러싼 ‘신규 전선’
어린이와 AI의 조우, 축복일까 위험일까
구글이 자사의 인공지능(AI) 모델 ‘제미나이(Gemini)’를 13세 미만 어린이에게도 개방할 계획인 것으로 전해졌다. 구체적으로는 부모가 관리하는 계정(패밀리링크)을 사용하는 아동에 한해 사용이 가능하며, 구글은 특정 보호장치 탑재와 AI 학습용 데이터 수집 배제를 예고하고 있다.
하지만, 생성형 AI의 불완전성과 윤리적 우려 속에서, ‘어린이에게 AI를 허용할 것인가’라는 물음은 여전히 뜨거운 글로벌 논쟁의 중심에 놓여 있다.
'뉴욕타임스'에 따르면, 이르면 다음 주부터 구글은 13세 미만 어린이도 자사의 AI 모델 ‘제미나이’를 사용할 수 있도록 허용할 예정이다. 단, 부모가 관리하는 ‘패밀리링크’ 계정을 사용하는 경우로 제한된다.
패밀리링크는 부모가 자녀의 디지털 활동을 관리할 수 있도록 한 구글의 서비스로, 유튜브 키즈·지메일·구글 플레이스토어 등 일부 기능을 연령에 맞게 제한해 제공하고 있다. 구글의 AI 모델 제미나이가 이 시스템과 연동되어 제공되며, 어린이에게는 특정 보호 장치와 콘텐츠 필터링이 적용될 것으로 보인다.
AI 모델의 ‘미성년 진입’ 가속화
구글은 제미나이 사용자 중 어린이 계정에 대해서는 수집한 데이터를 AI 학습에 활용하지 않겠다는 방침을 내세우고 있다. 이는 경쟁사인 마이크로소프트, 오픈AI, 메타 등과의 격차를 줄이기 위한 차세대 사용자 선점 전략의 일환으로 해석된다.
실제로 제미나이는 숙제 돕기, 이야기 생성, 창의적 글쓰기 등 놀이와 교육이 결합된 아동용 서비스로 포지셔닝 되고 있으며, 향후 AI 튜터, 언어학습 앱, 동화 창작도구 등으로의 확장도 예상된다.
하지만 AI의 교육 활용을 둘러싼 윤리적·정책적 경고와 우려도 거세다.
유엔 교육과학문화기구(UNESCO)는 2023년 7월 발표한 보고서를 통해 “생성형 AI는 아직 교과서처럼 엄격한 기준을 거치지 않은 채 학교에 도입되고 있다”고 지적했다. 유네스코가 전 세계 450여 개 교육기관을 대상으로 실시한 글로벌 설문조사(2023년 5월 기준)에 따르면, AI 활용에 대한 공식 정책이나 지침을 마련한 기관은 10% 미만에 불과했다.
유네스코는 전통적인 교과서가 수업에 사용되기 전 ▲내용의 정확성 ▲연령 적합성 ▲교육적 효과 ▲편향 여부 ▲사회적 수용성 등을 종합적으로 평가받는 데 비해, 생성형 AI는 이러한 검증 절차 없이 교실에 도입되고 있다고 경고했다. 특히 AI가 교사의 전문성과 권위를 약화시킬 수 있으며, ‘교사 없는 학교’, ‘학교 없는 교육’과 같은 과도한 교육 자동화 흐름을 촉진할 수 있다는 점에서 우려를 표했다.
이에 따라 유네스코는 각국 교육부가 기술 규제 기관 등과 협력해, 생성형 AI에 대한 독립적 검증체계와 규제 원칙을 직접 수립할 필요가 있다고 강조했다. AI의 활용은 단지 기술 문제가 아니라, 교육의 질과 방향, 교사와 학생 간의 상호작용 같은 핵심 교육 가치와 직결되는 사안이라는 점을 분명히 한 것이다.
또한 유네스코는 AI 윤리 기준 마련에도 앞장서고 있다. 2011년 ‘인공지능 윤리 권고안’을 통해 최초의 글로벌 기준을 제시한 데 이어, 2023년 4월에는 교육·연구 분야에서 생성형 AI를 책임감 있게 활용하기 위한 정책 가이드라인과 ‘학생과 교사를 위한 AI 역량 프레임워크’를 새롭게 발표했다.
같은 해 10월에는 각국 정부에 ▲사용자 연령 제한 설정 ▲아동 데이터 보호 ▲개인정보 활용 명확화 등을 포함한 생성형 AI 교육 활용 규제를 공식 권고했다.
이와 함께 아동권리단체들은 AI 챗봇의 허위 정보 생성 가능성, 정서적 의존 유발, 사생활 침해 위험성 등에 대해 경고하며, AI가 아동의 인지 발달과 정보 해석에 미치는 영향에 대한 체계적 연구와 법적 장치 마련이 시급하다고 주장하고 있다.
‘AI와 아동’이라는 이중 리스크, 우리가 직면한 네 가지 과제
AI 챗봇의 아동 사용자 확대는 기술적 진보와 교육적 기회의 확장이라는 긍정적 시선 이면에, 결코 가볍게 넘길 수 없는 네 가지 중대한 리스크를 동반한다. 특히 생성형 AI가 본질적으로 완전하지 않으며, 아동이라는 취약 계층을 대상으로 할 때 그 리스크는 더 예민하게 작동할 수 있다.
첫째, AI는 완전하지 않다.
현재 상용화된 AI 챗봇은 여전히 ‘환각(hallucination)’ 현상, 즉 사실이 아닌 정보를 진짜처럼 생성하는 문제가 빈번하게 발생한다. 이는 성인 사용자의 경우 사실 여부를 재확인하거나 판단할 여지가 있지만, 아직 정보 감별 능력이 완전하지 않은 아동에게는 오류 정보가 사실로 각인될 가능성이 크다. 특히 역사, 과학, 건강 등 기초 교육에 있어 잘못된 정보는 장기적인 인지 왜곡으로 이어질 수 있다는 점에서 매우 우려스럽다.
둘째, 보호 장치는 완벽하지 않다.
구글은 제미나이 아동 버전에 필터링 시스템과 콘텐츠 보호장치를 적용하겠다고 밝혔지만, AI 시스템의 특성상 완벽한 부적절 콘텐츠 차단은 현실적으로 어렵다. 예컨대, 질문 의도나 맥락에 따라 우회적으로 불쾌하거나 부적절한 답변이 생성될 가능성은 여전히 존재한다. 또한 새로운 콘텐츠를 생성하는 AI의 특성상, 모든 가능성을 사전에 검열하거나 차단하는 것은 기술적으로 불가능에 가깝다.
셋째, 어린이의 데이터 주권 문제다.
패밀리링크 계정은 보호자가 자녀 대신 동의함으로써 사용이 가능해지지만, 여기에는 아동 본인의 의사 표현 기회가 원천적으로 배제되어 있다. 생성형 AI와의 상호작용은 질문과 답변의 기록, 행동 패턴, 흥미 주제 등 다양한 개인 데이터를 축적하며 사용자 프로파일링이 이뤄질 수 있다. 구글은 아동 데이터는 AI 훈련에 사용하지 않겠다고 밝혔지만, 해당 정보가 서비스 개선이나 기능 확장에 어느 범위까지 쓰일 수 있는지는 명확히 공개되지 않았다. 이로 인해 아동의 ‘디지털 흔적’이 장기적으로 어떻게 축적되고 활용될 것인가에 대한 사회적 논의는 아직 초기 단계에 머물고 있다.
넷째, AI는 학습 도구인가, 감정 교사인가에 대한 본질적 물음이다.
제미나이와 같은 챗봇은 숙제 도움, 이야기 생성, 창의적 글쓰기 등 다양한 교육적 기능을 제공할 수 있다. 그러나 동시에 “내 마음을 알아주는 존재”, “친구처럼 이야기할 수 있는 대상”으로 인식되기 시작할 경우, AI가 단순한 도구를 넘어 아동의 정서적 관계 형성에 개입하게 된다. 특히 정서적으로 고립되기 쉬운 아동들이 AI에 감정적으로 의존하게 될 경우, 인간 관계 속에서 형성되어야 할 공감 능력이나 비판적 사고가 왜곡될 수 있다는 지적이 제기된다.
결국, AI와 아동의 만남은 단순히 기술이 어린이에게 접근하는 문제가 아니다. 정보의 진실성과 정서적 영향, 프라이버시의 경계와 교육적 책임이 동시에 얽힌 복합적 이슈다. 기술은 빠르게 앞서가고 있지만, 사회적·윤리적 논의와 제도적 대응은 아직 그 속도를 따라가지 못하고 있다. 이제 우리는 아이들에게 AI를 허용하기에 앞서, 그들이 어떤 세계 속에서 자라나야 하는지에 대한 근본적인 성찰이 필요한 시점에 와 있다.
AI와 아동을 둘러싼 ‘신규 전선’…세 가지 방향에서 충돌이 시작됐다
AI 챗봇의 아동 사용자 확대는 단순한 기능 출시를 넘어, 교육 시장, 정책 규제, 국제 윤리 체계 등 다양한 영역에서 새로운 전선을 형성하고 있다.
먼저, 에듀테크 시장의 확장 가능성이 주목된다. 제미나이의 어린이 버전은 단순한 챗봇 기능을 넘어, AI 튜터·동화 생성기·언어 학습 앱 등으로 빠르게 진화할 가능성이 크다. 특히 디지털 네이티브 세대인 Z세대 이하 아동을 대상으로 한 인터랙티브 학습 콘텐츠와 감정형 AI 서비스는 높은 상업적 잠재력을 가진 분야로, 글로벌 빅테크와 스타트업이 이미 이 시장을 선점하기 위한 경쟁을 본격화하고 있다.
동시에, 정책적 규제 압박도 가중되고 있다. 제미나이처럼 사용 연령을 13세 미만으로 낮추는 사례가 현실화되면서, 각국 정부는 AI 활용 연령 기준, 보호자 동의 방식, 아동의 데이터 삭제 요청권(‘잊힐 권리’) 등 법제도 정비를 서두르고 있다. 특히 아동의 개인정보 보호와 기술 활용 사이의 균형을 어떻게 설정할 것인지에 대한 논의는, 교육부와 개인정보보호기관 간의 협업 과제로 부상하고 있다.
무엇보다도 중요한 것은 윤리 기준의 글로벌 공조 필요성이다. 현재 구글이나 메타 등 글로벌 플랫폼 기업들은 자사 기준에 따라 보호장치를 개발하고 있지만, 이는 기술의 복잡성과 문화적 다양성을 반영하기엔 한계가 있다. AI의 교육적 활용은 국경을 넘나드는 문제인 만큼, 국제사회가 공동의 윤리 원칙과 안전 가이드라인을 마련해 단일 기업에만 책임을 전가하지 않는 규범 체계를 구축해야 한다는 목소리가 커지고 있다.
이처럼 AI와 아동을 둘러싼 새로운 전선은 기술·시장·정책의 삼중 교차지점에서 격렬하게 형성되고 있다. 우리는 이제 기술의 가능성뿐 아니라, 사회 전체가 이 변화를 어떻게 안전하고 지속가능하게 수용할 것인지에 대한 해답을 함께 고민해야 할 시점이다.
어린이와 AI의 조우, 축복일까 위험일까
구글 제미나이가 13세 미만 어린이에게까지 개방된다는 사실은, AI 대중화의 흐름이 이제 가장 민감하고 보호받아야 할 계층으로까지 깊숙이 확장되고 있음을 보여주는 상징적인 사건이다. 구글은 보호장치 탑재와 AI 학습용 데이터 활용 배제를 명시하며 윤리적 우려에 대응하려 하지만, 기술적 안정성, 심리적 영향, 정책적 공백이라는 세 가지 핵심 과제는 여전히 해소되지 않은 상태다.
AI는 분명 교육의 미래를 바꿀 잠재력을 지녔다. 학습 격차를 줄이고 창의적 사고를 촉진하며, 새로운 세대에게 개인화된 교육 경험을 제공할 수 있다. 그러나 동시에 AI는 아동의 일상과 인지, 정서, 사회적 관계에까지 깊숙이 개입하는 존재가 될 수 있다. 이러한 이중적 역할을 인식하지 못한 채 기술 도입이 가속화된다면, 우리가 간과한 틈은 곧 아동의 현실로 다가올 수 있다.
우리는 지금, 기술 투자와 산업 경쟁 이전에 더 근본적인 질문을 던져야 한다.
우리는 AI를 아이에게 가르치기 전에, 아이를 AI로부터 얼마나 지킬 준비가 되어 있는가?
이 질문에 대한 답을 유예한 채 앞으로 나아간다면, AI의 미래는 결코 순수한 진보의 이름으로만 기록되지 않을 것이다.
[ⓒ META-X. 무단전재-재배포 금지]