인력 부족 대응과 행정비용 절감
행정 신뢰도와 AI 투명성 확보
투명성, 윤리성, 디지털 격차 문제는 과제로
2025년 6월, 일본 디지털청이 자치단체 전용 생성형 AI 시스템 개발에 착수한다. 이는 회의록 요약, 주민 민원 대응 등 일선 행정업무에 AI를 도입해 업무 효율성과 생산성을 높이고, 동시에 개인정보 보호를 철저히 담보하려는 시도다.
일본 정부는 2025년 6월 중 국무회의(각의)에 상정될 ‘디지털 사회 실현을 위한 중점 계획’에 따라, 지방자치단체 및 중앙정부 기관에 특화된 생성형 AI 시스템을 본격 개발·도입할 계획이다.
디지털청이 주도하는 이 시스템은 회의 요약, 문서 자동 작성, 민원 대응 등의 행정 서비스에 활용되며, 2025 회계연도 중 도입을 목표로 하고 있다.

폐쇄형 AI 인프라와 데이터 보안
일본 정부가 구상 중인 AI 시스템은 입력된 데이터가 외부로 유출되지 않도록 철저히 관리되는 폐쇄형 시스템이다. 이는 ChatGPT와 같은 오픈형 AI 서비스와는 구별되는 구조로, 개인정보, 주민 데이터, 행정 기밀 정보를 보호하기 위한 안전장치가 핵심이다.
특히, 회의록 자동 요약이나 정책 보고서 초안 작성 등에서 AI의 능력을 활용할 경우, 언어모델의 고도화는 물론, 지역 방언과 특수행정 용어에 대응하는 커스터마이징도 필요한 요소다.
인력 부족 대응과 행정비용 절감
일본은 초고령화로 인해 지방행정 인력의 부족이 심각한 사회문제가 되고 있다.
생성형 AI를 통한 문서 자동화, 민원 자동응답 등의 기능은 공무원 1인당 부담을 줄이고, 비효율적 반복업무를 AI가 대체함으로써 연간 수백억 엔의 비용 절감도 기대된다.
특히 소규모 지방정부에서는 자체 기술 인프라 구축이 어려운 만큼, 중앙정부 차원의 공용 인프라 제공은 디지털 격차 해소에도 기여할 수 있다.
행정 신뢰도와 AI 투명성 확보
생성형 AI가 실제 행정에 사용될 경우, 시민의 정보가 어떻게 처리되는가, AI의 판단이 과연 중립적인가에 대한 우려도 따라붙는다.
이를 해소하기 위해 일본 정부는 “AI 활용 촉진과 리스크 관리의 동시 병행”을 원칙으로 내세우며, AI 사용 내역 로그 기록, 주민 불복 절차 마련, 알고리즘 감사 체계 등을 제시할 것으로 보인다.
‘AI가 민원을 처리해도 되나?’
주민 개별 상황에 맞춘 응대가 필요한 민원 업무를 AI가 자동화할 경우, 기계적 판단의 한계가 문제가 될 수 있다.
특히 고령 주민이나 복지 사각지대에서 AI 응대가 차가운 행정으로 비춰질 우려도 존재한다.
① ‘지방정부의 디지털 역량 격차’
도시 자치단체와 농촌 자치단체 간의 IT 인프라와 인력 역량 차이는 AI 도입 속도에 영향을 줄 수 있으며, 중앙정부가 이를 얼마나 평등하게 지원할지가 관건이다.
② ‘AI 활용 기준과 책임 소재’
생성AI가 잘못된 정보를 제공했을 때, 그 책임은 AI 개발사, 시스템 관리자, 행정공무원 중 누구에게 있는가? 이에 대한 명확한 기준과 책임 구조 설정이 필요하다.
영국과 한국에서도 공공행정에 AI 적극 활용중
영국 정부의 국가보건서비스(National Health Service)는 세금으로 운영되는 공공 의료서비스로, 의료 예약 및 질의응답 자동화에 AI를 적극 도입해왔다.
이 과정에서 의료 차별 문제로 비판을 받았다. AI 알고리즘이 특정 인종이나 계층에 대한 편향된 데이터를 학습하여 진단이나 치료 방향에서 차별적인 결과를 초래할 수 있다는 우려가 제기된 것이다.
이는 AI 시스템이 기존 사회의 불평등을 그대로 반영하거나 심화시킬 수 있음을 여실히 보여주는 사례로, AI 도입 시 공정성(Fairness) 확보가 얼마나 중요한지를 강조한다.
일본도 유사한 AI 윤리 기준 마련이 요구된다.
한국 정부도 '디지털플랫폼정부'를 국정과제로 삼아 공공행정에 AI를 적극 활용하고 있다.
AI 민원 챗봇이나 문서 자동 작성 도구 등 다양한 시도가 활발히 이루어지고 있으며, 이는 국민들의 행정 편의를 높이는 동시에 공공 서비스의 효율성을 증대시킬 것으로 기대된다.
하지만 AI 기술의 긍정적인 측면만큼이나 그에 따른 위험성을 간과해서는 안 된다.
2024년 OECD 보고서에 따르면, 공공 부문에 AI를 도입할 때 가장 중요한 요소는 공정성(Fairness)과 설명가능성(Explainability)이다. AI가 내리는 결정이 왜 그렇게 도출되었는지 명확히 설명할 수 있어야 하며, 특정 집단에게 불이익을 주지 않도록 공정하게 작동해야 한다는 것이다.
이는 곧 AI 기술 개발에 앞서 정책 및 윤리 설계가 선행되어야 함을 강력히 시사한다.
기술의 발전 속도에 맞춰 윤리적 가이드라인과 제도적 장치를 마련하지 않는다면, 영국 NHS의 사례처럼 의도치 않은 사회적 문제를 야기할 수 있기 때문이다.
일본 정부의 향후 계획은?
일본 정부는 이번 시스템을 지방자치단체에서 시범운영한 뒤, 점차 중앙정부와 국회 행정, 재난대응 시스템으로 확대할 계획이다.
디지털청은 향후 AI 투명성 가이드라인을 만들어 시민에게 공개하고, AI 감수성 교육을 공무원 연수 과정에 통합하는 방안도 검토 중이다.
생성형 AI는 결국 ‘행정의 손발’로 쓰일 것이며, 정책 결정권은 여전히 인간에게 있다는 원칙 유지가 시스템 신뢰도의 핵심이 될 것으로 보인다.
일본 디지털청의 생성형 AI 플랫폼 개발은 단순한 기술 혁신이 아니라, 국가 행정 시스템의 철학과 신뢰 구조를 재설계하는 시도다.
AI는 효율성과 비용 절감을 제공할 수 있지만, 그에 따르는 투명성, 윤리성, 디지털 격차 문제는 여전히 과제로 남아 있다.
이제 기술보다 먼저 “국민이 신뢰할 수 있는 AI 행정”이라는 답을 내놓아야 할 때다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]