AI 기본법 시행…기준의 실전 시작
이든 기자
metax@metax.kr | 2026-01-22 10:38:48
산업 현장은 ‘적용 기준’ 시험대
[메타X(MetaX)] 2026년 1월 22일, 인공지능 산업의 성장과 안전을 한 틀로 묶은 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」, 이른바 AI 기본법이 시행됐다.
이번 시행의 의미는 규제를 강화하는 데 있다기보다, 생성형 AI 확산 국면에서 반복돼 온 불확실성을 정리하고 산업과 사회가 공통으로 참고할 최소한의 운영 기준을 제시했다는 데 있다.
정부는 이를 ‘진흥·신뢰·최소규제’라는 3각 프레임으로 설명하며, 처벌보다는 예측 가능성을 우선한 설계를 강조하고 있다.
AI 기본법의 첫 효과는 거버넌스의 고정이다. 국가 차원의 AI 전략위원회 체계, 정책센터 지정, 안전연구소 운영, 학습용 데이터 통합 제공 시스템 등이 법과 시행령을 통해 구조화되면서, 산업계는 처음으로 “국가가 어디까지 지원하고, 어디서부터 점검하는지”를 전제로 투자와 개발을 판단할 수 있는 환경을 맞게 됐다. 이는 개별 기술 규제보다도 산업 인프라를 먼저 제시했다는 점에서 정책적 신호가 분명하다.
규제의 실질적 내용은 세 갈래로 압축된다. 첫째는 투명성이다. 생성형 AI나 고영향 AI를 활용하는 서비스는 이용자에게 AI 사용 사실을 사전에 알리고, 사회적 부작용 우려가 큰 딥페이크성 결과물에는 이용자가 명확히 인식할 수 있는 표시를 해야 한다. 웹툰·애니메이션 등 콘텐츠 유형에 따라 비가시적 워터마크도 허용되면서, 기술을 막기보다는 “알리는 책임”을 중심에 둔 설계가 뚜렷해졌다. 다만 표시의 수준과 방식이 폭넓게 열려 있어, 현장에서는 ‘어디까지가 충분한 고지인가’가 가장 먼저 부딪히는 실무 쟁점이 될 가능성이 크다.
둘째는 고영향 AI 관리다. 생명·안전·기본권에 중대한 영향을 미칠 수 있는 영역에서 AI가 활용되는 경우가 판단 기준이 되며, 의료·에너지·교통·금융·채용·교육·공공서비스 등 민감 분야가 주된 검토 대상이다. 여기서 정책의 방향은 명확하다. AI가 추천이나 분류를 하더라도 최종 의사결정을 사람이 수행하면 위험 부담을 낮게 평가하겠다는 것이다. 이에 따라 기업 입장에서는 ‘사람의 개입’을 어떻게 설계하고, 이를 로그와 문서로 증명할 것인지가 컴플라이언스의 핵심 요소로 떠오른다.
셋째는 초고성능 AI에 대한 안전성 확보 의무다. 누적 연산량 10의 26승 FLOPs 수준과 같은 정량 기준과, 광범위한 기본권 영향 우려라는 질적 요건을 결합한 구조로, 당장 국내 다수 기업에 적용되기보다는 향후 초대형 파운데이션 모델 경쟁을 대비한 안전 프레임에 가깝다. 정부 역시 현 시점에서 해당 기준을 충족하는 모델은 사실상 존재하지 않는다는 점을 강조하며, ‘선제적 안전장치’ 성격을 분명히 하고 있다.
산업계에서는 기준의 모호함이 혁신 속도를 저해할 수 있다는 우려와, 최소 규제 원칙 덕분에 예측 가능성이 높아졌다는 평가가 엇갈린다. 시민사회에서는 권리구제나 금지 AI와 같은 강한 규율이 부족하다는 비판도 제기된다. 이에 대해 정부는 최소 1년 이상의 유예기간, 계도 중심의 운영, 예외적 경우에 한한 사실조사, 그리고 전담 지원데스크를 통한 컨설팅 제공을 예고하며 충격 완화를 선택했다.
결국 AI 기본법의 첫날은 규제가 본격화된 날이라기보다, 국가가 AI를 어떻게 운영하고 신뢰를 확보할 것인지에 대한 기본 문법을 제시한 날에 가깝다.
앞으로의 관건은 고영향 AI의 경계 설정, 생성물 표시 방식의 실효성, 그리고 기업이 과도한 비용 없이 준수할 수 있는 절차의 정밀화다. 법은 오늘 시행됐지만, 판례 없는 첫 적용의 축적 과정이 향후 1년간 제도의 성패를 가를 가능성이 크다.
인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 ( 약칭: 인공지능기본법 )
[시행 2026. 1. 22.] [법률 제20676호, 2025. 1. 21., 제정]
[ⓒ META-X. 무단전재-재배포 금지]