[논문 리뷰] 인공지능기본법의 헌법적 한계와 과제
류성훈 기자
ryunow@metax.kr | 2026-02-05 11:00:00
2. 인공지능(AI)시대, 인공지능기본법과 윤리에 관한 연구, 김경동, 2025.
[메타X(MetaX)] 한국은 2024년 말 인공지능기본법을 제정하며 유럽연합(EU)에 이어 세계에서 두 번째로 포괄적인 AI 일반법을 갖춘 국가가 되었다. 하지만 이희옥과 김경동의 논문은 이 법안이 기술적·산업적 대응에 급급한 나머지, 법이 지켜야 할 가장 본질적인 가치를 놓치고 있다고 비판한다. 저자의 핵심 주장은 한국의 AI 기본법은 국민의 생명과 신체라는 물리적 안전(몸)은 챙겼을지 모르나, 인간의 존엄과 자율성이라는 정신적 가치(영혼)는 입법의 사각지대에 방치했다는 것이다.
|
인공지능의 위험에 관한 기본권 논의와 입법 대응, 이희옥, 2025. |
위험의 재정의: 오류와 차별을 넘어 ‘자율성의 침식’으로
기존의 AI 위험 논의가 데이터 편향, 저작권 침해, 할루시네이션(환각) 등 기술적 오류나 법적 분쟁에 집중했다면, 이 논문은 위험의 무게중심을 ‘헌법적 기본권의 위계’로 이동시킨다. 저자는 AI의 위험을 두 가지 층위로 구분한다. 첫째는 기존 법체계로 대응 가능한 ‘가중된 법적 위험’이고, 둘째는 AI의 질적 특성인 자율성에서 비롯된 ‘중대한 위험’이다.
저자가 주목하는 진짜 공포는 후자다. AI가 인간의 의사결정을 보조하는 수준을 넘어, 인간의 판단을 완전히 대체하거나 인간이 AI의 결정에 종속되는 상황이다. 이는 단순한 기술적 부작용이 아니라, 헌법이 보장하는 ‘자기결정권’과 ‘인간 존엄’을 근본적으로 뒤흔드는 위협이다. 그러나 현재의 논의는 딥페이크나 저작권 같은 가시적 문제에만 매몰되어, 정작 AI가 인간의 자율성을 잠식하는 구조적 위험에 대해서는 침묵하고 있다. 저자는 이를 “헌법적 가치인 인간 존엄과 자기결정 침해의 문제를 놓치고 있다”고 단언한다.
정교함을 상실한 ‘뭉툭한 칼날’이된 한국형 인공지능법
논문은 한국의 인공지능기본법을 EU와 미국의 제도를 어설프게 섞어놓은 ‘혼종’으로 평가한다. EU의 ‘AI법(AI Act)’은 위험을 4단계(금지-고위험-제한-최소)로 세분화하여 규제의 강도를 조절하는 ‘비례의 원칙’을 철저히 지킨다. 반면, 한국의 법안은 ‘고영향 인공지능’이라는 하나의 거대한 바구니에 생명·신체에 대한 위협부터 일반적인 기본권 영향까지 모두 몰아넣었다 .
이러한 일률적인 접근은 규제의 칼날을 무디게 만들었다. 헌법적 가치에서 더 중요하게 다뤄져야 할 ‘존엄성 침해’ 위험과, 상대적으로 가벼운 ‘서비스적 위험’이 동일선상에서 취급되기 때문이다. 이는 곧 과잉 규제이거나 과소 규제가 될 수밖에 없는 구조적 모순을 안고 있다. 저자는 이러한 입법 태도가 위험 수준과 규제 간의 비례성을 갖추지 못했으며, 결과적으로 국민의 안전도 지키지 못하고 기업의 혁신도 저해하는 결과를 낳을 것이라 우려한다. 특히 유럽의 강력한 규제를 한국 기업의 현실에 대한 고려 없이 그대로 이식하려 한다면, 이는 기업들에게 풀기 어려운 ‘큐브 맞추기’와 같은 고통을 줄 것이라는 비유는 현장의 우려를 짚어낸다.
인간 존엄에 대한 헌법적 결단의 부재
논문에서 가장 뼈아픈 지적은 한국 법안 어디에도 ‘인간 존엄’과 ‘자기결정권’을 수호하겠다는 실체적 의지가 보이지 않는다는 점이다. EU는 인간의 잠재의식을 조작하거나 사회적 점수(Social Scoring)를 매겨 인간을 평가하는 AI를 ‘금지된 위험’으로 규정하고 원천 차단한다. 이는 기술보다 인간의 존엄이 우선한다는 유럽의 확고한 철학을 반영한다.
반면 한국의 법은 ‘신체와 생명’의 안전은 명시했지만, 정신적 자율성이 침해당하는 상황에 대해서는 침묵한다. 저자는 이것이 한국 법제가 헌법상 인간 존엄을 실체적 규범으로 인식하지 못하는 단면을 보여준다고 한탄한다. AI가 인간의 고유성을 대체하려 할 때, 우리 법은 인간을 지킬 방패를 가지고 있지 않다. 저자는 향후 시행령이나 가이드라인에서라도 이 부분이 반드시 보완되어야 하며, 인간의 자율적 의사결정을 위협하는 AI에 대해서는 단호한 입법적 결단이 필요하다고 역설한다.
명확성 원칙을 위배한 모호한 표시 의무
창작자와 그래픽 산업계가 특히 주목해야 할 부분은 ‘표시 의무’의 모호성이다. 법안은 AI 생성물임을 표시하되, “이용자가 명확하게 인식할 수 있는 방식”이어야 하고 동시에 “예술적·창의적 표현물의 향유를 저해하지 않는 방식”이어야 한다고 규정한다. 저자는 이 조항이 지나치게 추상적이며, 사업자의 재량이 어디까지 허용되는지 알 수 없어 헌법상 ‘명확성의 원칙’에 위배될 소지가 있다고 지적한다. 이용자의 알 권리와 작품의 심미적 가치 사이에서, 구체적인 가이드라인 없이 던져진 이 의무는 현장에 큰 혼란을 야기할 수밖에 없다.
‘기본권 영향평가’를 통한 규제의 재설계
저자가 제시하는 대안은 ‘기본권 영향평가’의 도입이다. 단순히 기술이 사회에 미치는 영향을 보는 기술 영향평가를 넘어, AI가 헌법상 기본권에 미치는 영향을 실증적으로 분석해야 한다. 이를 통해 위험의 경중을 가리고, 정말 금지해야 할 ‘질적 위험’과 허용하되 관리해야 할 ‘법적 위험’을 구분해야 한다.
논문은 한국의 AI 규제가 정부 주도의 속전속결식 입법에서 벗어나, 민·관 전문가들의 치열한 논의를 통해 ‘인간 존엄’을 중심에 둔 지속 가능한 거버넌스로 나아가야 한다고 결론 맺는다. 이것은 기술의 문제가 아니라, 우리 사회가 어떤 가치를 최우선에 둘 것인가에 대한 헌법적 결단의 문제다.
|
인공지능(AI)시대, 인공지능기본법과 윤리에 관한 연구, 김경동, 2025. |
기술을 다루는 법, 그러나 기술을 놓친 법
이 논문은 2024년 말 통과된 한국의 「인공지능기본법」이 무엇을 규율하고자 했는지보다, 무엇을 규율하지 못했는지를 집요하게 파고든다. 저자는 이 법이 ‘AI 산업 육성과 신뢰 기반 조성’이라는 명분을 내세우고 있음에도, 정작 법이 가져야 할 최소한의 요건인 법적 명확성을 심각하게 결여하고 있다고 본다. 특히 인공지능의 위험을 관리해야 할 핵심 개념들이 지나치게 추상적이고 포괄적으로 제시되면서, 책임과 규율의 실질적 기준이 법률이 아니라 시행령과 대통령령으로 유예되었다는 점을 문제 삼는다. 그 결과 기본법은 방향 선언에 그친 채, 실제 책임을 물을 수 있는 규범으로 작동하기 어렵다는 평가에 도달한다 .
‘고위험’이 아닌 ‘고영향’이라는 언어의 정치학
이 논문이 제기하는 핵심적인 법리적 비판은 법안에 사용된 용어의 선택에 있다. EU의 인공지능법(AI Act)이 명확히 ‘고위험(High-risk)’이라는 용어를 사용하여 규제의 대상을 특정하는 것과 달리, 한국의 기본법은 ‘고영향(High-impact)’이라는 중립적이고 모호한 용어를 채택했다. 저자는 이것이 산업계의 부정적 반응을 완화하기 위한 정치적 의도에서 비롯된 선택일지라도, 결과적으로는 법적 안정성을 심각하게 훼손했다고 진단한다. “도대체 무엇이 고영향인가?”라는 질문에 대해 법은 명확한 답을 주지 못한 채 구체적인 기준과 책임 소재를 모두 시행령으로 떠넘기고 있다. 이는 결국 규제 적용의 일관성을 무너뜨리고, AI가 초래할 실질적인 위험 앞에서 책임지는 주체가 사라지는 결과를 초래한다는 점에서 뼈아픈 지적이다.
알고리즘이 아니라 인간의 욕망이 문제다
이 논문은 윤리 문제의 원인을 기술이 아닌 ‘인간 본성’으로 환원하여 해석한다. 저자의 관점에서 AI 알고리즘은 가치 중립적인 수학적 산물이 아니라, 설계자의 의도와 이익 추구(효용)가 반영된 욕망의 거울이다. 즉, AI가 일으키는 윤리적 문제는 기계의 오작동이 아니라, 인간의 도덕적 해이와 윤리 붕괴가 기술을 매개체로 하여 증폭된 현상이라는 것이다. 따라서 논문은 “AI가 왜 위험한가”를 묻기보다 “인간의 욕망이 법과 윤리를 어떻게 앞지르는가”를 묻는다.
기술은 자율적으로, 책임은 인간에게
기술 자체를 법으로 섣불리 옥죄는 것은 불가능할 뿐만 아니라 산업 경쟁력을 저해할 수 있으므로, AI의 생성과 유통에 대해서는 개방적이고 자율적인 규제를 적용해야 한다고 주장한다. 대신 규제의 칼끝은 기술 자체가 아닌, 그 알고리즘을 설계하고 소유한 ‘인간(행위자)’에게 향해야 한다. 즉, 기술 개발의 자율성은 보장하되 그로 인해 발생하는 결과에 대한 책임은 설계자와 소유자에게 엄격하게 묻는 ‘이중적 접근(Dual Approach)’이 필요하다는 것이다. 이는 기술 중심 규제에서 행위자 중심 규제로의 전환을 의미하며, AI의 잠재력을 살리면서도 도덕적 해이를 통제할 수 있는 현실적인 대안으로 제시된다.
도구를 탓하지 말고 주체를 조준하라
결론적으로 이 논문은 법이 기술을 섣불리 재단하거나 정의하려 하기보다, 그 기술을 휘두르는 인간을 정확히 조준해야 한다는 메시지를 던진다. ‘고영향’이라는 모호한 단어 뒤에 숨은 입법적 나태함을 비판하고, AI 윤리의 본질을 기술이 아닌 인간의 욕망으로 규정한 점은 시사하는 바가 크다. AI 시대의 법과 윤리는 기술적 통제에 골몰할 것이 아니라, 결국 기술 뒤에 숨은 인간의 책임을 어떻게 제도화할 것인가에 달려 있다는 것이 이 연구가 남긴 제언이다.
[METAX = 류성훈 기자]
[ⓒ META-X. 무단전재-재배포 금지]