2. 유럽연합의 AI 규제 동향
3. 미국의 관련 규제: 글로벌 규제 패러다임의 충돌
2. 유럽연합의 AI 규제 동향
유럽연합의 신뢰할 수 있는 AI 지침
유럽연합(EU)은 2019년 '‘신뢰할 수 있는 AI(Ethics Guidelines for Trustworthy AI)’'를 발표하며, AI 기술이 윤리적으로 올바르게 개발되고 운영될 수 있도록 기준을 마련했다. 이 지침은 AI 시스템이 법적, 윤리적, 기술적으로 신뢰할 수 있어야 한다는 세 가지 원칙을 중심으로 구성된다.
첫째, 법적(Lawful) 요건으로 AI 시스템은 모든 관련 법률과 규정을 준수해야 한다. AI가 법적 책임에서 벗어나 독자적으로 판단을 내릴 경우, 예측 불가능한 위험이 발생할 수 있기 때문에 이를 방지하기 위한 규제적 틀이 필요하다.
둘째, 윤리적(Ethical) 요건으로 AI가 인간 중심적 가치에 부합하도록 개발되어야 한다. 이는 인간 자율성 존중, 피해 방지, 공정성, 설명 가능성 등의 원칙을 포함하며, AI 기술이 특정 집단에 차별적 영향을 미치지 않도록 하는 것이 핵심이다.
셋째, 견고성(Robust) 요건으로 AI 시스템이 사회적으로나 기술적으로 강건해야 하며, 예측하지 못한 피해를 방지할 수 있어야 한다. AI가 잘못된 데이터를 학습하거나 악용될 경우 심각한 사회적 영향을 미칠 수 있기 때문에, 견고하고 안전한 설계가 필수적이다.
이 지침은 보다 구체적으로 신뢰할 수 있는 AI의 7가지 핵심 요구사항을 포함하고 있다. ▲인간 감독(Human Agency & Oversight) ▲기술적 견고성 및 안전성(Technical Robustness & Safety) ▲프라이버시 및 데이터 거버넌스(Privacy & Data Governance) ▲투명성(Transparency) ▲다양성, 차별 금지 및 공정성(Diversity, Non-discrimination & Fairness) ▲환경적·사회적 복지(Environmental & Societal Well-being) ▲책임성(Accountability) 등이 이에 해당한다.
이러한 원칙들은 AI가 단순한 기술적 진보를 넘어 사회적 신뢰를 확보하는 방향으로 발전해야 한다는 점을 강조하며, 이후 유럽연합의 AI 법안(AI Act) 수립에 중요한 기초가 되었다.
유럽연합 AI 법안(AI Act)의 발전과 주요 내용
유럽연합은 2019년 발표한 '신뢰할 수 있는 AI 지침(Ethics Guidelines for Trustworthy AI)'을 기반으로, 2021년 AI 법안(AI Act)초안을 공개하고 2024년 3월 유럽의회를 통과시키며 세계 최초의 종합적인 AI 규제 법안을 마련했다. AI Act는 인공지능 시스템을 '위험 기반 접근 방식(Risk-Based Approach)'에 따라 분류하고, 각 위험 수준에 맞는 규제와 의무를 부과하는 것이 핵심이다. AI 시스템은 '허용 불가(Unacceptable Risk), 고위험(High Risk), 제한적 위험(Limited Risk), 최소 위험(Minimal Risk)'으로 구분되며, 특히 고위험 AI에 대한 규제를 대폭 강화하고 있다.
'허용 불가 AI(Unacceptable Risk AI)'는 인간의 기본권을 심각하게 침해할 가능성이 높은 AI 시스템으로 간주되며, 전면 금지의 대상이 된다. 실시간 생체 감시 시스템(Real-time biometric surveillance), 사회적 신용 점수 시스템(Social credit scoring), 행동 조작 및 조정 기술(Behavior manipulation AI)이 대표적인 사례로, 이러한 시스템이 대중 감시 및 차별적 정책에 사용될 경우 심각한 윤리적 문제를 초래할 수 있기 때문이다. AI Act는 이러한 AI 기술이 시장에 출시되는 것을 원천적으로 차단하고, 기업이나 정부가 이를 활용하지 못하도록 규정하고 있다.
'고위험 AI(High Risk AI)'는 의료, 교통, 금융, 법률, 교육 등 핵심 인프라와 시민의 기본권에 영향을 미칠 가능성이 높은 AI 시스템을 포함한다. 이러한 AI는 데이터 품질과 안전성을 철저히 검증받아야 하며, 알고리즘의 투명성을 보장하고, AI의 의사결정 과정에서 '인간 감독(Human oversight)'이 가능하도록 설계되어야 한다. AI를 활용하는 기업과 기관은 데이터 편향 방지(Data bias prevention), 안전성 테스트(Safety testing), 책임성 확보(Accountability requirements)등의 기준을 충족해야 하며, 이를 위반할 경우 강력한 법적 제재를 받게 된다.
'제한적 위험 AI(Limited Risk AI)'는 챗봇(Chatbots), AI 기반 콘텐츠 추천 시스템(Content recommendation systems), 가상 비서(Virtual assistants) 등 사용자가 직접 AI와 상호작용하는 시스템을 포함한다. 이러한 AI는 사용자에게 AI와의 소통 여부를 명확히 고지해야 하며(AI disclosure requirement), 사용자가 AI와의 상호작용을 거부할 권리를 보장해야 한다. 제한적 위험 AI는 기본적인 투명성 요건을 충족하면 사용이 가능하며, 비교적 자유로운 개발과 운영이 허용된다.
'최소 위험 AI(Minimal Risk AI)'는 번역 소프트웨어(Translation software), AI 기반 비디오 게임(AI-powered video games), 스팸 필터(Spam filters) 등과 같이 위험성이 거의 없는 시스템을 포함한다. 이러한 AI는 추가적인 규제 없이 자유롭게 개발 및 활용될 수 있으며, AI Act의 엄격한 감시 대상이 되지 않는다.
AI Act는 이와 같은 '위험 수준별 접근 방식(Tiered Risk Approach)'을 통해 AI의 윤리적 안전성을 확보하면서도 기술 혁신을 저해하지 않는 균형 잡힌 규제 모델을 구축하는 것을 목표로 하고 있다. 이를 통해 유럽연합은 AI 기술이 인간 중심적 가치에 부합하는 방향으로 발전하도록 유도하며, 국제 사회에서 AI 거버넌스(AI Governance)의 글로벌 표준을 제시하려는 움직임을 보이고 있다.
AI 법안(AI Act)의 최근 변화와 규제 완화 움직임
유럽연합(EU)은 AI Act를 통해 AI 기술의 책임성과 안전성을 확보하는 강력한 규제를 도입했지만, 최근 일부 규제 완화 움직임이 감지되고 있다. 2024년 2월 12일, 유럽연합 집행위원회는 AI 규제와 관련된 일부 법안 초안을 철회한다고 발표했다. 이는 기술 특허(Standard Essential Patents), AI 책임(AI Liability Directive), 그리고 소비자 프라이버시(ePrivacy Regulation)와 관련된 규제 초안을 포함하며, 해당 법안들이 EU 의회와 회원국의 승인을 받을 가능성이 낮다고 판단했기 때문이다.
이번 결정은 AI 및 기술 산업 전반에서 강한 로비 활동이 영향을 미쳤다는 평가를 받고 있다. 특히, 철회된 AI 책임 법안(AI Liability Directive)은 AI 기술 제공업체, 개발자, 사용자가 AI 시스템으로 인해 발생한 피해에 대해 법적 책임을 지도록 하는 조항을 포함하고 있었다. 그러나 산업계에서는 해당 법안이 AI 개발 및 혁신을 위축시킬 수 있다는 우려를 지속적으로 제기해왔으며, 결국 EU 집행위원회는 법안을 철회하고 새로운 제안 여부를 검토하겠다고 밝혔다.
기술 특허와 관련된 규제 철회도 주목할 만한 변화이다. 유럽연합은 표준 필수 특허(Standard Essential Patents, SEP) 사용과 관련된 분쟁을 조정하기 위해 새로운 규제를 도입하려 했지만, 노키아(Nokia), 에릭슨(Ericsson), 지멘스(Siemens) 등 주요 기술 특허 보유 기업들의 강한 반발에 부딪혔다. 반면, BMW, 테슬라(Tesla), 구글(Google)과 같은 기업들은 SEP 라이선스 비용 문제를 해결할 필요성을 강조하며 법안 추진을 지지했으나, 결국 법안은 철회되었다.
또한, 유럽연합은 메타(Meta)의 왓츠앱(WhatsApp)과 마이크로소프트(Microsoft)의 스카이프(Skype)와 같은 메신저 서비스가 기존 통신 사업자들과 동일한 프라이버시 규제를 적용받아야 한다는 내용의 ePrivacy 규제안도 폐기했다. 이는 2017년부터 추진되어 왔으나, EU 회원국 간의 의견 차이와 기술 업계의 반발로 인해 오랜 기간 표류하다가 결국 철회되었다.
이러한 움직임에도 불구하고, AI Act의 근본적인 방향성이 변화한 것은 아니라는 평가가 많다. 유럽연합은 여전히 AI 규제의 글로벌 표준을 수립하려는 입장을 유지하고 있으며, 이번 철회 결정은 AI Act와 기존 디지털 규제 체계를 보다 현실적으로 조정하는 과정의 일환으로 해석되고 있다. AI 관련 법안들이 산업계의 의견을 반영하여 조정되고 있는 만큼, 향후 유럽연합이 AI 규제의 실효성을 확보하면서도 기술 혁신을 촉진할 수 있는 새로운 균형점을 찾아갈 것으로 예상된다.
3. 미국의 관련 규제: 글로벌 규제 패러다임의 충돌
미국은 AI 기술의 개발과 활용을 두고 전통적으로 자유시장 원칙을 강조하며, 글로벌 AI 경쟁에서 규제보다 혁신을 우선시하는 접근을 유지하고 있다. 유럽연합이 AI 법안(AI Act)과 같은 강력한 규제를 도입하며 기술 통제와 윤리적 기준을 강조하는 것과 달리, 미국은 기업 친화적 정책을 통해 AI 산업의 성장을 촉진하려는 전략을 취하고 있다. 이러한 차이는 AI 초지능(Superintelligence) 개발을 둘러싼 글로벌 패권 경쟁에서 미국이 지속적으로 우위를 확보하려는 의도와 맞닿아 있다.
이러한 기조 속에서 바이든 행정부는 AI 기술의 안전성과 윤리적 책임을 강조하며 규제 강화를 추진했지만, 2025년 1월 도널드 트럼프 대통령의 재집권과 함께 AI 정책의 방향이 급격히 변화했다. 바이든 행정부가 AI의 투명성, 편향 제거, 정부 감독 강화를 목표로 한 '행정명령 14110호(Executive Order 14110)'를 통해 강력한 규제 조치를 도입한 반면, 트럼프 행정부는 이를 혁신 저해 요소로 간주하고 즉각 폐지(rescind)하며 기업 친화적 deregulation(규제 완화) 정책으로 전환했다. 트럼프 행정부는 AI 기술이 국가 안보와 경제 경쟁력의 핵심임을 강조하며, 자유로운 연구개발을 보장하고 정부 개입을 최소화하는 방향으로 정책을 전환하였다.
바이든 행정부의 규제
조 바이든 행정부는 AI 기술이 급속도로 발전하면서 초래할 수 있는 사회적, 경제적, 안보적 위험을 최소화하기 위해 강력한 규제와 윤리적 원칙을 포함한 정책을 도입했다. 2023년 10월, 바이든 대통령은 'AI 행정명령(Executive Order 14110)'을 발표하여, AI 기업들이 개발하는 기술이 공공 안전과 민주적 가치를 훼손하지 않도록 하는 다양한 규제 조치를 도입했다. 이 명령은 특히 AI 시스템의 투명성, 편향 제거, 안전성 검증을 강조하며, AI 기업들에게 강력한 감독과 보고 의무를 부과하는 것이 핵심 내용이었다.
이 행정명령은 AI 개발 및 상용화 과정에서 기업들이 정부에 AI 시스템의 리스크 평가 결과를 보고하도록 하는 조항을 포함했다. 이는 AI가 사회적 편향을 증폭시키거나 특정 계층을 차별하는 알고리즘적 오류를 내포할 가능성을 차단하기 위한 조치였다. 또한, AI가 국가 안보 및 경제에 미치는 영향을 분석하기 위해 국립표준기술연구소(NIST) 및 '국가안전보장회의(NSC)'가 AI의 윤리적 사용과 규제 준수를 감독하도록 지정되었다.
바이든 행정부의 AI 정책은 기업의 책임성을 강화하고, AI 기술이 공정성과 민주적 가치를 준수할 수 있도록 하는 것이 주요 목표였다. 이에 따라, AI 시스템이 대중의 삶에 중요한 영향을 미치는 경우(예: 의료, 법률, 금융), 반드시 설명 가능성(Explainability)과 알고리즘적 공정성(Fairness)을 보장해야 하며, 충분한 사전 테스트를 거쳐야 한다는 원칙이 포함되었다. 이러한 접근 방식은 유럽연합의 AI Act와 유사한 규제적 성격을 띠었으며, 글로벌 AI 산업에 대한 공적 감시를 강화하는 방향으로 설정되었다.
그러나 이 같은 규제는 AI 업계와 기업들로부터 과도한 규제 부담과 혁신 저해 우려라는 비판을 받았다. 특히, AI 모델 개발 과정에서 정부 보고 의무가 강화되면서 AI 기업들의 연구개발 비용이 증가했고, 새로운 기술을 신속하게 시장에 내놓기 어려운 환경이 조성되었다. 이에 따라, AI 산업의 성장을 촉진하면서도 적절한 규제 조치를 유지해야 한다는 논쟁이 지속되었고, 2025년 1월 도널드 트럼프 대통령의 재집권과 함께 AI 규제 정책이 급격히 변화하는 계기가 마련되었다.
트럼프 행정부의 규제
도널드 트럼프 행정부는 AI 산업이 국가 경쟁력 확보와 경제 성장의 핵심 요소라고 판단하고, 과도한 규제가 AI 혁신을 저해할 수 있다는 입장에서 AI 규제를 완화하는 방향으로 정책을 전환했다. 2025년 1월, 트럼프 대통령은 취임과 동시에 바이든 행정부가 도입한 AI 행정명령(Executive Order 14110)을 공식 폐기했으며, AI 기업들이 정부 개입 없이 자유롭게 기술을 개발하고 상용화할 수 있도록 deregulation 정책을 추진했다.
트럼프 행정부의 AI 정책 기조는 기업 주도의 AI 혁신을 최우선으로 고려하는 것이 특징이다. 바이든 행정부의 규제 정책이 AI 기업들에게 정부 보고 의무를 부과하고 윤리적 책임을 강조한 반면, 트럼프 행정부는 AI 산업이 자율적으로 발전해야 하며, 시장 경쟁을 통해 기술의 안전성과 신뢰성을 확보해야 한다는 입장을 취했다. 이를 위해, AI 개발과 관련된 연방 규제를 대폭 완화하고, AI 연구개발(R&D) 투자 인센티브를 확대하는 정책을 발표했다.
트럼프 행정부는 또한 AI의 국방 및 안보 활용을 적극적으로 확대하며, 국방부(DOD) 및 정보기관과 협력하여 AI 기반 무기 시스템과 감시 기술을 강화하는 방향으로 AI 정책을 설정했다. 2025년 2월, JD 밴스 부통령은 파리에서 열린 AI 정상회의에서 미국은 과도한 규제를 피하고, AI 기술이 최대한 자유롭게 발전할 수 있도록 지원할 것이라고 발표했다. 그는 유럽연합의 AI 규제가 기업들에게 과도한 부담을 초래하고 있으며, AI 경쟁에서 미국이 앞서 나가기 위해서는 자유시장 중심의 접근 방식이 필요하다고 강조했다.
트럼프 행정부의 AI 정책 변화는 미국과 유럽연합 간의 AI 규제 패러다임의 충돌을 더욱 심화시키고 있다. 유럽연합이 AI 법안을 통해 강력한 통제 기조를 유지하는 반면, 미국은 AI 산업의 자율성을 강조하며 글로벌 AI 경쟁에서 기업 친화적 정책을 유지하고 있다. 이러한 차이는 향후 AI 기술의 발전과 글로벌 AI 시장의 주도권 경쟁에서 중요한 변수로 작용할 가능성이 크며, AI 거버넌스의 미래 방향성을 둘러싼 국제적 논쟁이 더욱 심화될 것으로 전망된다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]