AI 규제,기술 중심 자유주의에서 결과 중심의 책임주의로...
RAISE Act 2025년 6월 12일, 뉴욕주 상원의원 앤드루 구나디스(Andrew Gounardes)가 발의한 RAISE Act(Responsible AI Safety and Education Act)가 주 상원을 통과했다. 인공지능이 초래할 수 있는 대규모 위험에 대비해, 사전 안전 조치와 책임 교육을 의무화하는 미국 최초의 고위험 AI 안전 법안이이다. 법안은 최첨단 인공지능 모델이 100명 이상의 인명 피해 또는 10억 달러 이상의 재산 피해를 일으키지 않도록, 사전 안전 계획 수립을 의무화하는 것이 핵심이다. 또한 AI 모델을 사용하는 기업은 사고 발생 시 보고와 시스템 투명성 확보 의무를 지며, 이를 위반할 경우 뉴욕주 법무장관이 최대 3천만 달러의 민사 처벌을 부과할 수 있다.

이 법은 AI가 초래할 수 있는 대규모 인명 피해나 재산 손실에 대한 경고를 담은 이 법안은, 단순한 규제를 넘어선 윤리적 요구와 정책적 전환점을 의미한다. AI 기술은 매일 발전하고 있지만, 그 발전 속도만큼 ‘책임’과 ‘안전’에 대한 준비는 따라가지 못하고 있다. 뉴욕의 선택은 바로 그 간극을 메우려는 첫 시도다.
주(州)가 먼저 움직였다. 뉴욕주는 다시 한번 ‘규제 혁신의 실험실’로서 세계의 주목을 받고 있다.
경제 규모만 놓고 보면 뉴욕은 단일 주로서도 세계 10위권에 해당하는 경제력을 갖춘 거대 시장이며, 미국 내에서도 금융·기술·법제 영역에서 가장 강력한 규제 리더십을 보여온 지역이다. 과거에도 도드-프랭크법(Dodd-Frank Act)이나 전자 데이터 보안법(SHIELD Act)과 같은 중요 법제들이 뉴욕주에서 먼저 시행된 후, 연방 수준 혹은 타 주로 확산된 사례가 적지 않다.
이번에 뉴욕주 상원을 통과한 RAISE Act(Responsible AI Safety and Education Act) 역시 그 연장선에 있다. 이 법안은 인공지능 기술 자체를 금지하거나 제한하는 것이 아니라, 100명 이상의 사망 또는 10억 달러 이상의 재산 피해 가능성이라는 결과 기반 기준을 토대로 고위험 AI 모델에 사전 위험 시뮬레이션과 보고 절차를 의무화했다. 이를 위반할 경우 최대 3천만 달러의 민사 벌금이 부과된다.
특히 이 법은 OpenAI, Google DeepMind, Meta, Anthropic, Microsoft 등과 같은 ‘프론티어 AI’ 기업들을 직접 대상으로 삼고 있으며, 이들 대부분이 뉴욕주에 사무소를 두거나 서비스를 제공하고 있다는 점에서 실질적 효력이 매우 강력하다. 결국 이 법안은 "뉴욕주 법을 따르지 않으면 미국 시장 접근이 어렵다"는 현실을 명확히 보여주는 선례가 된다. 이러한 뉴욕의 선제적 입법은 미국 내 다른 기술 중심 주(예: 캘리포니아, 매사추세츠 등)에서도 유사한 규제 움직임을 촉진할 것이며, 나아가 연방 입법의 방향성에도 직접적인 압력을 가할 가능성이 높다.
RAISE Act, 정책적 참신성과 확장성, 그리고 AI 규제 패러다임의 진화 방향
뉴욕주가 추진한 RAISE Act는 단지 미국 내 지역 차원의 법안에 그치지 않고, 글로벌 AI 규제 환경과도 발맞추는 선도적 대응으로 평가받고 있다.
유럽연합(EU)은 이미 EU AI Act를 통해 ‘고위험 AI(High-Risk AI)’를 규제 대상으로 명시하고, 사용 목적, 데이터 편향, 인간 개입 가능성 등 다양한 지표를 기준으로 등급화하여 적용하고 있다. 중국은 한발 더 나아가 2023년부터 생성형 AI 기술에 대해 등록제와 사전 검열, 모니터링 의무를 포함한 강력한 감독 체계를 운영 중이다. 이에 비해 미국은 아직 연방 차원의 AI 안전 법제화는 미비한 상태이며, 주 정부 중심의 분권적 대응이 진행되고 있다. 이 가운데 뉴욕주의 RAISE Act는 미국 내 최초로 ‘AI 재난 예방’을 명시한 실질적 안전망이자, 정책적 선례를 제시한 법안이다.
또한 해당 법안이 갖는 가장 중요한 특징은, AI 기술 자체를 규제하지 않는다는 점이다. 법안은 특정 알고리즘이나 모델을 금지하거나 사전 승인을 요구하지 않는다. 대신 AI 기술의 활용 결과에 주목한다.
“이 기술이 실제로 100명 이상의 사망을 유발하거나, 10억 달러 이상의 재산 피해를 초래할 수 있다면, 반드시 사전에 그 위험을 분석하고 대비책을 수립하라.”
이와 같이 ‘결과 기반 규제(result-oriented regulation)’는 AI 산업의 발전을 억제하지 않으면서도, 사회적 위험에 대해 실질적이고 책임 있는 대비를 요구하는 균형적인 규제 접근으로 평가된다. 특히 기술적 위험을 식별하기 위한 정량적 기준도 포함하고 있어 주목받고 있다. 예를 들어, AI 모델이 1억 달러 이상의 연산 인프라를 필요로 하거나, 시뮬레이션 상에서 100명 이상의 사망을 유발할 가능성이 도출될 경우 해당 모델은 ‘고위험 AI’로 분류되며, RAISE Act의 적용 대상이 된다.
이는 AI 기술의 복잡한 특성과 불확실성을 고려하여, 기술적 지표를 정책 언어로 효과적으로 번역한 입법 사례로도 높이 평가할 수 있다.
산업계, “조용한 수용과 전략적 거리 두기” RAISE Act의 통과 이후, OpenAI, Anthropic, Google DeepMind, Meta 등 Frontier AI 기업들은 공식적인 반발이나 로비 활동보다는 조용한 수용과 전략적 거리 두기로 대응 수위를 조정하고 있다.
외부적으로는 “산업을 위축시킬 수 있다”는 직접적인 경고는 자제하고 있으나, 내부적으로는 이미 법률 리스크 분석, 고위험 AI 모델의 위험도 재평가, 사고 보고 프로토콜의 체계화 등을 본격적으로 가동하고 있는 것으로 알려졌다.

OpenAI는 이미 2023년 말부터 ‘시스템 카드(System Card)’라는 이름으로 GPT-4 및 이후 모델의 안전 시뮬레이션 데이터를 공개하고 있으며, 이는 사실상 RAISE Act가 요구하는 위험 보고의 틀과 유사한 구조를 갖고 있다. Anthropic 역시 ‘헌법형 AI’ 접근을 통해 자체적인 위험 통제 시스템을 공개했으며, 이는 규제 친화적인 기술 프레임워크로 해석된다.
BSA(미국 소프트웨어산업협회)는 “해당 법의 사고 보고 기준이 모호하고 과도하다”고 공식 성명을 내면서도, 법 시행을 전제로 협상 테이블에 나섰다. 일부 기업들 또한 뉴욕주 내 AI 연구 활동을 축소하거나, 핵심 개발 자산의 주 단위 분산 배치를 고려하고 있는 것으로 전해진다. 이는 단순한 회피라기보다, 법적 리스크를 최소화하면서 기술 개발의 자율성과 민첩성을 확보하려는 전략적 대응에 가깝다. 즉 산업계가 단순히 법안을 비판하는 데 그치지 않고, 실제로 ‘자사 모델이 이 법의 대상이 될 수 있다’는 인식을 바탕으로, 장기 전략을 조정하고 있다는 증거이다.
결국 RAISE Act는 AI 산업 전반에 “법적 책임성과 기술 안전성 확보”를 강요하는 규제로 인식되기보다, 향후 AI 시장 진입을 위한 새로운 라이선스 기준으로 받아들여지고 있다.
기술에서 제도로: AI 생태계의 구조적 전환 RAISE Act 이후 AI 기술 생태계는 단순한 규제 대응을 넘어, 법적 책임성과 사회적 수용성을 내장한 AI 인프라의 재설계 국면에 접어들었다. 최근에는 위험 시뮬레이션, 사고 자동 보고, 고위험 예측 서브모델 등을 포함한 ‘규제 친화형 AI 툴킷’이 속속 등장하고 있다. 이는 단순한 회피 전략이 아니라, AI가 공공성과 법적 책임을 전제로 설계되어야 한다는 인식의 확산을 반영한다.
RAISE Act는 인공지능을 더 이상 기술적 결과물에 머물게 하지 않고, 사회적 영향을 고려한 시스템으로 법제화했다. 이에 따라 투자자들은 기술력보다 위험 통제, 투명성, 윤리 대응 전략을 갖춘 기업을 선호하고 있으며, 이는 AI 기술 표준화와 인증 시장의 성장을 촉진할 전망이다.
“사고가 나면 책임질 주체가 있어야 한다.”
“AI는 자유로운 창작물이 아니라, 공공 위험을 내포한 기술 인프라다.”
이제는 AI 기술의 윤리성과 위험성, 법률적 영향력을 모두 고려한 입체적 거버넌스 구조가 요구된다. RAISE Act는 기술적 시뮬레이션 능력과 정량적 위험 예측을 법률적 요건으로 편입함으로써, ‘도덕적 당위’를 넘어선 실용적 규제 프레임워크를 가능케 했다는 점에서 의미가 깊다.
특히 글로벌 빅테크 기업들이 이미 유럽(EU AI Act), 중국(생성형 AI 등록제), 그리고 미국 내 상이한 주 법규에 대응하는 상황에서, 뉴욕의 모델은 고위험 AI를 위한 ‘최소 공통 규제 기준’으로 부상할 잠재력이 크다. 궁극적으로 이는 AI 기술이 규제의 바깥에 있는 실험이 아니라, 사회적 계약 안에 포함된 ‘책임 기술’로 전환되고 있음을 보여주는 결정적 장면이라 할 수 있다.

뉴욕주의 'RAISE Act'는 단순한 AI 규제가 아니다.
이것은 기술이 사회와 공존하기 위해 어떤 ‘사회적 조건’을 갖춰야 하는지에 대한 하나의 청사진이다.
AI는 더 이상 '기술의 자유'로만 정의되지 않는다. 이제는 ‘위험을 통제할 수 있는 책임의 구조’가 설계되어야 할 시대에 들어섰다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]