“AI가 총격 사건과 연결됐다”… 책임 논쟁, 새로운 국면
이든 기자
metax@metax.kr | 2026-04-15 07:00:00
청소년 보호·국가안보 프레임… AI 규제 강도 급상승
[메타X(MetaX)] 미국에서 생성형 인공지능(AI)을 둘러싼 규제 논쟁이 새로운 단계에 진입했다. 플로리다 주 법무장관이 OpenAI와 ChatGPT를 대상으로 공식 조사에 착수하면서, AI가 청소년 피해, 국가안보, 심지어 총격 사건과의 연관성까지 의심받는 상황이 전개되고 있다. 이는 단순 기업 조사 수준을 넘어 AI 책임성(Accountability)을 둘러싼 구조적 논쟁의 본격화를 의미한다.
플로리다 주 법무장관 제임스 우스마이어는 2026년 4월 OpenAI 및 ChatGPT에 대한 조사 착수를 공식 발표했다. 조사 대상은 크게 세 가지로, 청소년에게 미치는 유해 영향, 국가안보 위협 가능성, 그리고 플로리다 주립대학교(FSU) 총격 사건과의 잠재적 연관성이다. 그는 성명을 통해 “AI는 인류를 발전시켜야 하며, 아이들에게 피해를 주거나 국가를 위험에 빠뜨리는 방향으로 작동해서는 안 된다”고 강조했다.
이번 사건의 핵심은 AI를 바라보는 관점의 변화에 있다. 기존에는 AI를 중립적 도구로 간주했지만, 이제는 인간의 행동에 영향을 미치는 ‘행위자(actor)’로 인식되기 시작했다. 즉 AI가 실제 사건에 어떤 영향을 미쳤는지가 법적·사회적 쟁점으로 부상하고 있는 것이다. 이는 AI 결과에 대한 책임 범위를 어디까지 설정할 것인가라는 근본적인 질문으로 이어진다.
특히 청소년 보호 문제는 규제 강화의 가장 강력한 촉발 요인으로 작용하고 있다. AI와의 정서적 상호작용, 잘못된 정보 제공, 위험한 조언 가능성 등은 기존 SNS 중독 및 알고리즘 문제와 유사한 규제 흐름을 형성하고 있다. 청소년을 대상으로 한 AI 사용 제한이나 별도 안전 기준 마련이 향후 정책으로 구체화될 가능성이 높다.
이번 조사에서 또 하나 주목할 요소는 ‘국가안보’ 프레임이다. AI가 국가안보 위협으로 규정되는 순간, 이는 단순한 기술 규제를 넘어 국가 차원의 전략적 통제 대상으로 전환된다. 즉 AI는 더 이상 혁신 기술이 아니라 국가 경쟁력과 직결된 전략 자산으로 재정의되는 것이다.
가장 민감한 쟁점은 총격 사건과의 연관성이다. 현재까지 AI와 해당 사건 간 직접적인 인과관계는 확인되지 않은 상태다(확실하지 않음). 그러나 정책 논의는 이미 “직접 원인”을 넘어 “간접적 영향”까지 확대되고 있다. AI가 특정 사고를 강화했는지, 위험 행동을 촉진했는지, 정보 제공 방식이 행동에 영향을 미쳤는지가 새로운 판단 기준으로 떠오르고 있다.
이 과정에서 책임의 주체를 둘러싼 논쟁도 심화되고 있다. AI 기업은 시스템 설계 책임을, 사용자는 행위 책임을, 정부는 규제 책임을 각각 부담해야 한다는 입장이 맞서고 있다. 이러한 책임 분산 구조는 향후 법제화 과정에서 가장 복잡한 쟁점이 될 가능성이 크다.
또한 표현의 자유와 안전 사이의 균형 문제도 핵심 이슈로 부상하고 있다. AI의 자유로운 응답을 보장할 것인지, 위험 콘텐츠를 사전에 차단할 것인지에 따라 규제 방향은 크게 달라질 수밖에 없다. 특히 미국이 기존의 ‘혁신 우선, 사후 규제’ 모델에서 벗어나 사전 규제 강화로 이동할 가능성이 제기되고 있다는 점은 주목할 필요가 있다.
학술적으로는 AI와 인간 행동의 관계를 설명하는 사회인지 이론이 이러한 논쟁의 이론적 기반을 제공한다. 인간은 외부 정보와 환경에 의해 행동을 학습하며, 반복 노출은 인식과 행동 변화를 유도한다. 생성형 AI는 초개인화된 정보 제공 시스템이라는 점에서 기존 미디어보다 더 강력한 영향력을 가질 수 있다는 분석이 나온다.
이번 사건은 향후 AI 산업 전반에 구조적 변화를 가져올 가능성이 크다. AI 결과에 대한 법적 책임을 명확히 하는 ‘AI 책임법’ 도입 논의가 본격화될 수 있으며, 청소년 보호를 위한 연령 기반 접근 제한 정책도 강화될 전망이다. 또한 AI 사용 기록과 로그 추적 의무화, 사용자 행동 데이터 관리 강화 등 규제 체계가 확대될 가능성이 높다. 이는 AI 기업이 기존 기술 기업을 넘어 규제 산업으로 편입되는 전환점이 될 수 있다.
결국 이번 조사는 하나의 근본적인 질문으로 귀결된다. AI는 어디까지 책임져야 하는가. 이 질문에 대한 사회적·법적 합의가 향후 AI 산업의 구조와 방향을 결정짓는 핵심 기준이 될 것으로 보인다.
[ⓒ META-X. 무단전재-재배포 금지]