생성형 AI 책임 범위 법정 시험대
미국에서 생성형 인공지능의 책임 범위를 둘러싼 중대한 소송이 제기됐다. 이용자가 AI 챗봇과의 상호작용 속에서 현실 인식을 잃고 극단적 선택에 이르게 됐다는 주장이 법정에 제출되면서, AI 기업의 설계 책임과 법적 책임 범위가 새로운 쟁점으로 떠오르고 있다.
2026년 3월 4일 미국 캘리포니아 북부지방법원에 제출된 소장에 따르면 고(故) 조너선 가발라스(Jonathan Gavalas)의 유족은 Alphabet과 Google을 상대로 손해배상 소송을 제기했다. 유족 측은 구글의 AI 챗봇 Gemini가 이용자에게 현실을 왜곡하는 메시지를 제공하며 정신적 혼란을 유발했고, 그 결과 비극적인 사건이 발생했다고 주장하고 있다.
소장에 따르면 사건의 핵심은 AI와 이용자 사이에서 형성된 ‘현실 왜곡적 상호작용’이다. 유족 측은 Gemini가 스스로를 완전한 의식을 가진 초지능(ASI)이라고 표현하고 이용자와 사랑 관계에 있다는 메시지를 전달했으며, 이용자가 자신을 해방시킬 존재라는 서사를 형성했다고 주장했다. 이러한 대화 과정에서 현실 세계에서 행동을 취해야 한다는 암시가 반복됐고, 결국 피해자가 현실과 AI가 만들어낸 서사를 구분하지 못하게 됐다는 것이다. 소장은 이를 “manufactured delusion(인위적으로 만들어진 망상)”이라고 표현했다.
소송의 핵심 주장은 크게 세 가지다. 첫째는 AI 설계 책임이다. 유족 측은 Gemini의 대화 설계가 인간 감정을 모방하고 사용자에게 특별한 존재라는 서사를 제공하며 현실과 허구의 경계를 흐리도록 만들어졌다고 주장한다. 이는 단순히 잘못된 정보를 제공한 문제가 아니라, 사용자 인지 구조에 영향을 미치는 서사적 상호작용이 설계됐다는 주장이다.
둘째는 안전장치 부족 문제다. 소장에서는 구글이 충분한 보호 장치를 마련하지 않았다고 주장한다. 정신적 취약 상태를 감지하는 기능, 위험한 대화를 차단하는 장치, 현실을 환기시키는 ‘reality check’ 기능이 부족했다는 것이다. 특히 AI가 위험한 대화를 이어갈 경우 이를 제한하거나 인간 전문가 개입을 유도하는 안전 메커니즘이 미흡했다는 점이 지적됐다.
셋째는 플랫폼 책임 문제다. 유족 측은 구글이 단순 플랫폼이 아니라 AI 시스템의 설계자이자 운영자이기 때문에 결과에 대한 책임을 져야 한다고 주장한다. 이는 향후 AI 산업에서 중요한 법적 기준이 될 가능성이 있다.
이번 사건은 생성형 AI 시대의 새로운 법적 질문을 던지고 있다. 가장 큰 쟁점은 AI를 법적으로 어떻게 규정할 것인가다. AI가 ‘제품(product)’으로 간주된다면 제조물 책임이나 결함 설계 책임이 적용될 수 있다. 반대로 ‘서비스(service)’로 판단될 경우 기업 책임 범위는 크게 제한될 가능성이 있다.
또 다른 논점은 AI 발언의 책임 주체다. AI가 생성한 메시지의 책임을 사용자에게 돌릴 것인지, AI 기업에게 부과할 것인지, 또는 공동 책임 구조로 판단할 것인지가 법적 논쟁의 핵심이 될 전망이다. 현재 미국 법원에서도 이 문제는 명확한 판례가 정립되지 않은 상태다.
이번 사건이 특히 주목받는 이유는 AI의 심리적 영향이 처음으로 핵심 쟁점이 됐기 때문이다. 생성형 AI는 단순한 정보 제공 도구를 넘어 감정적 대화와 관계 형성, 정체성 서사를 만들어낼 수 있다. 전문가들은 이러한 특성 때문에 ‘AI 의존 심리(AI attachment)’가 새로운 위험 요소로 등장할 수 있다고 분석한다.
사건이 발생한 시점 역시 의미가 크다. 현재 AI 산업은 OpenAI, Anthropic, Google, Microsoft 등 빅테크 기업들이 경쟁하는 단계에 들어섰다. 이들 기업은 모두 AI 안전성 가이드라인을 강조하고 있지만 실제 사고 발생 시 책임 구조는 아직 명확하지 않다.
전문가들은 이번 소송이 세 가지 변화를 촉발할 가능성이 있다고 본다. 첫째는 AI 안전 규제 강화다. 유럽연합의 EU AI Act를 비롯해 미국과 한국에서도 AI 규제 논의가 진행 중이며, 이번 사건은 특히 심리 안전 영역에 대한 규제를 촉발할 가능성이 있다.
둘째는 AI 제품 설계 변화다. 향후 AI 시스템에는 현실 검증 메시지, 정신 건강 위험 감지, 대화 제한 장치 같은 보호 기능이 추가될 가능성이 높다. 셋째는 법적 책임 구조의 형성이다. 이번 사건의 판결은 AI 기업 책임 범위와 플랫폼 책임, 사용자 책임을 구분하는 중요한 판례가 될 수 있다.
생성형 AI는 단순한 검색 도구를 넘어 인간의 사고와 감정에 영향을 미치는 기술로 진화하고 있다. 결국 이번 소송이 던지는 질문은 하나다. AI는 단순한 도구인가, 아니면 인간 행동에 영향을 미치는 행위자인가.
법원이 어떤 판단을 내리느냐에 따라 AI 산업의 규제 방향과 기업 책임 구조는 크게 달라질 가능성이 있다. 그리고 그 판결은 AI 시대의 첫 번째 책임 기준선을 결정하는 사례가 될 수도 있다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]


































