“AI는 누구의 이름으로 말하는가”

이든 기자

metax@metax.kr | 2026-03-19 07:00:20

Grammarly 집단소송이 드러낸 생성형 AI 시대의 저작권·정체성 논쟁

[메타X(MetaX)] 2026년 미국 뉴욕 연방지방법원에서 제기된 한 집단소송이 생성형 인공지능 시대의 새로운 법적 쟁점을 드러내고 있다. 탐사 저널리스트 Julia Angwin은 AI 글쓰기 서비스 Grammarly를 운영하는 Superhuman Platform을 상대로 집단소송을 제기하며, 자사 AI 기능이 수백 명의 작가와 기자의 이름과 정체성을 무단으로 사용했다고 주장했다.

이번 소송의 핵심은 Grammarly가 2025년에 도입한 “Expert Review” 기능이다. 이 기능은 사용자가 글을 업로드하면 유명 작가나 저널리스트의 스타일과 전문성을 기반으로 한 피드백을 제공하는 서비스로 홍보됐다. 문제는 피드백 과정에서 실제 인물의 이름이 표시됐다는 점이다.

[메타X(MetaX)]“AI는 누구의 이름으로 말하는가”

원고 측에 따르면 피드백 제공자로 표시된 인물에는 Julia Angwin뿐 아니라 소설가 Stephen King 등 유명 작가와 기자들이 포함되어 있었다. 그러나 이들 가운데 상당수는 해당 기능에 자신의 이름이나 정체성이 사용되는 것에 동의한 적이 없다는 것이다.

원고 측은 소장에서 “Grammarly는 작가들의 이름과 정체성을 상업적으로 이용했으며, 실제로 존재하지 않는 조언을 해당 인물이 제공한 것처럼 AI가 표현했다”고 주장했다. 이 사건은 단순한 서비스 분쟁을 넘어 생성형 AI 시대의 지식, 정체성, 그리고 저작권 문제를 동시에 드러내는 대표적 사례로 평가된다.

이번 사건에서 특히 주목되는 점은 소송의 법적 근거가 전통적인 저작권(copyright)이 아니라 퍼블리시티권(Right of Publicity)이라는 점이다. 퍼블리시티권은 개인의 이름, 이미지, 목소리, 정체성 등을 상업적으로 사용할 경우 반드시 당사자의 동의를 받아야 한다는 권리다. 미국 법원은 오랫동안 타인의 이름을 광고나 상업적 목적에 사용하는 행위를 불법으로 판단해 왔으며, 특히 동의 없는 상업적 이용은 프라이버시 침해로 간주되는 경우가 많다.

뉴욕 민권법 Section 50 역시 이러한 원칙을 명확히 규정하고 있다. 해당 조항은 개인의 이름이나 초상 등을 동의 없이 광고나 상업적 목적에 사용하는 행위를 불법으로 규정하고 있다. 결국 이번 사건의 핵심 질문은 “AI가 누군가의 목소리나 전문성을 모방해도 되는가”라는 문제로 압축된다.

생성형 AI의 발전은 기존의 지식재산권 체계를 흔들고 있다. 기존 창작물 보호 체계는 크게 세 가지로 구분된다. 저작권은 창작물을 보호하고, 상표권은 브랜드를 보호하며, 특허는 기술을 보호한다. 그러나 생성형 AI는 이 구분을 넘어서는 새로운 문제를 만들어내고 있다.

AI는 단순히 기존 텍스트를 복제하는 것이 아니라 특정 작가의 스타일과 말투, 지식 구조, 심지어 정체성까지 학습하는 특징을 갖는다. 예를 들어 특정 작가의 스타일로 글을 생성하거나, 특정 전문가처럼 조언을 제공하거나, 특정 기자의 시각을 모방하는 방식이 가능해졌다. 이러한 변화는 “AI가 누군가의 지식과 스타일을 학습해 그 사람처럼 말하는 것이 어디까지 허용될 수 있는가”라는 새로운 법적 질문을 만들어낸다.

AI 기업들은 일반적으로 이러한 문제에 대해 비슷한 논리를 제시해 왔다. 기업들은 AI가 특정 개인을 복제하는 것이 아니라 방대한 데이터에서 통계적 패턴을 학습할 뿐이라고 주장한다. 또한 AI가 생성하는 결과물은 기존 데이터를 그대로 복제한 것이 아니라 새로운 콘텐츠라고 설명한다. 이러한 논리는 여러 AI 저작권 소송에서도 등장했다.

대표적인 사례로는 The New York Times가 OpenAI를 상대로 제기한 저작권 소송이나 Authors Guild가 여러 AI 기업을 상대로 제기한 소송, 그리고 Getty Images가 Stability AI를 상대로 제기한 이미지 저작권 소송 등이 있다.

그러나 Grammarly 사건은 기존의 저작권 분쟁과는 다른 방향을 보여준다. 여기서 논쟁의 중심은 데이터 학습 자체가 아니라 정체성의 사용이다. 즉 AI가 특정 작가의 스타일을 학습하는 것과, AI가 “이 작가가 조언한 것처럼” 표현하는 것은 전혀 다른 문제라는 주장이다.

전문가들은 이 사건이 AI 규제의 새로운 방향을 제시할 가능성이 있다고 보고 있다. 지금까지 AI 규제 논쟁은 주로 학습 데이터의 저작권 문제나 데이터 스크래핑의 합법성, 공정 이용(fair use) 여부 등에 집중돼 있었다. 그러나 앞으로는 스타일 권리, 정체성 권리, 전문성 권리 같은 새로운 법적 개념이 등장할 가능성이 높다는 분석이 나온다.

스타일 권리는 특정 창작자의 표현 방식이나 글쓰기 스타일을 AI가 모방하는 문제와 관련된다. 정체성 권리는 AI가 특정 인물처럼 말하거나 조언하는 문제를 의미한다. 또한 전문성 권리는 AI가 특정 전문가의 권위를 이용해 신뢰성을 확보하는 문제와 연결된다. Grammarly 소송은 이 세 가지 문제를 동시에 제기하고 있다는 점에서 중요한 사례로 평가된다.

이 사건의 판결은 AI 산업 전반에도 영향을 미칠 가능성이 있다. AI 글쓰기 플랫폼뿐 아니라 AI 콘텐츠 생성 서비스, 그리고 전문가 조언을 제공하는 AI 에이전트 서비스까지 다양한 산업 영역에서 동일한 문제가 등장할 수 있기 때문이다. 특히 AI Agent 시대가 본격화되면 AI는 단순히 글을 생성하는 도구를 넘어 전문가처럼 조언하고 분석하는 시스템으로 발전하게 된다.

이때 등장하는 핵심 질문은 “AI는 누구의 이름으로 말하는가”라는 문제다. 앞으로 AI가 의사처럼 진단하고, 변호사처럼 분석하며, 기자처럼 설명하는 역할을 하게 될 경우 해당 전문성의 정체성과 책임은 누구에게 귀속되는가라는 논쟁이 더욱 중요해질 가능성이 높다.

현재 AI 관련 법적 분쟁은 크게 세 단계로 발전하고 있다는 분석도 나온다. 첫 번째 단계는 학습 데이터 저작권 분쟁이다. 뉴스 기사나 이미지, 책 등 학습 데이터 사용이 저작권을 침해하는지에 대한 논쟁이 여기에 해당한다. 두 번째 단계는 AI 생성 콘텐츠 책임 문제다. 딥페이크나 허위 정보 생성 같은 문제들이 이 범주에 포함된다. 세 번째 단계는 AI 정체성 사용 문제다. AI가 특정 인물의 이름이나 전문성을 활용해 콘텐츠를 생성하는 문제다.

Grammarly 사건은 바로 이 세 번째 단계의 시작을 보여주는 사례로 평가된다. AI가 단순한 도구를 넘어 하나의 디지털 인격처럼 행동하기 시작했기 때문이다.

AI 기술은 데이터를 학습하고 패턴을 이해하며 새로운 지식을 생성하는 시스템으로 발전해 왔다. 그러나 이제 AI는 단순히 정보를 처리하는 수준을 넘어 사람의 정체성과 표현 방식까지 모방하는 단계에 들어가고 있다.

이번 집단소송은 단순한 서비스 분쟁을 넘어 생성형 AI 시대의 근본적인 질문을 던지고 있다. AI가 인간의 이름으로 말할 수 있는가라는 질문이다. 그리고 그 답은 앞으로 AI 산업의 규칙과 윤리를 새롭게 정의하는 중요한 기준이 될 가능성이 있다.

[ⓒ META-X. 무단전재-재배포 금지]

WEEKLY HOT