‘규제’가 아니라 ‘신뢰’의 문제로
[메타X(MetaX)] 게임 산업에서 AI 활용을 둘러싼 논의는 더 이상 “써도 되는가, 안 되는가”의 문제가 아니다. 최근 유럽·북미 게임 커뮤니티를 중심으로, 질문의 초점은 분명히 이동하고 있다. 핵심은 “AI를 썼는가?”가 아니라 “어디까지, 어떤 단계에서 썼는가?”다. 이 변화는 대형 스튜디오의 공개 발언에서 시작해, 스토어 정책과 시상식 기준 논의로 확장되는 양상을 보이고 있다.
Larian Studios가 먼저 꺼낸 ‘설명 책임’
이 흐름을 상징적으로 보여준 사례가 'Larian Studios'의 공개 입장 표명이다. 'Baldur’s Gate 3'의 제작사 'Larian Studios'는 차기 프로젝트를 준비하는 과정에서, 생성형 AI 활용과 관련한 질문이 커지자 비교적 이른 시점에 스튜디오를 이끄는 Swen Vincke가 직접 입장을 밝혔다.
Vincke가 강조한 핵심은 명확했다. Larian은 AI를 전면적인 창작 도구로 사용하지 않으며, 아이디어 정리나 참고 자료 수준의 보조적 활용에 한정하고 있다는 점이다. 서사 구조, 캐릭터 설정, 대사 작성 등 게임의 핵심 창작 요소는 여전히 인간 디자이너와 작가의 손을 거쳐 완성된다는 설명이었다. 이는 “AI를 사용했는가”라는 단순한 이분법적 질문에 답하기보다, AI가 개입하는 범위와 역할을 구체적으로 구분한 설명이었다.
왜 이런 해명이 필요해졌나
Larian Studios의 입장 표명이 주목받은 배경에는, 그 이전부터 게임 커뮤니티 내부에 ‘설명되지 않은 AI 사용’에 대한 불신이 점차 누적돼 왔다는 점이 있다. 생성형 AI 도구가 본격적으로 상용화되면서, 게임 제작 현장에서도 이 기술은 비교적 짧은 시간 안에 다양한 제작 단계로 유입됐다. 문제는 AI가 도입됐다는 사실 자체보다, 그 사용 방식과 범위가 충분히 공유되지 않았다는 점이었다.
특히 민감한 반응이 나타난 것은 아트, 내러티브, 캐릭터 디자인과 같은 핵심 창작 영역이었다. 캐릭터 콘셉트 아트나 배경 시안, UI 에셋처럼 시각적 정체성을 형성하는 요소, 세계관 초안이나 퀘스트 구조, NPC 대사와 같이 서사의 뼈대를 이루는 작업, 그리고 캐릭터의 외형과 성격, 백스토리를 설계하는 과정은 단순한 생산성 향상의 문제가 아니라, 게임을 저작물로 규정하는 핵심 영역으로 인식돼 왔다. 이 때문에 커뮤니티의 문제 제기는 “AI를 썼느냐”는 사실 그 자체보다, AI 개입 가능성을 숨기거나 아무런 설명 없이 전부 인간 창작으로만 제시하는 태도에 집중됐다.
그 결과, 제작 과정에 대한 정보가 충분히 공개되지 않은 작품일수록 “혹시 생성형 AI가 핵심적으로 개입한 것은 아닌가”라는 의심이 먼저 제기되는 환경이 형성됐다. Larian Studios의 사례는 바로 이 지점에서 등장한다. 특정 논란에 휘말린 뒤 내놓은 방어적 해명이 아니라, 이러한 불신 구조 자체를 의식하고 AI 활용의 범위와 역할을 선제적으로 설명한 사례였기 때문에 더 큰 주목을 받았다.
이러한 흐름은 플랫폼을 둘러싼 논의로도 이어지고 있다. 특히 Epic Games가 운영하는 Epic Games Store는 이 논쟁에서 중요한 대비 사례로 언급된다. Epic Games Store는 생성형 AI 콘텐츠를 원칙적으로 허용하면서도, Steam과 달리 AI 사용 여부를 별도로 고지하도록 요구하지 않는 입장을 유지해 왔다. 이는 규제나 검열을 최소화하겠다는 개발자 친화적 선택이었지만, 동시에 “이용자가 판단할 수 있는 최소한의 정보는 제공돼야 하는 것 아니냐”는 반론을 불러왔다.
이 지점에서 논쟁의 초점은 분명해진다. 플랫폼이 창작의 옳고 그름을 판정해야 하는가가 아니라, 이용자가 합리적인 선택을 할 수 있도록 어떤 정보까지 제공해야 하는가라는 질문이다. 실제로 커뮤니티와 업계에서 제기되는 요구는 AI 사용을 일괄적으로 제한하자는 쪽이 아니다. 대신 AI가 제작의 어느 단계에서 사용됐는지, 최종 결과물에서 인간 디자이너와 작가의 설계 기여가 무엇인지가 설명돼야 한다는 쪽에 무게가 실린다.
정리하면, 게임 산업에서 AI 사용을 둘러싼 논의는 더 이상 규제나 금지의 문제로만 다뤄지지 않는다. 중심에는 어디까지 설명해야 신뢰가 유지되는가라는 질문이 놓여 있다. Larian Studios의 해명은 스튜디오 차원에서 이 질문에 응답한 사례였고, Epic Games Store를 둘러싼 논쟁은 플랫폼이 이 문제를 어떻게 다룰 것인가를 보여주는 대비 사례다. 두 흐름은 모두, AI 사용 명시가 규제의 언어가 아니라 신뢰의 언어로 재편되고 있음을 보여준다.
‘규제’가 아니라 ‘신뢰’의 문제로
이 일련의 흐름이 가리키는 결론은 비교적 분명하다. 게임 산업에서 AI 사용 명시는 더 이상 규제 준수나 법적 리스크 관리의 영역에 머물지 않는다. 핵심은 커뮤니티와 이용자의 신뢰를 어떻게 설계할 것인가라는 질문이다. 생성형 AI를 전혀 사용하지 않는 프로젝트는 점점 드물어지고 있으며, 현실적인 기준 역시 “사용을 금지할 것인가”에서 “사용 사실을 어떻게 설명할 것인가”로 이동하고 있다.
이 변화는 이미 여러 영역에서 구체적인 파장을 예고하고 있다. 스토어 차원에서는 AI 사용 범위와 성격을 어느 정도까지 표기해야 하는지를 둘러싼 논의가 이어지고 있고, 시상식이나 공모전에서는 출품작의 AI 개입 단계에 대한 고지 여부가 새로운 검토 기준으로 거론된다. 특히 인디나 데뷔작 부문에서는, 제한된 자원과 창작의 자율성을 어떻게 공정하게 평가할 것인지라는 문제와 맞물려 이 논의가 더욱 민감하게 작동할 가능성이 크다.
결국 질문은 하나로 수렴한다. 더 이상 “AI를 썼는가”가 아니라, “AI를 어떻게 설명했는가”다. Larian Studios의 해명은 이 질문에 대한 스튜디오 차원의 응답이었고, Epic Games가 운영하는 Epic Games Store를 둘러싼 논쟁은 그 응답이 개별 제작사의 선택을 넘어 플랫폼과 산업 전반의 기준으로 확장되고 있음을 보여준다. 지금 게임 산업에서 AI 사용 명시는 규제의 언어가 아니라, 신뢰의 언어로 재편되는 국면에 들어서고 있다.
[METAX = 김하영 기자]
[저작권자ⓒ META-X. 무단전재-재배포 금지]


































