'TikTok' 모회사 ByteDance, AI 영상 생성 모델 'Seedance 2.0' 공개
김하영 기자
hashe@metax.kr | 2026-02-27 07:00:00
[메타X(MetaX)] 2026년 2월 12일, ByteDance가 AI 영상 생성 모델 Seedance 2.0을 공개했다. 텍스트 몇 줄만 입력하면 최대 15초 분량의 영상을 만들어내며, 이미지·영상 클립·오디오 파일을 함께 넣으면 모델이 이를 하나의 창작 맥락으로 해석해 영상을 완성한다. TikTok의 모회사가 만든 도구라는 점에서 출시 전부터 주목을 받아왔지만, 실제 파장은 예상을 훌쩍 넘었다. 공개 후 24시간도 채 되지 않아 인터넷엔 Tom Cruise와 Brad Pitt가 옥상에서 격투를 벌이는 영상이 퍼졌다.
제작 방식은 단순했다. 텍스트 두 줄. 버튼 하나.
해당 영상을 만든 VFX 아티스트 Ruairi Robinson은 X에 이렇게 썼다. "만약 '할리우드가 끝났다'는 사람들이 맞다면, 그 반대편도 틀린 건 아닐지 모른다." Deadpool 각본가 Rhett Reese는 댓글로 답했다. "말하기 싫지만. 우리가 끝날 수도 있다."
이번 이슈는 단순한 바이럴 해프닝으로 보기 어렵다. Seedance 2.0을 둘러싸고 불과 닷새 사이에 MPA가 공개 성명을 냈고, Disney·Paramount·Warner Bros.·Netflix·SonyPictures가 연달아 내용증명을 발송했으며, SAG-AFTRA와 DGA 등이 참여한 Human Artistry Campaign도 "전 세계 모든 창작자에 대한 공격"이라는 성명을 내놨다.
금융시장의 반응도 즉각적이었다. 중중국 AI 관련주(COL Group +20%, Shanghai Film·Perfect World +10%)는 기술력에 베팅하며 급등한 반면, Netflix 주가는 Seedance 2.0 출시와 Warner Bros. 인수 불확실성이 겹치며 해당 주 6.5% 하락했다(24/7 Wall St., 2026년 2월 14일). 이는 AI 영상 생성이 업계의 가장자리가 아닌 정중앙에 진입했음을 알리는 신호였다.
멀티모달이 바꾼 제작의 논리
초기 AI 영상 도구들은 텍스트 한 가지 입력만을 받았고, 결과물은 예측하기 어려웠다. 캐릭터의 얼굴이 컷마다 달라졌고, 오디오는 별도로 후처리해야 했으며, 장면 간의 시각적 연속성은 거의 담보되지 않았다. 생산성 도구라기보다 창의적 실험에 가까운 수준이었고, 그래서 실무 현장에서 본격적으로 채택되기에는 한계가 명확했다.
Seedance 2.0은 이 구조를 다르게 설계했다. 텍스트, 이미지(최대 9개), 영상 클립(최대 3개), 오디오 파일을 하나의 생성 요청 안에서 동시에 처리할 수 있다. 캐릭터 레퍼런스 이미지와 원하는 카메라 무빙이 담긴 영상 클립, 분위기에 맞는 배경음악을 함께 업로드하면 모델이 이것들을 단일한 창작 맥락으로 해석해 영상을 생성한다. 사용자가 무드보드를 제시하면, 모델이 그것을 그대로 번역하는 방식이다.
기술적으로 가장 눈에 띄는 변화는 두 가지다. 캐릭터 일관성 기은 얼굴, 의상, 체형을 영상 전체에 걸쳐 동일하게 유지하는데, 이는 기존 도구들이 가장 빈번하게 실패했던 지점이다. 한 장면에서 선명하게 묘사됐던 주인공이 다음 컷에서 전혀 다른 인물처럼 보이는 문제는 AI 영상의 실용성을 가로막는 핵심 장벽이었다. 오디오 처리 방식도 달라졌다. 영상 생성 후 사운드를 덧입히는 기존 방식과 달리, Seedance 2.0은 장면의 물리적 환경을 반영해 오디오를 영상과 동시에 생성한다. 대리석 바닥 위의 발소리와 카펫 위의 발소리가 구분되고, 대성당 안의 대화와 야외에서의 대화가 공간감을 달리한다. 세부적으로 보이는 이 차이가 시청자의 몰입감을 결정짓는다는 점에서, 기술적으로 의미 있는 진전이다.
성능 지표도 달라졌다. 전작 대비 생성 속도가 30% 향상됐다. 독립 테스트 기관 Artificial Analysis의 평가에서는 모션 리얼리즘 기준으로 OpenAI Sora와 동등한 수준이라는 결과가 나왔다. 다만 이는 단일 기관의 테스트 결과이므로, 업계 표준 지표로 보기는 어렵다.
물론 한계도 있다. 최대 클립 길이 15초는 최대 2분을 지원하는 Kling에 비해 짧고, 손 묘사와 세밀한 텍스트 렌더링은 현재 AI 영상 전반의 공통 약점으로 남아 있다. 다만 단편 광고, 소셜 콘텐츠, 프리프로덕션 프로토타이핑처럼 짧고 빠른 제작이 요구되는 영역에서는 이미 실무 진입 기준을 넘었다는 평가가 나오고 있다.
더 큰 변화는 제작 방식의 구조 자체에 있다. 기존 영상 제작은 선형적 파이프라인으로 움직였다. 기획이 확정돼야 촬영이 가능하고, 촬영이 끝나야 편집이 시작되며, 편집 이후에야 사운드 작업이 붙었다. 각 단계는 분리돼 있었고, 앞 단계의 결과물이 뒤 단계의 전제 조건이었다. 멀티모달 AI 도구는 이 구조적 논리를 바꾼다. 아이디어를 생성하고, 결과물을 확인하고, 즉시 수정하는 과정이 하나의 반복 루프 안에서 동시에 일어난다. 파이프라인이 아니라 대화에 가깝고, 이 차이는 단순한 속도 향상을 넘어 제작 의사결정의 방식 자체를 재편하고 있다.
어디서 먼저 쓰이고, 어디서 머뭇거리는가
변화는 업계마다 다른 속도와 다른 방식으로 찾아온다. 동일한 기술이라도 어떤 산업에서는 즉각적인 비용 절감으로 나타나고, 어떤 산업에서는 품질 기준의 벽에 막혀 보조적 역할에 머문다.
광고·마케팅은 현재 가장 빠르게 움직이는 영역이다. Canva와 Morning Consult가 전 세계 마케팅 직군 2,400명을 대상으로 실시한 조사에 따르면, 이미 마케터의 49%가 AI 영상 도구를 실무에 도입했다. 수주가 걸리던 광고 시안 제작이 몇 시간으로 단축되고, 멀티모달 입력 방식은 여기서 특히 유용하다. 로고, 제품 이미지, 브랜드 사운드 등 기존 에셋을 레퍼런스로 입력해두면 일관된 스타일의 영상을 반복 생성할 수 있어, 대규모 캠페인의 A/B 테스트 비용 구조를 근본적으로 바꿔놓는다. 인간 크리에이티브 디렉터의 역할이 사라지는 것은 아니지만, 시안 단계에서 요구되는 시간과 인력의 기준점 자체가 달라지고 있다.
소셜미디어·인플루언서 영역에서는 개인 크리에이터의 생산 역량이 구조적으로 확대된다. 촬영 장비나 편집 소프트웨어, 대규모 팀 없이도 스튜디오급 영상 제작이 가능해졌고, 트렌드를 빠르게 포착해 자신의 스타일로 재가공하는 속도도 비교할 수 없이 빨라졌다. 다만 이 민주화에는 구조적 역설이 따른다. 동일한 도구를 누구나 사용하게 되면 결과물의 품질은 평준화되고, 콘텐츠 과잉 속에서 개성을 유지하는 일은 오히려 더 어려워질 수 있다. 접근성의 확대가 반드시 경쟁력의 확대로 이어지지 않는다는 점에서, 이 변화는 기회인 동시에 새로운 형태의 압력이기도 하다.
게임·애니메이션 업계에서는 프리프로덕션 단계의 활용 가능성이 주목받고 있다. 스토리보드, 콘셉트 아트, 임시 컷신을 빠르게 시각화할 수 있다는 점에서 프로토타이핑 비용이 대폭 줄어들었고, 그 흐름이 후반작업에도 빠르게 이어진다. 글로벌 경영 컨설팅 기관 맥킨지(McKinsey & Company)가 수십 명의 엔터테인먼트 업계 임원을 인터뷰해 발표한 보고서, 'What AI Could Mean for Film and TV Production(2026년 1월)'에 따르면, 스튜디오 임원들은 VFX와 3D 에셋 제작에서 80~90%의 효율 향상을 기대한다고 밝혔다. 다만 최종 품질 기준이 엄격한 업계 특성상, AI 생성물을 완성본으로 쓰기보다는 제작 초기 단계의 보조 도구로 통합하는 방식이 현실적인 접근으로 자리 잡고 있다.
크리에이터, 생산자에서 디렉터로
AI 기술이 빠르게 확산될 때마다 반복되는 질문이 있다. 인간은 무엇을 하는가. 영상 제작의 맥락에서 현재 업계가 내놓는 답은 비교적 일관적이다. 경쟁 우위는 이미 '무엇을 만들 수 있느냐'에서 '어떻게 디렉팅하느냐'로 이동하고 있다는 것이다. AI가 생성하는 영상의 품질이 플랫폼 간에 빠르게 수렴하면서, 병목 지점은 생산 역량이 아니라 의사결정의 속도와 창의적 방향성으로 옮겨갔다.
이는 곧 정교한 프롬프트 작성 능력보다 명확한 비전을 갖추는 것이 더 중요해진다는 의미이기도 하다. 영상 제작의 기술적 장벽이 낮아진 만큼, '어떤 영상을 만들 것인가'라는 질문의 무게는 오히려 커진다. 도구가 민주화될수록 크리에이티브 판단력의 가치가 상승하는 역설적인 구조다.
스튜디오와 제작사 차원에서도 역할 재편의 논리는 유사하게 적용된다. 한 스튜디오 임원은 맥킨지 보고서 내 인터뷰에서 이렇게 말했다. "역사적으로 VFX 비용이 줄면 영화가 싸지는 게 아니라 더 좋아졌다. 절감된 비용이 품질에 재투자됐기 때문이다." 이 관점이 유효하다면, AI는 영상 산업의 규모를 축소시키기보다 오히려 확장시키는 방향으로 작동할 수 있다. 다만 그 확장의 과실이 어느 계층에 귀속되느냐는 별개의 문제로 남는다.
직군별로 보면 압박의 강도가 다르게 나타난다. 편집, 기초 VFX, 사운드 싱크처럼 기술 집약적이지만 반복적인 작업은 자동화의 직접적인 대상이 되는 반면, 기획·연출·브랜드 전략·스토리텔링처럼 판단과 감각이 요구되는 역할은 단기간 내 대체되기 어렵다. 맥킨지 보고서에서 인터뷰한 Infinite Studios의 CEO Adrienne Lahens는 "AI가 포스트프로덕션을 프리프로덕션 안으로 흡수하기 시작할 것"이라며, 이를 "콘텐츠를 만드는 방식 자체의 혁명"이라고 표현했다.
할리우드의 반격, Seedance 2.0이 터뜨린 진짜 폭탄
기술보다 더 빠르게 움직인 건 법무팀이었다. 출시 다음 날인 2월 13일, MPA(미국영화협회) 회장 Charles Rivkin은 공식 성명을 냈다. "단 하루 만에 Seedance 2.0은 미국 저작권물을 대규모로 무단 이용했다. ByteDance는 수백만 미국인의 일자리를 보호하는 저작권법을 정면으로 무시하고 있다." 이후 닷새 사이에 Disney, Paramount, Warner Bros., Netflix, Sony Pictures가 차례로 ByteDance에 내용증명을 발송했다.
각사의 주장은 구체적이었다. Disney는 ByteDance가 Star Wars, Marvel 등 자사 캐릭터를 "피해가도 되는 공공 도메인 클립아트처럼 취급하며 무단 배포했다"고 주장했고, Paramount는 South Park, Star Trek, SpongeBob, The Godfather 등이 반복적으로 복제됐다고 적시했다. Netflix는 한발 더 나아가 Seedance를 "고속 저작권 침해 엔진"이라 규정하며 즉각적 소송을 예고했다. 배우·감독·작가 등 창작자 단체들의 연합체인 Human Artistry Campaign도 성명을 내놨다. SAG-AFTRA(미국배우조합)와 DGA(감독조합)가 속한 이 연합체는 "Seedance 2.0의 출시는 전 세계 모든 창작자에 대한 공격이다. 인간 창작자의 작업물을 훔쳐 AI 슬롭으로 대체하려는 시도는 우리 문화를 파괴한다. 무단 딥페이크와 배우들의 보이스 클론은 개인 자율성의 가장 기본적인 영역을 침해하며, 당국은 이 대규모 절도를 막기 위해 가용한 모든 법적 수단을 동원해야 한다"고 밝혔다.
Human Artistry Campaign은 앞서 Scarlett Johansson, Cate Blanchett, Joseph Gordon-Levitt 등이 서명한 "Stealing Isn't Innovation" 캠페인을 주도한 단체이기도 하다. 이번 성명은 그 연장선에 있다.
ByteDance는 "지적재산권을 존중하며 세이프가드를 강화하겠다"는 입장을 밝혔지만, 구체적인 방안은 공개하지 않았다.
이 갈등의 법적 핵심은 두 가지다. AI 모델 학습에 저작권 콘텐츠를 활용하는 것이 Fair Use에 해당하는가, 그리고 사용자가 저작권물을 기반으로 콘텐츠를 생성할 때 플랫폼의 책임은 어디까지인가. 두 질문 모두 아직 법원에서 확정된 답이 없다.
비교해볼 선례가 있다. OpenAI는 지난해 9월 Sora 공개 후 MPA로부터 유사한 비판을 받자 저작권 세이프가드를 빠르게 적용했고, 같은 해 12월에는 Disney와 3년 라이선스 계약을 체결했다. Disney, Marvel, Pixar, Star Wars 소속 200여 개 캐릭터의 사용권을 공식 확보하는 대가로 Disney는 OpenAI에 10억 달러를 투자했다(Disney·OpenAI 공동 발표, 2025년 12월). 적대에서 협상으로 방향을 전환한 사례다. ByteDance가 같은 경로를 택할지, 아니면 법적 공방으로 이어질지는 아직 불확실하다. 다만 Disney CEO Bob Iger가 OpenAI와의 계약 직후 밝힌 말은 이 국면을 읽는 단서가 된다. "어떤 세대도 기술의 진보를 막은 적 없으며, 우리도 그럴 생각이 없다."
생태계는 어디로 가는가
지금의 충돌이 어떻게 정리되느냐에 따라 창작 생태계의 모습은 크게 달라진다.
첫 번째 시나리오는 공존과 보완이다. AI가 제작 효율을 높이는 도구로 정착하고, 인간 창작자는 기획과 디렉팅에 집중한다. 라이선스 협상이 업계 표준이 되고, 대형 스튜디오는 AI를 내부 파이프라인에 통합한다. Adobe Premiere나 DaVinci Resolve 같은 기존 편집 툴들이 AI 기능을 흡수하면서, 극단적인 도구 교체 없이 현장이 진화한다. 이 시나리오에서 가장 유리한 쪽은 자본과 파이프라인을 이미 보유한 대형 플레이어들이다. OpenAI와 Disney의 협상 타결은 이 방향이 가능하다는 하나의 증거다.
두 번째 시나리오는 역할의 재편이다. 창작의 경계 자체가 다시 그려진다. 편집·VFX 같은 기술 직군은 줄고, AI 프롬프팅과 결과물 큐레이션을 담당하는 새로운 역할이 생겨난다. 프리랜서 생태계가 재편되고, 개인 크리에이터와 소규모 스튜디오의 경쟁력이 일시적으로 올라갈 수 있다. 다만 콘텐츠 공급 과잉 속에서 주목받는 방법은 더 어려워진다. 이미 숏폼 플랫폼에서 진행 중인 변화의 연장선이다.
세 번째 시나리오는 생태계의 리셋이다. 영상 제작의 경제 모델 자체가 바뀌는 것이다. 대규모 예산이 더 이상 진입장벽이 되지 않으면서, UGC와 프로 콘텐츠의 경계가 흐려진다. 가치의 원천이 '제작 역량'에서 '유통력과 팬덤'으로 이동한다. 소셜미디어가 이미 만들어놓은 방향이지만, AI가 그 속도를 비약적으로 당기게 되는 셈이다.
물론, 세 시나리오 중 어느 하나만 전개될 가능성은 낮다. 업종마다, 플레이어마다 다른 시나리오가 동시에 펼쳐질 것이다.
도구가 바뀔 때, 창작의 본질은 무엇이 남는가
유성영화가 등장했을 때 무성영화 배우들이 사라졌고, 스트리밍이 등장했을 때 DVD 배급사들이 사라졌다. 기술은 언제나 누군가의 일자리를 끝내는 동시에 누군가의 새로운 가능성을 열었다.
Seedance 2.0이 이전 기술 전환과 다른 점은 변화의 속도다. 과거의 전환은 수년에 걸쳐 서서히 진행되었지만, 이번엔 출시 24시간 만에 미국영화협회가 성명을 냈고, 닷새 안에 할리우드 메이저 스튜디오들이 법적 대응에 나섰다. 창작자, 법무팀, 정책 입안자, 투자자가 동시에 반응하는 속도는 이전 어떤 기술 충격과도 달랐다.
지금 중요한 것은 이 기술이 '좋으냐 나쁘냐'를 판단하는 일이 아니다. 어떤 규칙 아래에서, 어떤 구조로 정착시킬 것인지를 지금 결정해야 한다는 것이다. 저작권 프레임워크, 라이선싱 모델, 창작자 보상 구조가 바로 이 순간 협상 테이블 위에 올라와 있다.
그리고 결국 남는 질문은 기술이 아닌 인간에 관한 것이다.
AI가 어떤 영상이든 만들어낼 수 있는 시대에, 인간 창작자가 가진 고유한 가치는 무엇인가.
아직 그 답은 열려 있다.
[METAX = 김하영 기자]
[ⓒ META-X. 무단전재-재배포 금지]