공개형 AI, 가짜뉴스, 자동화 해킹, 스팸 등 사회적 위협 부상
OpenAI가 기대를 모았던 오픈 모델의 출시를 또다시 연기했다.
이번에 공개하려던 오픈AI 모델은 누구나 다운로드해 자유롭게 사용할 수 있는, 사실상 OpenAI가 수년 만에 처음 내놓는 진정한 공개형 AI여서 더욱 주목받았다.
그러나 OpenAI는 출시를 불확정 기한으로 미루기로 했다. 그 배경에는 '책임 있는 공개'라는 쉽지 않은 과제가 놓여 있다.
OpenAI의 CEO 샘 알트먼은 7월 12일(현지시간), "추가적인 안전성 테스트와 고위험 영역에 대한 점검이 필요하다"며, "이번에는 출시 일정을 잡지 않겠다"고 X(옛 트위터)에 밝혔다.
샘 알트먼은 "모델 가중치가 한번 공개되면 다시 회수할 수 없다"며, "처음 경험하는 일인 만큼 더욱 신중할 수밖에 없다"고 설명했다.
실제로 공개형 AI 모델은 그 특성상, 일단 인터넷상에 퍼지면 개발사가 통제할 수 있는 방법이 거의 없다.
OpenAI가 준비 중인 오픈모델은 기존 ChatGPT나 곧 나올 GPT-5와는 다르다. 누구나 자유롭게 내려받아, 클라우드가 아니라 각자의 PC나 서버에 직접 설치해 쓸 수 있는 것이 가장 큰 차이점이다.
이번 발표로 개발자와 업계 관계자들은 한동안 OpenAI의 오픈모델을 직접 써볼 수 없게 됐다.
최근에는 중국 스타트업 Moonshot AI가 파라미터 1조 개에 달하는 Kimi K2 모델을 공개해, 일부 성능에서 OpenAI의 GPT-4.1을 앞선다는 평가까지 받았다. 이에 따라 오픈소스 AI 모델 시장의 경쟁은 더욱 치열해지고 있다.
OpenAI가 출시 연기를 반복하는 데에는 단순한 기술적 완성도 문제만 있는 것은 아니다. 한 번 공개된 AI 모델은 악용될 경우 책임 소재가 모호하고, 사회적 파장도 크기 때문이다.
실제로 Meta의 Llama 시리즈처럼, 공개형 AI는 유익한 활용과 동시에 가짜뉴스, 자동화 해킹, 스팸 등 다양한 부작용을 불러일으키고 있다. 최근에는 악의적인 목적으로 AI를 활용하는 사례가 빠르게 늘어나면서, 사회적 위협으로 부상하고 있다.
먼저, 가짜뉴스 및 허위 정보의 대량 생산 문제가 있다. AI는 실제와 구분하기 어려운 텍스트, 이미지, 오디오, 비디오를 손쉽게 만들어낼 수 있다. 특히 안전장치가 제거된 ‘비검열’ 모델의 경우, 악의적으로 조작된 가짜뉴스와 허위 정보를 대량 생산해 사회 혼란을 일으키고, 나아가 민주주의의 근간을 흔드는 심각한 위험 요소로 지적된다.
둘째, 자동화된 해킹과 사이버 범죄에 악용될 수 있다. AI를 활용하면 악성코드 개발과 변형, 피싱 메일 자동 생성, 소프트웨어 취약점 탐색 등이 훨씬 쉬워진다. 과거에는 전문 지식이 필요했던 해킹 행위가 AI로 인해 자동화·대규모화되면서, 국가 안보뿐 아니라 일반 시민의 개인정보 및 재산 피해로 이어질 위험이 높아지고 있다.
마지막으로, 대규모 스팸과 사기 피해도 증가하고 있다. AI는 특정 대상을 정교하게 겨냥한 설득력 있는 스팸 메일이나 사기성 메시지를 자동으로 대량 작성·배포할 수 있다. 기존의 스팸 메일과 달리, AI가 만든 메시지는 문법적 오류가 거의 없고 내용이 자연스러워, 수신자가 쉽게 속아 피해가 커질 수 있다.
이번 결정은 OpenAI만의 고민이 아니다. 미국, 유럽, 중국 등 주요국과 글로벌 기업들은 고위험 AI의 공개 기준과 윤리적 책임, 사회적 파장에 대한 논의를 강화하고 있다. 스탠포드 AI Index, EU AI Act, UN 글로벌 디지털 컴팩트 등도 고위험 AI의 통제와 안전성을 최우선 과제로 다루고 있다.
오픈모델은 중소 AI기업과 스타트업, 개발자에게는 기회이자 성장의 발판이 될 수 있지만, 동시에 각종 법적·윤리적·보안 리스크에 대한 철저한 대비가 필요한 시대다.
OpenAI의 이번 연기 결정은 단순히 일정을 미루는 차원을 넘어, 앞으로 글로벌 AI 생태계가 '책임 있는 공개'라는 새로운 표준을 요구받고 있다는 신호다. 혁신과 위험의 균형, 그리고 안전성에 대한 사회적 합의가 앞으로 AI 거버넌스의 핵심으로 자리잡을 전망이다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]