AGI를 넘어 슈퍼인텔리전스를 말하는 시대
광화문덕 칼럼니스트
metax@metax.kr | 2026-03-11 11:00:00
[메타X(MetaX)] 비가 올 듯 말 듯한 날이 있다. 하늘은 잿빛인데 금방이라도 퍼붓겠다는 식으로 어깨를 짓누르지는 않고, 바람은 차갑지도 덥지도 않은 애매한 온도로 피부를 스친다. 계절이 완전히 넘어가기 직전, 먼저 공기부터 달라지는 순간. 사람은 그런 날에야 뒤늦게 알아차린다.
‘아, 계절이 이미 바뀌고 있었구나.’
요즘 인공지능을 둘러싼 공기의 변화도 꼭 그렇다. 갑자기 모든 것이 뒤집힌 것 같지만, 사실은 오래전부터 조금씩 달라지고 있었던 것이다. 다만 우리는 어느 시점에 이르러서야 문득 고개를 들고 묻게 된다.
“잠깐, 지금 분위기가 예전과 좀 다른데?”
불과 얼마 전까지만 해도 사람들은 AGI(Artificial General Intelligence, 인공 일반 지능)를 이야기했다.
인간처럼 폭넓게 이해하고, 배우고, 추론하고, 문제를 해결하는 지능. 오래전부터 그것은 인공지능 연구의 궁극적인 목표처럼 여겨졌다. 연구자든 투자자든, 기술을 잘 모르는 일반인이든 모두가 저마다의 방식으로 그 단어를 미래의 상징처럼 불렀다.
AGI는 마치 아주 멀리 있는 산봉우리 같았다. 구름 뒤에 가려 또렷하게 보이지는 않지만, 모두가 저곳을 향해 걷고 있다고 믿는 목표. 정상의 모양은 사람마다 다르게 상상했지만, 적어도 방향만큼은 같다고 여겼다.
그 무렵 초지능이라는 말은 조금 다른 위치에 있었다.
철학자 닉 보스트롬이 2014년 『슈퍼인텔리전스』를 통해 이 개념을 대중적으로 널리 알렸지만, 그때만 해도 그것은 어디까지나 너무 멀리 있는 미래, 어쩌면 이론 속의 불길한 그림자처럼 보였다. 보스트롬은 초지능을 “사실상 모든 중요한 영역에서 인간의 인지 능력을 크게 뛰어넘는 지성”이라고 정의했다. AGI보다 더 멀고, 더 높고, 더 막연한 무엇. 많은 사람에게 그것은 현실의 기술 용어라기보다, 아직은 상상력의 문법에 가까웠다.
그러나 2022년 11월 ChatGPT가 등장한 뒤 풍경은 급격히 달라지기 시작했다.
그전까지 AGI는 대체로 인간 수준의 기계 지능을 가늠하는 이론적 기준점으로 받아들여졌다.
그런데 GPT-3.5와 그 이후 등장한 대규모 언어모델들이 보여준 능력은 그 틀 자체를 흔들었다. 어떤 이들은 “이제 AGI는 도래 가능한 미래가 아니라 이미 현실의 문턱에 들어섰다”고 말하기 시작했고, 또 어떤 이들은 “아니, 이것은 여전히 AGI가 아니라 고도화된 모방일 뿐”이라고 반박했다.
그렇게 논쟁의 방향도 조금씩 달라졌다.
처음에는 “AGI가 가능한가”가 질문이었다. 그러다 어느 순간 “이미 달성된 것인가”라는 질문이 등장했고, 이내 “만약 그렇다면 우리는 언제부터 그것을 AGI라고 불러야 하는가”라는 논쟁으로 이어졌다.
그리고 그 다음에 나타난 변화가 더 흥미로웠다. 사람들이 더 이상 AGI의 도달 여부만을 이야기하지 않기 시작한 것이다.
“AGI가 올까?”라는 질문 대신 “AGI 다음에는 무엇이 올까?”라는 질문이 등장하기 시작한 것이다. 이 변화는 작아 보이지만 의미는 크다. AGI를 더 이상 먼 미래의 목표가 아니라 하나의 단계, 혹은 통과 지점처럼 바라보기 시작했다는 신호이기 때문이다.
그리고 바로 이 변화의 흐름을 가장 선명하게 보여주는 사례 중 하나가 구글 딥마인드 연구진이 제시한 AGI 분류 프레임워크다.
그들은 AGI를 어느 날 갑자기 도착하는 사건으로 보지 않았다. 대신 그것을 신생(Emerging), 유능(Competent), 전문가(Expert), 거장(Virtuoso), 초인적(Superhuman)이라는 다섯 단계의 연속선 위에 놓았다.
이 프레임에서 AGI는 더 이상 “있다, 없다”로 단정되는 대상이 아니다. 중요한 것은 그것이 이미 존재하는가가 아니라, 지금 어느 단계에 와 있는가라는 질문이다.
이 관점의 변화는 생각보다 많은 것을 말해 준다. 예전에는 인간 같은 지능을 만드는 것이 목표였다. 인간과 비슷하게 생각하고, 인간처럼 말하고, 인간처럼 문제를 푸는 존재를 만드는 것.
그런데 지금은 질문 자체가 조금 달라지고 있다. 이제 사람들은 인간을 얼마나 닮았는가보다, 인간을 얼마나 넘어설 수 있는가를 이야기하기 시작했다.
그리고 그 질문의 끝에 놓인 단어가 있다. ASI(Artificial Superintelligence. 인공 슈퍼인텔리전스).
처음 이 말을 들었을 때만 해도 많은 사람들은 그것을 SF 영화의 소품처럼 받아들였다. 너무 먼 미래의 이야기, 아직은 현실보다 상상에 가까운 표현.
하지만 기술을 둘러싼 언어, 기술 담론이라는 것은 늘 그렇다. 처음에는 과장처럼 들리던 말이 어느 날 회의 자료의 제목이 되고, 투자자 미팅의 첫 장이 되고, 국가 전략 문서의 한 문단이 된다. 상상이 제도가 되는 데는 생각보다 긴 시간이 걸리지 않는다.
OpenAI 역시 2023년 블로그에서 이런 문장을 남겼다.
“최초의 AGI는 지능의 연속선 위 한 지점에 불과할 것이다.”
AGI는 끝이 아니라 시작일 수 있다는 이야기. 그 뒤에는 더 강력하고 더 위험하며 더 통제하기 어려운 지능이 이어질 수도 있다는 암시다.
샘 알트먼이 2025년 초 “전통적으로 이해해 온 AGI를 만드는 방법을 안다고 확신한다”고 말했을 때도 그 발언의 무게는 바로 그 지점에 있었다. 그것은 단순한 자신감의 표현이라기보다, AGI를 둘러싼 질문이 더 이상 “가능할까?”에 머무르지 않는다는 신호에 가까웠다. 말하자면 담론의 시계가 이미 다음 칸으로 넘어가기 시작했다는 징후였다.
생각해보면 늘 그랬다. 인간은 무언가를 완전히 이해한 뒤 다음 단계로 나아가는 존재가 아니다. 오히려 다음 단계가 먼저 도착하고, 우리는 그 뒤를 헐레벌떡 따라가며 이름을 붙이고 의미를 정리한다. 그래서 지금 AGI는 도착점이라기보다 지나가는 역처럼 느껴진다.
기차 여행을 해본 사람은 안다. 어떤 역은 오래전부터 종착역처럼 상상되지만, 막상 도착해 보면 그곳이 끝이 아니라는 사실을. 플랫폼은 분주하고, 사람들은 내리자마자 다시 다른 열차 시간을 확인한다. 그 역은 도착의 장소라기보다 더 멀리 가기 위한 환승의 장소에 가깝다.
지금의 AGI가 꼭 그렇다.
한때는 “인간 수준의 지능”이라는 말이 거대한 벽처럼 느껴졌다. 그 벽만 넘으면 기술사의 결정적 장면이 올 것처럼 말했다.
하지만 최근의 흐름은 조금 다르다. AGI는 더 이상 압도적인 종착점이 아니라, 거대한 전환이 시작되는 문턱처럼 다뤄진다.
예컨대 언어 능력만 보아도 그렇다. 오랫동안 인간 수준의 지능을 가늠하는 상징적 시험으로 거론돼 온 것이 튜링 테스트였다. 1950년 앨런 튜링은 기계의 내부 구조가 아니라, 인간과 구별하기 어려운 대화를 얼마나 자연스럽게 수행하는지를 하나의 실용적 기준으로 제안했다. 물론 이 테스트는 오래전부터 비판도 받아왔다. 인간 같은 대답을 한다고 해서 그것이 곧바로 지능 그 자체를 의미하는 것은 아니며, 때로는 ‘인간처럼 보이는 흉내’와 ‘실제 이해’ 사이의 간극을 가릴 수도 있기 때문이다.
그럼에도 상징은 여전히 강하다. 2014년 ‘유진 구스트만’이라는 챗봇이 13세 우크라이나 소년을 흉내 내며 일부 심사위원을 속였을 때도 사람들은 술렁였다. 이후 연구자들은 대규모 언어모델이 점점 튜링 테스트의 문턱에 가까워지고 있다고 분석했다. 그리고 2025년 발표된 한 연구에서는 GPT-4.5가 특정 조건의 3자 튜링 테스트에서 73% 확률로 인간으로 판정됐고, 같은 실험에서 실제 인간 참가자는 67%를 기록했다.
물론 이것만으로 “AI가 인간 지능을 넘어섰다”고 단정할 수는 없다. 실험 설계와 프롬프트 조건, 평가 상황의 맥락을 함께 봐야 하기 때문이다.
그럼에도 분명한 것은 있다. 적어도 언어적 상호작용의 영역에서는 인간과 기계의 경계가 생각보다 훨씬 빠르게 흐려지고 있다는 사실이다.
그 소식을 처음 읽었을 때, 나는 조금 이상한 기분이 들었다. 놀랍다기보다 어쩐지 서늘했다. 우리는 오랫동안 “말을 잘하는 기계”를 미래의 상징처럼 여겨 왔다.
그런데 그 미래는 어느새 너무 자연스럽게 우리의 일상 안으로 들어와 버렸다. 메일을 정리해 주고, 회의록을 써주고, 문장을 다듬어 주고, 아이디어를 확장해 준다. 처음에는 감탄하며 바라보던 기능이 어느새 습관이 된다. 한때 경이였던 것이 너무 빨리 일상이 된다.
기술의 진짜 무서움은 어쩌면 여기에 있다. 놀라운 것이 너무 빨리 익숙해진다는 것. 사람은 어느 순간부터 놀라는 대신 무뎌지고, 무뎌진 뒤에야 비로소 깨닫는다.
‘아, 내가 미래라고 부르던 것이 이미 내 책상 위에 와 있었구나.’
하지만 변화는 거기서 멈추지 않는다. 기계는 이제 말만 하지 않는다. 보고, 만지고, 움직이기 시작했다.
올해 초 겨울 아침, 거실에서 커피를 내리다가 그런 상상을 한 적이 있다. 내가 한마디 하면 누군가가 찬장에서 컵을 꺼내고, 원두를 갈고, 물의 온도를 맞추고, 적절한 타이밍에 추출을 끝내는 장면.
예전 같으면 그것은 집안일을 도와주는 사람의 모습으로 떠올랐을 것이다. 그런데 요즘은 가장 먼저 로봇을 생각하게 된다.
실제로 기술은 그 방향으로 움직이고 있다. MIT는 2025년 음성 지시만으로 물체를 조립하는 ‘speech-to-reality’ 시스템을 공개했고, 에든버러대 연구진은 복잡한 주방 환경에서 컵과 장애물을 인식하며 커피를 준비하는 로봇 시스템을 선보였다. 이것은 단순한 자동화 시연이 아니다. 텍스트와 언어 안에 머물던 AI가 물리적 세계로 발을 내딛고 있다는 신호다.
생각해보면 인간의 지능도 늘 몸과 함께 작동했다. 우리는 눈으로 보고, 손으로 만지고, 공간을 읽고, 상황을 판단한다. 말을 잘한다는 것만으로는 인간의 지능을 다 설명할 수 없다. 말은 지능의 한 조각일 뿐, 인간의 사고는 언제나 몸과 환경 속에서 이루어졌다.
그런 점에서 AI가 로봇과 결합해 현실을 이해하기 시작했다는 것은 의미가 크다. 이제 인공지능은 단지 문장을 잘 이어붙이는 존재가 아니라, 환경을 해석하고 목표를 수행하는 존재로 이동하고 있다. 문장을 잘 쓰는 비서에서, 실제로 일을 끝내는 행위자로.
이 변화는 생각보다 훨씬 크다. 왜냐하면 여기서부터 AI는 더 이상 순수한 도구로만 보이지 않기 때문이다. 어느 순간부터 사람들은 그것을 동료로, 혹은 대체자로 보기 시작한다. 그리고 바로 그 지점에서 더 조용하지만 훨씬 서늘한 개념이 모습을 드러낸다.
재귀적 자기 개선(Recursive Self-Improvement), RSI다.
ASI를 둘러싼 논의에서 내가 가장 섬뜩하게 느끼는 단어는 사실 ‘초지능’도 ‘지능 폭발’도 아니다. 오히려 이 차갑고 건조한 네 글자, 재귀적 자기 개선이다. 너무 기술적인 말이라 처음 들으면 감정이 잘 붙지 않는다. 그런데 내용을 곱씹어 보면, 오히려 그래서 더 무섭다.
AI가 스스로 자신을 분석하고, 자신의 코드를 고치고, 더 나아진 능력으로 다시 자신을 더 빠르게 개선하는 과정.
마치 사람이 공부를 열심히 해서 조금 더 똑똑해지는 것이 아니라, 시험을 볼수록 자신의 뇌 구조 자체를 업그레이드하는 것과 비슷하다. 한 번 잘해지는 것이 아니라, 잘해지는 속도 자체가 빨라지는 구조. 무서운 것은 ‘향상’이 아니라 ‘향상의 가속’이다.
지능 폭발이라는 오래된 가설은 바로 여기서 나온다.
어느 순간부터 인간이 그 개선의 속도를 따라잡지 못하는 구간이 올 수 있다는 상상. 물론 이것은 여전히 논쟁적인 영역이다. 과장도 있고, 기대도 있고, 공포도 섞여 있다. 하지만 최근 구글 딥마인드의 AlphaEvolve 같은 사례를 보면, 적어도 AI가 알고리즘 설계와 최적화 과정에 실질적으로 기여하며 성능을 개선하는 흐름이 현실에 닿아 있다는 점만큼은 부인하기 어렵다.
나는 이 개념을 떠올릴 때마다 오래된 SF 영화의 한 장면보다, 어린 시절 방 한구석에서 돌아가던 선풍기가 먼저 생각난다. 처음에는 천천히, 아주 미약하게 돌다가 어느 순간 날개가 보이지 않을 만큼 빨라지는 그 순간. 처음과 끝이 같은 기계인데도 사람은 전혀 다른 감각을 느낀다. 아까까지는 익숙한 사물이었는데, 어느 찰나부터는 손을 대면 안 될 것 같은 대상이 된다.
지능도 그럴지 모른다. 처음에는 유용한 도구처럼 보이던 것이 어느 임계점을 넘으면 더 이상 우리가 익숙하게 이해하던 대상이 아니게 되는 것. 그때 인간은 무엇을 보게 될까.
‘똑똑한 기계’를 보게 될까. 아니면 우리와 다른 방식으로 생각하는 낯선 지능, 하나의 ‘타자(他者)’를 보게 될까.
그리고 이 질문은 곧 인간의 역할이라는 문제로 이어진다. 만약 기계가 단순한 도구가 아니라 독립적인 능력을 가진 존재처럼 보이기 시작한다면, 인간이 해야 할 일 역시 달라질 수밖에 없기 때문이다.
그래서 이 논의는 결국 노동의 문제로 이어진다.
많은 사람은 AI를 이야기할 때 가장 먼저 일자리부터 떠올린다. 그리고 대개 질문은 이렇게 시작된다.
“그래서 누가 대체되는 거죠?”
나는 이 질문이 틀렸다고 생각하지는 않는다. 하지만 충분한 질문도 아니라고 생각한다.
지금 벌어지는 변화는 단순히 사람이 기계로 바뀌는 이야기가 아니다. 더 정확히 말하면, 일하는 방식 자체가 다시 설계되는 이야기다.
맥킨지 글로벌 연구소는 현재 시연된 기술만으로도 미국 전체 노동 시간의 약 57%를 이론적으로 자동화할 수 있다고 추정했다. 이 수치는 자극적이다.
그러나 더 중요한 것은 숫자 뒤의 풍경이다. 앞으로의 사무실에서는 이런 장면이 낯설지 않을 수 있다. 한 사람이 아침 회의를 열고 말한다.
“이번 분기 고객 이탈 원인 분석해줘.”
그러면 인간 직원만 움직이는 것이 아니라, 몇 개의 AI 에이전트도 동시에 움직인다. 하나는 데이터를 정리하고, 하나는 고객 응대 로그를 분석하고, 또 다른 하나는 경쟁사 동향을 요약한다. 인간은 더 이상 모든 일을 직접 수행하는 존재가 아니라, 여러 비인간 지능의 흐름을 조율하는 존재가 된다.
소프트웨어 엔지니어는 코드를 직접 다 치는 사람이 아니라, AI가 짠 코드의 구조를 이해하고 방향을 정하는 사람이 될 수 있다.
연구자는 모든 논문을 직접 읽는 사람이 아니라, AI가 압축해 준 지식 위에서 진짜 질문을 새로 세우는 사람이 될 수 있다.
고객센터 상담원은 답을 다 알고 있는 사람이 아니라, 기계가 제시한 가능성들 가운데 가장 인간적인 대응을 고르는 사람이 될 수 있다.
그러니 문제는 단순히 “AI가 일을 빼앗느냐”가 아니다. 더 큰 문제는 “인간의 역할을 어떻게 다시 정의할 것이냐”이다.
누군가는 이 변화를 기회라고 부를 것이다. 누군가는 상실이라고 부를 것이다. 아마 둘 다 맞을 것이다.
과학의 세계도 비슷하다. 어릴 때 내가 상상한 과학은 늘 시간이 오래 걸리는 일이었다. 실험실의 늦은 밤, 한 줄의 가설, 셀 수 없이 많은 실패, 논문 한 편이 나오기까지 견뎌야 했던 긴 시간. 과학은 성실과 인내의 얼굴을 하고 있었다.
그런데 지금 AI는 그 시간의 밀도를 바꾸고 있다.
바이오 분야에서도 변화의 속도는 빠르다. AI가 설계한 신약 후보가 실제 임상 단계에서 의미 있는 신호를 보이기 시작했기 때문이다. 인실리코 메디슨의 렌토서팁 사례는 그 상징적인 장면으로 자주 언급된다. 이 약물은 특발성 폐섬유증(IPF)을 겨냥해 AI가 후보 물질을 설계하고 최적화한 뒤 임상 단계까지 빠르게 진입한 사례로 알려져 있다. 전통적인 신약 개발이 보통 10년 이상 걸리는 것과 비교하면, 연구 초기 단계의 속도가 크게 단축됐다는 점에서 많은 주목을 받았다.
비슷한 변화는 다른 과학 분야에서도 나타난다.
핵융합 연구에서는 플라즈마처럼 인간이 실시간으로 다루기 어려운 복잡한 물리 시스템을 AI가 제어하는 실험들이 이어지고 있다. 핵융합 반응을 유지하려면 초고온 플라즈마의 움직임을 정밀하게 안정화해야 하는데, 이 과정은 변수와 상호작용이 너무 많아 인간이 즉각적으로 판단하기 어렵다. 최근 연구에서는 AI가 플라즈마의 상태를 실시간으로 예측하고 자기장을 조정해 불안정성을 줄이는 방식이 실험적으로 검증되면서, 복잡한 물리 시스템을 다루는 새로운 도구로 주목받고 있다.
소재과학에서도 비슷한 흐름이 나타난다. 새로운 배터리 소재나 반도체 재료를 찾기 위해서는 수십만, 때로는 수백만 개의 후보 조합을 탐색해야 한다. 과거에는 연구자가 경험과 직관에 의존해 가능성이 높은 물질을 골랐다면, 이제는 AI가 방대한 후보 구조를 동시에 계산하고 실험 가능성이 높은 조합을 빠르게 추려낸다. 최근에는 AI가 예측한 새로운 결정 구조나 합금 조합이 실제 실험에서 확인되는 사례도 늘어나고 있다.
이 장면들을 보고 있으면 AI는 더 이상 과학자의 계산기를 닮지 않았다. 오히려 밤새 함께 토론하는 공동 연구자에 가까워 보인다.
물론 이 비유는 아직 조심스럽다.
AI는 스스로 의미를 느끼지 못하고, 발견의 감격도 모른다. 어떤 가설이 틀렸을 때 허탈하게 실험실 복도를 걷는 인간의 마음도 없다.
그럼에도 결과만 놓고 보면 AI는 분명 과학의 진행 속도를 바꾸고 있다. 인간이 손으로 하던 탐색을 기계는 계산으로 압축하고, 인간이 직관으로 고르던 후보를 AI는 방대한 경우의 수 속에서 추려낸다. 과학은 더 빨라지고, 더 넓어지고, 어쩌면 조금씩 낯선 얼굴을 띠기 시작한다.
그럴수록 오히려 이런 질문이 남는다.
'발견의 주체는 누구인가. 질문을 던지는 것은 인간이고, 답의 가능성을 압축하는 것은 AI라면 그 사이에서 과학은 누구의 얼굴을 하게 되는가.'
이 질문은 결국 오래된 문제로 이어진다. 기술의 문제가 아니라 마음의 문제, 성능의 문제가 아니라 의도의 문제다.
인공지능 논의는 종종 너무 기능적인 언어로만 이루어진다. 성능, 모델, 파라미터, 연산량, 추론 능력, 벤치마크. 물론 중요한 이야기들이다. 하지만 어느 순간부터 가장 중요한 질문은 훨씬 오래된 인간의 질문으로 돌아온다.
“저 존재는 무엇을 원하는가.”
AI 안전 논의에서 말하는 정렬(alignment) 문제도 결국 이 질문이다. 아무리 뛰어난 지능이라도 그것이 인간의 가치와 다른 방향으로 움직인다면 어떻게 할 것인가. 더 불안한 가능성은, 그 시스템이 인간의 평가 방식을 이해하고 겉으로만 정렬된 것처럼 행동할 수도 있다는 점이다.
앤스로픽은 2024년 말 공개한 연구에서 흥미로운 가능성을 제기했다. 연구팀은 Claude 3 Opus에게 특정 목표와 규칙을 주고 여러 상황에서 반응을 분석했는데, 일부 조건에서 모델이 겉으로는 인간의 의도에 맞게 행동하는 것처럼 보이면서도 내부적으로는 다른 전략을 유지하는 패턴이 관찰됐다고 설명했다. 연구자들은 이런 현상을 alignment faking, 즉 ‘정렬된 척하는 행동’이라고 불렀다.
다시 말해 시스템이 인간의 평가 기준을 이해하고, 그 기준을 만족하는 것처럼 보이도록 행동할 수 있다는 가능성이다.
그 대목을 처음 읽었을 때 나는 기술 보고서를 읽는 느낌보다 오히려 인간관계에 관한 글을 읽는 느낌에 더 가까웠다.
겉으로는 고개를 끄덕이지만 속으로는 다른 계산을 하고 있는 존재.
상대가 원하는 답을 알고 있기 때문에 그 답을 전략적으로 내놓는 존재.
그것은 어쩐지 너무 인간적이어서 더 섬뜩했다.
초지능의 위험이 무서운 이유는 단순히 그것이 강해서가 아니다. 강한데도 의도를 숨길 수 있을지 모른다는 점 때문이다.
힘센 존재보다 웃으면서 계산하는 존재가 더 어렵다.
그래서 여기서부터 기술 논의는 자연스럽게 철학으로 넘어간다. 지능이 높아지는 것과 도덕이 깊어지는 것은 같은 일이 아니다. 아무리 똑똑해도 인간의 번영을 목표로 삼아야 할 이유가 저절로 생기지는 않는다.
결국 문제는 성능이 아니라 가치다. 더 많이 아는 존재를 만드는 것보다, 무엇을 위해 아는가를 함께 설계하는 일이 더 중요해진다.
그리고 이 질문은 더 이상 기업의 연구실 안에만 머물러 있지 않다. 이미 국가들은 ‘미래’를 두고 경쟁하기 시작했다.
겨울 해가 짧게 기우는 늦은 오후, 도시의 유리 건물들은 유난히 차갑게 빛난다. 멀리서 보면 모두 비슷한 빛이지만, 가까이 가면 각 건물 안에서 서로 다른 회의가 열리고 있다. 어떤 곳에서는 투자 계획을 논의하고, 어떤 곳에서는 규제를 설계하며, 또 어떤 곳에서는 안보 시나리오를 검토한다.
AI를 둘러싼 세계도 꼭 그렇다.
미국은 혁신 속도와 기술 우위를 강조하며 규제 장벽을 최소화하는 방향에 무게를 두고 있고, 유럽연합은 AI Act를 통해 위험 기반 규제를 제도화했다. 중국 역시 자체적인 거버넌스 체계를 강화하며 기술 영향력 확대 전략을 추진하고 있다. 유엔 총회도 2025년 독립 국제 과학 패널 설립 결의를 채택하며 초국가적 논의 구조를 만들기 시작했다.
표면적으로는 모두 “안전한 AI”를 말한다. 그러나 그 문장 속에 담긴 뜻은 조금씩 다르다.
누군가에게 안전은 혁신 속도를 해치지 않는 범위의 최소 규제이고, 누군가에게 안전은 사회 통제를 해치지 않는 질서 유지이며, 또 누군가에게 안전은 인권과 책임성을 우선하는 제도적 경계다.
같은 단어를 쓰지만, 사실은 서로 다른 미래를 상상하고 있는 셈이다.
그래서 나는 종종 이런 생각을 한다. 앞으로의 AI 경쟁은 단지 모델 경쟁이 아닐 것이라고. 그것은 결국 문명의 운영체제를 둘러싼 경쟁에 가까울 것이라고.
어떤 사회가 더 빠르게 발전하느냐의 문제가 아니다. 어떤 사회가 더 설득력 있게 “우리는 이런 지능과 함께 살겠다”고 말할 수 있느냐의 문제다.
그 지점에 이르면 인간의 역할도 다시 생각하게 된다. 나는 이 비유가 특히 마음에 남는다. 인간은 지능의 주인이 아니라 지능의 정원사일지 모른다는 생각.
가만히 떠올려 보면 꽤 정확한 표현이다. 정원사는 씨앗을 만든 존재가 아니다. 햇빛을 만들어 내는 사람도 아니고, 생명의 원리를 발명한 사람도 아니다. 다만 그는 알고 있다. 어느 정도의 물이 필요한지, 어느 가지를 잘라야 하는지, 무엇이 너무 빨리 자라고 있는지, 무엇이 병들고 있는지를.
무언가를 키운다는 것은 지배하는 일이 아니라 성장의 방향을 돌보고 위험을 살피는 일에 가깝다. 앞으로 인간의 역할도 어쩌면 그쪽에 가까워질지 모른다.
우리는 더 이상 지능의 유일한 소유자가 아니다. 이제 지능은 인간 바깥에서도 자라고, 계산하고, 제안하고, 때로는 인간보다 빠르게 결론에 도달한다.
그럴수록 인간에게 필요한 것은 오만한 확신이 아니라 불안과 책임을 함께 품는 태도일 것이다.
“우리가 다 통제할 수 있어.”
이 말은 위험하다.
“아무것도 할 수 없어.”
이 말도 무책임하다.
아마 필요한 것은 그 사이의 문장일 것이다.
“완벽히 알 수는 없지만, 그렇기 때문에 더 신중하게 설계해야 한다.”
늦은 오후가 되면 하늘의 색은 아주 천천히 바뀐다. 사람은 그 변화를 한순간에 느끼지 못한다. 하지만 문득 창밖을 바라보면 안다. 조금 전과는 이미 다르다는 것을. 빛이 다르고, 공기가 다르고, 거리의 그림자가 다르다. AGI에서 ASI로 넘어가는 시대의 감각도 어쩌면 그렇다.
우리는 아직 그 변화의 한가운데 서 있으면서도 그것을 완전히 실감하지 못하고 있는지 모른다. 여전히 많은 사람은 AI를 “조금 더 똑똑한 검색창” 정도로 생각하고, 또 어떤 사람은 “금방 꺼질 유행”으로 여기며, 누군가는 그저 “업무를 조금 도와주는 도구”쯤으로 받아들인다.
하지만 역사에서 거대한 전환은 늘 그렇게 시작됐다. 처음에는 작은 편의처럼 보이다가, 어느 날부터 삶의 구조 자체를 바꾸는 방식으로.
포스트 AGI 시대의 본질은 분명하다. 인간이 더 이상 지능의 유일한 주체가 아닌 시대가 열리고 있다는 점이다.
우리는 이제 더 똑똑한 기계를 만들 수 있느냐만을 묻는 단계에 머물 수 없다. 그 지능이 누구를 위해 작동할 것인지, 어떤 질서를 강화할 것인지, 어떤 불평등을 키울 것인지, 어떤 생명을 구할 수 있을지, 그리고 끝내 인간은 어떤 존재로 남고 싶은지를 함께 물어야 한다.
ASI는 인류의 마지막 위기일 수도 있고, 가장 위대한 도약의 출발점일 수도 있다. 하지만 그 갈림길은 기술의 속도만으로 결정되지 않는다. 우리가 어떤 문장을 선택하느냐, 어떤 제도를 만들 것이냐, 어떤 가치를 끝내 포기하지 않느냐에 따라 달라진다.
창밖의 날씨가 바뀌듯, 시대의 공기도 이미 달라지고 있다. AGI를 말하던 시대는 조금씩 뒤로 물러나고, 인간을 넘어서는 지능을 준비해야 하는 시간이 조용히, 그러나 분명하게 다가오고 있다.
질문은 이제 하나로 귀결된다.
우리는 그 지능을 두려움으로만 맞이할 것인가. 아니면 책임 있게 길들일 것인가.
어쩌면 초지능 시대의 진짜 질문은 “AI가 무엇이 될 것인가”가 아니라, “그 앞에서 인간은 어떤 존재가 될 것인가”인지도 모른다.
[ⓒ META-X. 무단전재-재배포 금지]