가트너의 ‘Top 10 Strategic Technology Trends 2025’를 통해 알아보는 2025 전략기술 트렌드
2025년, 기술의 중심에는 더 이상 ‘도구로서의 AI’가 없다. 이제 AI는 인간처럼 스스로 목표를 세우고, 계획하며, 행동하는 ‘의사결정 주체’로 진화하고 있다.
글로벌 IT 리서치 기업 가트너(Gartner)는 이러한 변화의 흐름을 반영해 ‘2025년 10대 전략 기술 트렌드’를 발표했다. 이 보고서는 기술의 진보 그 너머, 신뢰·윤리·보안이라는 핵심 과제를 함께 짚는다.
AI가 산업과 사회 구조를 재편하는 이 시점, 기업과 정책 결정자들이 반드시 주목해야 할 첫 번째 테마는 ‘AI의 필수 요소와 위험 관리(AI Imperatives and Risks)’다. 에이전틱 AI, AI 거버넌스 플랫폼, 허위 정보 보안 등 미래 AI 생태계의 핵심 방향이 이 안에 담겨 있다.
[ Theme 1. AI의 필수 요소와 위험 관리(AI Imperatives and Risks) ]

◆ Trend01. 에이전틱 AI - 스스로 판단하고 움직이는 AI의 부상
‘에이전틱 AI(Agentic AI)’는 기존 인공지능 기술의 한계를 넘는 새로운 패러다임이다. 단순한 명령 수행에서 벗어나, 사용자가 설정한 목표를 스스로 해석하고 계획하며, 주도적으로 행동하는 자율형 AI를 의미한다.
가장 대표적인 사례로는 AI 비서가 있다. 사용자의 일정과 이메일을 분석해 자동으로 회의 일정을 조율하고, 필요한 답장을 작성하며, 관련 문서까지 첨부하는 작업을 스스로 수행한다. 사용자는 명령만 내리는 것이 아니라, 결과를 맡겨놓고 전략적 판단이나 창의적인 업무에 집중할 수 있는 환경을 얻게 된다.

에이전틱 AI는 업무 자동화 수준을 한층 끌어올린다. 반복적이고 단순한 작업은 물론, 복잡하고 예측이 어려운 업무 환경 속에서도 실시간으로 문제를 해결하며 조직의 생산성을 극대화할 수 있다. 특히 사용자의 행동 패턴과 업무 환경에 맞춰 지속적으로 학습하고 적응하는 특징은, 기존 규칙 기반 AI와 뚜렷이 구분되는 지점이다.
하지만 기술의 진화가 곧 신뢰로 이어지는 것은 아니다. 에이전틱 AI는 인간과 가까워질수록 더욱 명확한 통제와 책임 구조가 필요하다는 우려도 함께 제기되고 있다. 사용자의 의도와 다르게 오작동하거나, 부적절한 판단을 내릴 가능성이 존재하기 때문이다. 이를 방지하기 위해서는 기술적, 윤리적, 법적 측면에서의 철저한 관리 체계가 필수적이다.
전문가들은 다음과 같은 세 가지 접근이 병행되어야 한다고 강조한다.
- 투명성과 신뢰성 강화: AI의 의사결정 과정이 설명 가능해야 하며, 이를 통해 사용자 신뢰를 확보해야 한다.
- 피드백 시스템 도입: 실시간 피드백 시스템을 도입해 사용자가 AI의 결과를 직접 수정하고 조정할 수 있어야 한다.
- 정기적인 검토와 업데이트: AI 시스템은 정기적인 성능 점검과 윤리 기준 검토를 통해 지속적인 안전성을 확보해야 한다.
현재 ChatGPT를 비롯해 다양한 형태의 에이전틱 AI가 점차 복잡한 문제 해결 능력을 갖추며 사회 곳곳에 도입되고 있다. 이들은 인간의 창의성과 협력해 생산성을 높이는 강력한 도구로 자리 잡아가고 있다.
그러나 기술의 진화 속도만큼이나, 그 사용 방식에 대한 윤리적 고민과 투명성 확보가 뒤따라야 한다는 사실은 더욱 분명해지고 있다. 에이전틱 AI의 핵심은 단순한 기술이 아니라, 책임감 있는 설계와 신뢰 기반의 운용에 있다.
◆ Trend02. AI 거버넌스 플랫폼 - AI 사용의 규칙을 설계하다
AI가 우리 사회 깊숙이 들어오면서, ‘어떻게 활용할 것인가’ 못지않게 중요한 질문은 ‘어떻게 통제할 것인가’가 됐다.
AI 거버넌스 플랫폼(AI Governance Platform)은 단순한 관리 도구가 아니라, AI를 윤리적이고 책임감 있게 사용하는 규칙과 시스템을 설계하는 핵심 기술이다.

AI 거버넌스 플랫폼은 다음 네 가지 기능을 중심으로 작동한다.
- 정책 관리: 기업이나 조직이 AI를 사용할 때 어떤 기준과 원칙을 따라야 할지 설계하고, 법적·윤리적 기준을 충족하는 방향으로 운영되도록 한다.
- AI 모델의 생애주기 관리: 설계, 배포, 운영, 폐기까지 AI 모델이 사용하는 전 과정에서 성능과 안정성을 관리해 문제를 예방한다.
- 투명성 확보: AI가 왜 그런 판단을 내렸는지 설명할 수 있도록 만들어 사용자의 신뢰를 높인다.
- 책임성 강화: 이전까지는 알 수 없었던 AI의 의사결정 구조를 명확히 하여, 오류나 부작용이 발생했을 때 책임 소재를 분명히 한다.
이러한 역할 덕분에, 다양한 글로벌 기업들이 AI 거버넌스 플랫폼 개발에 나서고 있다.
대표 사례로는 IBM의 ‘AI OpenScale’이 있다. 이 플랫폼은 AI 모델의 편향 여부를 실시간으로 감지하고, 결과를 설명 가능하게 시각화하며, 윤리 기준을 충족하는지 지속적으로 점검한다. 이를 통해 기업은 AI가 보다 공정하고 신뢰할 수 있는 방식으로 작동하도록 관리할 수 있다.
https://sourceforge.net/software/product/IBM-Watson-OpenScale/
- 유럽은 ‘AI 법’으로, 기업은 ‘플랫폼’으로… 인공지능 책임시대의 대응 전략
인공지능(AI) 기술이 급속도로 발전하면서, 유럽연합(EU)은 AI의 사용을 보다 책임감 있게 통제하기 위한 강력한 법적 장치를 마련했다. 바로 ‘인공지능법(AI Act)’이다.
이 법은 2024년 8월 1일부터 발효됐으며, AI 시스템의 개발부터 배포, 실제 사용에 이르기까지 전 과정에 걸쳐 규제를 강화하는 내용을 담고 있다. 특히 인간의 생명, 안전, 권리에 영향을 줄 수 있는 **‘고위험 AI’**에 대해서는 더 엄격한 기준을 적용해 투명성과 책임성 확보를 핵심 원칙으로 삼고 있다. 이는 전 세계에서 가장 포괄적인 AI 규제법으로 평가받고 있다.
한편, 기업들은 이러한 규제에 대응하기 위해 AI 거버넌스 플랫폼을 적극 도입하고 있다. 이 플랫폼은 AI의 편향이나 오작동을 미리 점검하고, 법적·윤리적 기준을 충족하는지 관리하는 역할을 한다. 기술만 빠르게 발전하는 것이 아니라, 그 기술을 안전하게 운영할 수 있는 '룰'을 함께 설계하는 움직임이 본격화되고 있는 것이다.
그러나 글로벌 관점에서 보면 아직 과제가 많다. 유럽처럼 강력한 규제를 택한 지역도 있는 반면, 미국은 비교적 유연한 방식을 선호한다. 국가마다 기준이 다르다 보니, 글로벌 기업들이 모든 지역에서 일관된 AI 통제 체계를 구축하기란 쉽지 않다.
이에 따라 전문가들은 다음과 같은 방향을 제안한다.
- 국제적으로 통용될 수 있는 표준 가이드라인 마련
- AI가 왜 그렇게 판단했는지를 설명할 수 있는 ‘설명 가능성(Explainability)’ 확보
- 사용자가 AI의 작동 원리를 이해할 수 있도록 교육과 툴 제공
- 중소기업도 쉽게 접근할 수 있는 플랫폼과 리소스 마련
AI 거버넌스 플랫폼은 단순히 ‘감시 도구’가 아니다. AI를 제대로 활용하기 위한 가이드라인이자, 기술에 대한 신뢰를 만드는 사회적 장치다. 이러한 플랫폼이 잘 설계되고 작동할수록, AI 기술은 더 안전하고 지속 가능한 방향으로 발전할 수 있다.
결국 AI의 시대를 살아가는 기업과 사회는 이제 기술을 개발하는 것만큼, 그 기술을 어떻게 책임 있게 쓸 것인가에 대한 전략을 마련해야 할 시점이다. AI 거버넌스 플랫폼은 바로 그 전략의 중심에 있다.
◆ Trend03. 허위 정보 보안 - AI 시대의 디지털 수호자
AI 기술이 급속히 확산되면서, 그 이면에서 또 하나의 위협이 커지고 있다. 바로 허위 정보(disinformation) 문제다. 이에 대응하기 위한 기술이 바로 허위 정보 보안(Disinformation Security)이다.
이 기술은 가짜 뉴스, 조작된 이미지나 딥페이크 영상처럼 신뢰를 훼손할 수 있는 콘텐츠를 실시간으로 탐지하고 차단하는 역할을 한다. 과거에는 단순히 키워드나 출처를 기반으로 판단했다면, 이제는 AI와 머신러닝이 결합된 정교한 기술이 내용의 진위, 전달 의도, 확산 경로까지 분석해 위협을 차단한다.
허위 정보 보안 기술은 단지 언론이나 정치 영역에만 국한되지 않는다.
이는 기업 입장에서도 매우 중요한 기술이다.
고객 정보를 사칭한 피싱, 브랜드 이미지를 훼손시키는 유해 내러티브, 계정 탈취나 사기성 광고 등 이런 위협을 방지하려면 신원 확인 강화, 리스크 기반 보안 모델 적용, AI 기반 모니터링 체계 구축이 필수다.

- Meta, 팩트체크 대신 '커뮤니티 노트' 도입… 사용자 중심 대응으로 전환
글로벌 플랫폼 기업인 메타(Meta)는 최근 흥미로운 방향 전환을 시도했다. 기존의 팩트체크 프로그램을 종료하고, ‘커뮤니티 노트(Community Notes)’라는 새로운 시스템을 도입한 것이다.
이 시스템은 Facebook, Instagram, Threads 등 메타 산하 플랫폼에 적용되며, 사용자가 오해의 소지가 있는 게시물에 직접 의견을 달고, 추가 설명을 제공할 수 있도록 설계됐다. 쉽게 말해, 플랫폼이 직접 판단하기보다는 집단 지성을 통해 허위 정보를 감시하는 방식이다.
뿐만 아니라, 메타는 사칭 광고나 가짜 계정의 확산을 막기 위해 커뮤니티 정책을 강화하고, 사용자의 계정 안전을 높이는 보안 기능도 확대하고 있다. 이는 플랫폼의 신뢰도와 투명성을 유지하려는 지속적인 노력의 일환으로 평가된다.
하지만 허위 정보 보안 기술에도 한계는 있다. 허위 정보는 끊임없이 형태를 바꾸고 진화하기 때문에, 기술도 지속적인 업데이트와 적응 능력을 갖춰야 한다. 또한, 국가나 플랫폼마다 허위 정보를 정의하고 다루는 방식이 다르기 때문에, 글로벌 차원의 협력도 반드시 병행되어야 한다.
전문가들은 다층적 학습 알고리즘과 협업 중심의 대응 체계를 갖춘 ‘적응형 보안 모델’이 앞으로의 핵심이 될 것이라고 전망한다. 기술과 사람, 정책이 함께 맞물려 돌아가야만 디지털 시대의 신뢰 사회를 실현할 수 있다는 의미다.
지금까지 가트너의 ‘Top 10 Strategic Technology Trends 2025’ 중 첫 번째 테마인 AI의 필수 요소와 위험 관리(AI Trust, Risk and Security Management)에 대해 살펴봤다.
(※ 해당 글은 공개된 가트너 리포트를 토대로 작성한 것임을 밝힘)
이 테마의 공통 메시지는 분명하다.
AI는 이제 필수 기술이지만, 그것이 곧 ‘신뢰 가능한 기술’을 의미하지는 않는다.
AI의 결정이 얼마나 투명한가, 그 결과에 누가 책임을 지는가, 왜 그런 판단을 내렸는가에 대한 해답이 없다면 AI는 사회로부터 신뢰받기 어렵다.
에이전틱 AI가 자율적으로 움직이고, 거버넌스 플랫폼이 그 행동을 감시하며, 허위 정보 보안이 디지털 질서를 지키는 이 구조는 결국 AI 기술의 진정한 활용은 ‘책임’이라는 토대 위에 세워져야 한다는 경고이기도 하다.
다음 기사에서는 가트너가 제시한 두 번째 전략 테마, ‘컴퓨팅의 새로운 프론티어(New Frontiers of Computing)’를 중심으로 미래 컴퓨팅 환경의 대전환에 대해 자세히 분석할 예정이다.
[METAX = 김하영 기자]
[저작권자ⓒ META-X. 무단전재-재배포 금지]