[논문리뷰]저널리즘 영역에서의 인공지능 수용
류성훈 기자
ryunow@metax.kr | 2026-01-07 07:00:00
2.신뢰할 수 있는 인공지능 기반의 저널리즘 인공지능: 언론 신뢰와 인공지능 신뢰성 간 통약가능성을 바탕으로
[메타X(MetaX)] 이 글에서 다루는 두 편의 논문은 저널리즘 영역에서 인공지능이 어떻게 수용되고 해석되는지를 서로 다른 층위에서 분석한다. 2023년 논문이 이론적 차원에서 언론 신뢰와 인공지능 신뢰성의 접점을 모색했다면, 2025년 논문은 언론인 개인의 인식과 수용 태도를 통해 인공지능 활용의 구조적 조건을 실증적으로 드러낸다. 생성형 AI가 범람하며 이른바 ‘AI slop’이 일상화된 환경에서, 이 두 연구는 저널리즘이 투명성과 신뢰성을 어떻게 회복하고 재구성할 수 있는지를 다시 묻게 만든다. 「언론인들의 인공지능(AI) 기술 수용에 영향을 미치는 요인」은 언론인의 AI 사용이 개인의 태도 문제가 아니라 조직과 제도의 구조적 긴장 속에 놓여 있음을 통찰력 있게 보여준다. 반면 「신뢰할 수 있는 인공지능 기반의 저널리즘 인공지능」은 AIX, TAI, JAI라는 개념 틀을 통해 통약가능성을 이론적으로 정식화하려 시도하지만, 통약가능성을 실제로 구현하기 위한 제언에서는 다소 아쉬움을 남긴다.
|
언론인들의 인공지능(AI) 기술 수용에 영향을 미치는 요인, 이현우·조성동·이상규, 2025 |
저널리즘의 AI 도입 현황과 조직-개인 간의 인식 괴리
전 세계적으로 파이낸셜타임즈, AP, 가디언 등 주요 언론사들이 생성형 AI 가이드라인을 제정하고 뉴스룸에 적극적으로 기술을 도입하는 흐름이 뚜렷하다. 이러한 변화는 자료 수집부터 기사 작성, 팩트체크에 이르기까지 저널리즘의 전 영역에 걸쳐 일어나고 있으며, 국내 언론사들 또한 AI 앵커나 큐레이션 서비스 등을 통해 이에 동참하고 있다. 그러나 이러한 기술적 확산 이면에는 AI가 가져올 기회에 대한 기대와 함께 일자리 대체, 오보, 편향성 등 위기에 대한 우려와 반감이 공존하고 있다. 특히 주목할 점은 언론사 차원의 적극적인 투자와 실제 구성원인 언론인들의 수용 태도 사이에 상당한 괴리가 존재한다는 것이다. 한국기자협회의 조사에 따르면 현직 기자의 생성형 AI 활용 비율은 20% 수준에 불과한데, 이는 기술 도입이 물리적 환경 구축을 넘어 언론인 개개인의 인식과 역량, 그리고 조직적 지원 체계와 밀접하게 연동되어 있음을 시사한다.
연구의 이론적 틀: 저널리즘 특수성을 반영한 TAM의 확장
본 연구는 데이비스(Davis)의 기술수용모형(TAM)을 기반으로 하되, 언론인이라는 전문직군의 특수성을 반영하여 모형을 확장했다. 기존 TAM의 핵심 변인인 '인지된 유용성'과 '인지된 용이성' 외에, 선행 변인으로 'AI 품질 인식', '저널리즘 품질개선 기대', 'AI 리터러시', 'AI 효능감'을 설정하여 구조적 관계를 분석했다. 이는 언론인이 일반적인 기술 사용자와 달리 공공성과 진실성이라는 직업적 가치를 추구하는 집단임을 고려한 것이다. 연구진은 국내 언론인 300명을 대상으로 설문조사를 수행하고 구조방정식모델링(SEM)을 통해 변인 간의 인과관계를 검증했다. 특히 정보 품질 연구와 자기효능감 이론을 차용하여, 언론인이 인식하는 기술의 신뢰성과 본인의 기술 활용 능력이 실제 수용 의도에 어떤 경로로 영향을 미치는지 규명하고자 했다.
편의성보다 '저널리즘 품질 향상'이 핵심 동인
구조모형 분석 결과, 언론인들의 AI 사용 의도에 가장 결정적인 영향을 미치는 요인은 '인지된 유용성'으로 나타났다. 특히 인지된 유용성이 사용 의도에 미치는 영향력은 인지된 용이성보다 약 6배나 높게 나타났는데, 이는 언론인들이 기술이 단순히 사용하기 편하다는 이유만으로 수용하지 않음을 보여준다. 즉, 언론인은 해당 기술이 자신의 업무 성과를 실질적으로 높여줄 수 있는지에 더 민감하게 반응하는 집단이다. 무엇보다 '저널리즘 품질개선 기대'가 인지된 유용성을 높이는 가장 강력한 선행 변인으로 확인되었다. 이는 AI가 단순 업무 효율화를 넘어 기사의 심층성, 창의성, 정확성 등 저널리즘의 본질적 가치를 구현하는 데 기여한다고 판단될 때, 비로소 언론인들이 이 기술을 유용하다고 인식한다는 것을 의미하며 TAM 모형의 맥락적 확장을 입증하는 결과다. 또한, AI 리터러시가 높을수록 기술의 한계와 가능성을 명확히 이해하여 유용성과 용이성 모두를 긍정적으로 평가하는 것으로 나타났다.
고효능감의 역설과 조직적 지원의 필요성
본 연구에서 가장 흥미로운 발견은 'AI 효능감'이 '인지된 유용성'에 오히려 부정적인 영향을 미쳤다는 점이다. 통상적으로 효능감이 높으면 기술 수용도가 높아질 것이라는 일반적 예측과 달리, 자신의 업무 능력에 자신이 있는 언론인일수록 AI 도입을 자신의 전문성에 대한 위협으로 느끼거나, 조직적 지원이 부재한 상황에서 AI 활용을 추가적인 업무 부담으로 인식할 가능성이 큼을 시사한다. 결론적으로 AI 도입의 성공은 단순한 기술 보급이 아니라, 이 기술이 저널리즘 품질을 실제로 높일 수 있다는 '증거 기반 전략'과 언론인의 심리적 저항을 완화할 수 있는 '조직적 지원 체계'에 달려 있다. 따라서 언론사는 기능 위주의 교육을 넘어 저널리즘 가치와 연계된 리터러시 교육을 확대하고, AI가 언론인의 전문성을 대체하는 것이 아니라 확장하는 도구임을 입증하는 방향으로 혁신 전략을 수립해야 한다.
|
신뢰할 수 있는 인공지능 기반의 저널리즘 인공지능: 언론 신뢰와 인공지능 신뢰성 간 통약가능성을 바탕으로, 박대민, 2023 |
핵심 용어의 간단한 해설: AIX, TAI, JAI
저자는 인공지능 전환(AIX)이 가속화되는 현대 언론 환경에서 '언론의 신뢰'와 'AI의 신뢰성'을 어떻게 통합할 것인가에 대한 이론적 모색을 담고 있다. 연구의 핵심이 되는 세 가지 주요 용어를 정의하면 다음과 같다.
AIX (Artificial Intelligence Transformation): 인공지능 전환을 의미하며, 디지털 전환과 모바일 전환에 이어 AI가 사회 전반을 변화시키는 현상을 뜻한다. 언론 분야에서의 AIX는 뉴스 조직이 AI와 실천적으로 결합하는 전면적인 과정을 포함한다
TAI (Trustworthy AI): '신뢰할 수 있는 인공지능'으로, AI 기술이 합법적이고 윤리적이며 기술적으로 강건(robust)해야 함을 의미한다. 이는 AI가 초래할 수 있는 편향, 오류, 환각 등의 위험을 기술적, 사회적으로 방지하고 사용자의 기대를 충족시키는 능력을 뜻한다.
JAI (Journalism AI): '저널리즘 인공지능'으로, 언론사가 AI를 취재, 기사 작성, 유통 등 뉴스 제작 및 배포 전 과정에 도입하는 것을 말한다. 본 연구에서 JAI는 단순한 도구적 도입을 넘어, AI를 통해 언론 신뢰를 제고하는 '책임 있는 AI'의 활용까지 포괄한다.
저널리즘 인공지능(JAI)이 직면한 세 가지 난제
JAI의 도입은 저널리즘의 효율성을 높일 수 있는 기회이지만, 동시에 해결해야 할 심각한 도전 과제들을 안고 있다. 연구자는 이를 크게 세 가지 차원에서 분석한다.
첫째, 저널리즘 측면에서의 '언론 신뢰 하락' 문제다. 전 세계적으로 언론 신뢰도는 지속적으로 하락하고 있으며, 디지털 전환과 반향실 효과, 오정보 확산 등은 이를 가속화했다. JAI가 도입될 때, 이것이 경제적 효율성만 제고하고 언론 신뢰는 오히려 떨어뜨리지 않을지에 대한 우려가 존재한다.
둘째, AI 기술 측면에서의 'AI 신뢰성 구현' 문제다. AI 모델 자체가 환각 현상(hallucination)이나 편향된 결과물을 내놓는 등 불완전성을 가지고 있다. AI 자체를 신뢰할 수 없는 상황에서 이를 활용한 저널리즘이 신뢰를 얻기는 어렵기 때문에, JAI는 반드시 TAI에 기초해야 한다는 과제가 생긴다.
셋째, '저널리즘 분야와 AI 분야 간의 통약가능성(commensurability)' 마련이다. 쿤의 패러다임 이론에서 차용한 통약가능성은 서로 다른 두 분야가 공통된 용어와 관찰, 가치를 공유할 수 있는지를 묻는다. JAI는 언론학 패러다임과 공학 패러다임이 교차하는 지점에 있으므로, 두 분야 간의 신뢰 개념을 어떻게 통합하고 소통할 것인지가 핵심 과제로 부상한다.
언론 신뢰와 AI 신뢰성의 통약가능성: 용어, 실천, 가치의 통합
연구자는 언론 신뢰(수용자의 심리적 믿음 및 제도의 사실성/공정성)와 AI 신뢰성(기술적 강건함 및 윤리적 요건)이 서로 다른 층위에서 논의되어 왔음을 지적하며, 이를 세 가지 차원에서 통약 가능하게 만들어야 한다고 주장한다.
용어의 통약가능성: 두 분야 모두 '신뢰(trust)'라는 용어를 사용하지만 그 함의는 다르다. 언론은 주로 수용자의 심리적 '신뢰도(credibility/trust)'에, AI는 시스템의 성능과 윤리적 검증 가능성인 '신뢰성(trustworthiness)'에 초점을 맞춘다. 연구는 JAI 환경에서 언론사의 신뢰성이 AI 시스템의 신뢰성을 포괄해야 하며, 이것이 결국 수용자의 신뢰도 제고로 이어져야 한다고 본다.
실천적 통약가능성: JAI는 저널리즘 실천이자 동시에 AI 활용 실천이다. 따라서 실천적 차원에서 JAI의 신뢰는 저널리즘적 가치(사실 보도 등)와 AI 기술적 가치(데이터 무결성 등)가 결합된 형태로 구현되어야 한다.
가치 측면의 통약가능성: 언론의 핵심 가치인 '사실성'과 '공정성'은 TAI의 기술적 요건과 연결된다. 연구자는 AI의 투명성과 안전성은 언론의 '사실성'을 위한 필요조건이며, AI의 다양성과 책임성은 언론의 '공정성'을 위한 필요조건으로 해석하여 가치의 통약가능성을 제시한다.
언론 신뢰와 TAI의 통약가능성 문제의 구조화: AIX, TAI, 도메인
통약가능성 문제는 단순히 개념을 섞는 것이 아니라, 구체적인 적용 단계에서 세 가지 측면으로 구조화된다.
AIX 측면: 이는 언론사를 비롯한 다양한 저널리즘 주체들이 어떻게 AI 전환을 시도하고 있는지에 대한 현황 파악이다.
TAI 측면: 언론의 AI 도입 과정(AIX)에 TAI 가이드라인을 어떻게 기술적으로 적용하여 AI 자체의 신뢰성을 확보할 것인가의 문제다.
도메인(JAI) 측면: 이것이 최종적으로 저널리즘이라는 도메인의 목표, 즉 '언론 신뢰 제고'에 기여할 수 있는가 하는 문제다. TAI 기술은 저널리즘 가치 제고를 위해 재구성되어야 한다.
신뢰할 수 있는 인공지능(TAI) 개발 가이드라인과 기술적 요건
JAI 구현을 위한 구체적인 방법론으로 연구는 한국정보통신기술협회(TTA)가 2023년 발표한 <신뢰할 수 있는 인공지능 개발 안내서>를 참조한다. TTA는 TAI 구현을 위해 다음 세 가지 요소를 고려할 것을 제안한다.
신뢰성 확보 대상: 데이터, AI 모델/알고리즘, 시스템, 사람-AI 인터페이스가 포함된다.
AI 생애주기(Life Cycle): 계획 및 설계, 데이터 수집 및 처리, 모델 개발, 시스템 구현, 운영 및 모니터링의 5단계 흐름을 고려해야 한다.
기술적 요건(4대 핵심 요건): AI 윤리 기준을 기술적으로 구현하기 위해 **다양성 존중(편향 제거), 책임성(결과에 대한 책임 보장), 안전성(위험 관리 및 보안), 투명성(설명 가능성 및 추적 가능성)**을 충족해야 한다.
그러나 이러한 가이드라인을 실제 언론 현장에 적용하는 데는 현실적인 어려움이 있다. AI 개발자 인건비가 높아 언론사가 이를 감당하기 어렵고, 언론 도메인에 특화된 TAI 가이드라인이 아직 부재하기 때문이다. 또한, AI 윤리 가이드라인이 추상적이어서 개발자들이 코드로 구현하는 데 어려움을 겪는 '통약 불가능성'의 문제도 여전히 존재한다.
루프 속 인간(Human-in-the-loop)과 언론인의 역할
기술적 가이드라인만으로는 부족하며, 연구는 '루프 속 인간(Human-in-the-loop)' 접근을 강조한다. 이는 AI 시스템의 의사결정 과정에 인간이 개입하는 것을 의미한다.
특히 JAI에서 언론인은 단순한 데이터 라벨러가 아니라, 기획자이자 검수자로서 AI 생애주기 전반에 개입해야 한다. 이는 '인간 중심 AI'의 관점과도 연결되며, 언론인이 AI의 결과물을 맹목적으로 수용하는 것이 아니라 비판적으로 검증하고 저널리즘적 가치를 투영하는 주체가 되어야 함을 시사한다. 나아가 시민 사회와 규제 당국이 참여하는 '루프 속 사회(Society-in-the-loop)'로의 확장도 제안된다.
TAI 기반 JAI의 제안
연구자는는 최종적으로 언론 신뢰와 AI 신뢰성의 통약가능성을 바탕으로 한 'TAI 기반 JAI' 모델을 제안한다. 이 모델은 다음 세 가지 조건을 충족해야 한다.
AIX 조건: 저널리즘 분야에서 AI와의 실천적 결합이 전면적으로 이루어져야 한다.
TAI 조건: JAI는 TAI 관점에서 기술적 신뢰성(투명성, 안전성, 다양성, 책임성)을 확보해야 하며 과정에 언론인이 참여해야한다.
도메인 조건: 이러한 기술적 신뢰성은 반드시 언론의 신뢰성 및 수용자의 신뢰도 증진에 기여해야 한다.
[METAX = 류성훈 기자]
[ⓒ META-X. 무단전재-재배포 금지]