프라이버시 염려보다 앞서는 ‘품질에 대한 기대’
[메타X(MetaX)]이 논문은 생성형 AI에 대한 신뢰와 구매의도를 기술 수용의 문제가 아니라, 촉진과 억제가 동시에 작동하는 복합적 심리 과정으로 바라본다. 특히 듀얼팩터 이론을 이론적 틀로 삼아, 생성형 AI를 사용할 때 사용자가 느끼는 기대와 불안이 어떻게 공존하며, 어떤 변수가 실제 행동을 밀어 올리거나 가로막는지를 실증적으로 드러낸다. 연구의 출발점은 “생성형 AI가 유용한가?”가 아니라, “사람들은 왜 불안함에도 불구하고 돈을 내는가”라는 질문에 가깝다.
|
생성형 AI에 대한 신뢰와 구매의도: 촉진과 억제요인 중심으로, 박대성·김헌준·장혜원·박일수,2025 |
정보품질의 역설: 좋아서 더 불안해진다
이 논문에서 인상적인 발견은 정보품질과 프라이버시 염려의 관계에서 나타난 가설 4(H4)의 기각이다. 기존 정보시스템 연구의 전통적 관점에서는 정보품질이 높아질수록 사용자의 불안이나 프라이버시 염려는 감소할 것이라 가정해왔다. 정확하고 신뢰할 수 있는 정보는 시스템에 대한 신뢰를 높이고, 위험 인식을 완화시킨다는 논리다.
그러나 본 연구는 정반대의 결과를 보여준다. 생성형 AI에서 정보품질이 높을수록 오히려 프라이버시 염려가 증가하는 정(+)의 관계가 확인된다. 이는 단순한 통계적 예외가 아니라, 생성형 AI라는 기술이 가진 구조적 특성에서 비롯된 새로운 심리 메커니즘으로 해석된다. 사용자는 고품질의 결과물을 얻기 위해 더 구체적이고 개인적인 정보, 때로는 민감한 맥락까지 입력해야 한다. 그 결과 “이 AI가 나를 너무 잘 안다”는 인상은 만족과 동시에 불안을 자극한다.
이 발견은 개인화 기술의 진화가 항상 심리적 안정을 동반하지는 않는다는 점을 명확히 보여준다. 정교한 개인화 경험은 편리함과 동시에 데이터 수집의 깊이와 범위를 체감하게 만들고, 그 체감이 프라이버시 염려로 전환된다. 정보품질은 더 이상 순수한 촉진요인이 아니라, 촉진과 억제를 동시에 수행하는 양면적 변수로 등장한다.
생성형 AI 이용을 ‘불확실성과의 협상’으로 재정의하다
이 논문은 생성형 AI의 유료화와 구매의도를 단순한 가격-가치 교환으로 설명하지 않는다. 대신 생성형 AI 사용을 ‘창조적 불확실성(Creative Uncertainty)’과의 협상 과정으로 개념화한다. 사용자는 생성형 AI의 결과물에 매혹되지만, 동시에 환각현상, 편향, 블랙박스 구조라는 불확실성을 명확히 인식하고 있다.
중요한 점은 이 두 감정이 상쇄되지 않는다는 것이다. 유용성은 불안을 지우지 않고, 불안 역시 유용성을 무력화하지 않는다. 듀얼팩터 이론에 따라 촉진요인과 억제요인은 서로 독립된 인지 차원에서 작동하며, 사용자는 이 둘 사이에서 감정적 밀당을 지속한다. 구매의도는 이 협상이 “완전히 해결”되었을 때 발생하는 것이 아니라, 불확실성을 감수할 만큼의 가치가 있다고 판단되는 지점에서 형성된다. 이 관점은 생성형 AI 수용을 보다 현실적인 인간 경험으로 설명한다.
보안을 기술이 아닌 ‘심리적 안정감’으로 해석하다
이 논문이 보안을 다루는 방식 역시 흥미롭다. 보안을 암호화 수준이나 기술적 방어 체계로 한정하지 않고, 토마스 홉스의 ‘리바이어던’을 호출하여 보안을 두려움이 제거된 주관적 상태로 재해석한다. 디지털 환경에서 플랫폼 기업은 더 이상 단순한 서비스 제공자가 아니라, 사용자에게 안전과 통제를 동시에 제공하는 ‘디지털 리바이어던’으로 기능한다.
실증 결과에서도 지각된 보안성은 단순히 “안전하다고 느끼는 정도”를 넘어서, 정보품질 평가에 직접적인 영향을 미치는 핵심 변수로 작동한다. 사용자가 시스템을 안전하다고 인식할수록, 그 시스템이 제공하는 정보 자체를 더 정확하고 신뢰할 만하다고 평가한다. 즉 보안은 신뢰로 가는 우회로가 아니라, 정보품질이라는 관문을 여는 전제 조건으로 기능한다.
프라이버시 염려보다 앞서는 ‘품질에 대한 기대’
또 하나 주목할 결과는 프라이버시 염려가 신뢰 형성에 유의미한 영향을 미치지 않았다는 점이다(H9 기각). 이는 프라이버시가 중요하지 않다는 의미가 아니라, 생성형 AI 맥락에서 그 영향력이 제한적이라는 것을 시사한다. 사용자는 개인정보 노출 위험을 인식하면서도, 그 위험이 곧바로 신뢰 붕괴로 이어지지는 않는다.
이 현상은 프라이버시 계산 이론으로 설명할 수 있다. 사용자는 위험과 편익을 동시에 고려하며, 생성형 AI가 제공하는 정보의 품질과 효용이 충분히 크다고 판단될 경우 위험을 감수한다. 실제로 이 연구에서 가장 강력한 변수는 반복해서 정보품질로 확인된다. 정보품질은 구매의도와 신뢰 모두에 직접적인 영향을 미치며, 다른 억제요인을 압도하는 촉진요인으로 작동한다.
정보품질 중심의 수용 메커니즘이 갖는 함의
종합하면 이 논문은 생성형 AI 수용의 핵심을 정보품질을 둘러싼 역설적 구조로 포착한다. 정보품질은 신뢰와 구매의도를 촉진하지만, 동시에 프라이버시 염려를 자극하는 억제요인으로도 작동한다. 사용자는 이 모순을 해소하지 않은 채, 그 위에서 선택한다. 이는 생성형 AI 수용이 합리적 계산의 결과라기보다, 불완전함을 감수하는 결정에 가깝다는 점을 보여준다.
이 연구의 의의는 생성형 AI를 “더 안전하게 만들면 사람들이 믿는다”는 단순한 해법에서 벗어나, 왜 사람들은 불안한데도 믿고 쓰는가라는 질문을 실증적으로 풀어냈다는 데 있다. 생성형 AI 시대의 신뢰는 불안을 제거한 결과가 아니라, 불안을 포함한 상태에서 형성되는 새로운 형태의 신뢰임을 보여준다.
[METAX = 류성훈 기자]
[저작권자ⓒ META-X. 무단전재-재배포 금지]


































