AI 상담·동반자 시대, 핵심 쟁점은 기술적 응답을 넘어 ‘인간 연결’로 이동
[메타X(MetaX)] OpenAI가 ChatGPT에 ‘Trusted Contact’ 기능을 도입했다. 사용자가 미리 지정한 가족, 친구, 보호자 등 신뢰할 수 있는 사람이 위기 상황에서 알림을 받을 수 있도록 하는 선택형 안전 기능이다.
이번 발표는 단순한 기능 업데이트가 아니다. 생성형 AI가 사람의 질문에 답하는 도구를 넘어, 정서적 위기와 고립의 순간까지 마주하게 된 시대에 나온 중요한 변화다. AI가 사람을 대신해 위기를 해결하겠다는 것이 아니라, 오히려 AI가 현실의 사람에게 연결되는 통로가 되겠다는 선언에 가깝다.
OpenAI는 2026년 5월 7일 Trusted Contact를 순차적으로 출시한다고 밝혔다. 이 기능은 성인 사용자가 신뢰 연락처를 한 명 지정하면, 자동화 시스템과 훈련된 리뷰어가 심각한 자해 우려 가능성을 감지했을 때 해당 연락처에 제한적인 알림을 보낼 수 있도록 설계됐다. OpenAI 공식 블로그와 릴리스 노트에서도 이 기능이 개인용 ChatGPT 계정의 성인 사용자를 대상으로 순차 제공되며, Business·Enterprise·Edu 워크스페이스에는 제공되지 않는다고 설명했다.
ChatGPT 안에 들어온 ‘신뢰 연락처’ 기능
Trusted Contact는 사용자가 ChatGPT 설정에서 신뢰할 수 있는 성인 한 명을 지정하는 방식으로 작동한다. 한국에서는 만 19세 이상, 글로벌 기준으로는 만 18세 이상 성인을 신뢰 연락처로 등록할 수 있다. 등록된 상대는 초대를 받고, 일주일 안에 수락해야 기능이 활성화된다.
핵심 작동 방식은 비교적 명확하다. 사용자가 자해와 관련된 심각한 위험 신호를 보일 경우, ChatGPT는 먼저 사용자에게 신뢰 연락처에 알림이 갈 수 있음을 안내한다. 동시에 사용자가 직접 연락할 수 있도록 대화 시작 문구도 제안한다.
이후 자동 시스템만으로 바로 알림이 나가는 것은 아니다. 별도로 훈련된 소규모 인력이 상황을 검토한다. 검토 결과 심각한 안전 우려가 있다고 판단되면, 신뢰 연락처에 이메일, 문자, 앱 알림 등의 방식으로 간단한 알림이 전송된다.
중요한 점은 알림의 범위가 제한된다는 것이다. OpenAI는 해당 알림에 대화 전문이나 구체적인 채팅 내용이 포함되지 않는다고 설명했다. 대신 자해 관련 우려가 있었다는 일반적 사유와, 사용자를 확인해보라는 안내가 전달된다.
AI가 ‘상담자’가 아니라 ‘연결자’가 되는 순간
이번 기능의 핵심은 AI가 위기를 혼자 해결하려 하지 않는다는 점이다.
생성형 AI는 이미 많은 사람에게 고민을 털어놓는 공간이 됐다. 이용자는 공부, 업무, 창작뿐 아니라 외로움, 불안, 관계 문제, 자기 의심까지 ChatGPT에 묻는다. 이때 AI는 즉각적이고 판단하지 않는 대화 상대가 될 수 있다. 그러나 바로 그 이유 때문에 위험도 생긴다.
사람이 심각한 정서적 위기에 있을 때, AI의 답변만으로는 충분하지 않다. 필요한 것은 종종 정확한 문장보다 현실의 접촉이다. 누군가 전화를 걸어주는 것, 문을 두드리는 것, 곁에 있어주는 것이다.
OpenAI가 이번 발표에서 강조한 것도 바로 이 지점이다. Trusted Contact는 전문 치료나 위기 대응 서비스를 대체하지 않는다. 대신 위기 순간에 사용자가 이미 신뢰하고 있는 사람과 연결될 수 있도록 돕는 추가 안전층이다.
즉 이번 기능은 AI 안전의 방향을 보여준다. AI가 모든 문제를 스스로 해결하는 것이 아니라, 필요한 순간 사람에게 돌려보내는 구조다.
자동 감지와 인간 리뷰의 결합
Trusted Contact의 설계에서 주목할 부분은 자동화 시스템과 인간 리뷰의 결합이다.
OpenAI는 자동 모니터링 시스템이 사용자의 대화에서 심각한 자해 우려 가능성을 감지할 수 있다고 설명한다. 하지만 알림 발송은 자동 탐지만으로 결정되지 않는다. 훈련된 인력이 해당 상황을 검토한 뒤, 심각한 안전 우려가 있다고 판단할 경우에만 신뢰 연락처에 알림이 전송된다.
이는 AI 안전 시스템이 직면한 어려움을 보여준다. 자해 위험 신호는 문장 하나만 보고 판단하기 어렵다. 어떤 표현은 실제 위험 신호일 수 있지만, 어떤 표현은 비유나 농담, 과거 회상일 수도 있다. 반대로 위험한 상태에 있는 사람은 직접적인 표현을 피할 수도 있다.
따라서 단순 키워드 필터링만으로는 부족하다. 문맥을 읽어야 하고, 위험 수준을 구분해야 하며, 오탐과 미탐 사이의 균형을 맞춰야 한다. OpenAI가 인간 리뷰 단계를 둔 것은 이런 불확실성을 줄이기 위한 장치로 볼 수 있다.
다만 OpenAI도 시스템이 완벽하지 않다는 점을 인정한다. 알림이 사용자의 실제 상태를 항상 정확히 반영하지는 않을 수 있으며, 그럼에도 모든 알림은 발송 전 훈련된 인간 검토를 거친다고 설명했다.
AI와 정신건강의 경계가 흐려지고 있다
Trusted Contact가 등장한 배경에는 생성형 AI 사용 방식의 변화가 있다.
초기 ChatGPT는 생산성 도구로 받아들여졌다. 이메일을 쓰고, 코드를 고치고, 보고서를 정리하고, 아이디어를 확장하는 도구였다. 그러나 시간이 지나면서 사람들은 AI를 더 사적인 공간으로 사용하기 시작했다. 말하기 어려운 감정, 가족이나 친구에게도 꺼내기 어려운 고민, 밤늦게 찾아오는 불안을 AI에게 털어놓는다.
이 변화는 양면적이다. AI는 누군가에게 첫 번째 도움 요청의 창구가 될 수 있다. 그러나 동시에 AI가 현실의 도움을 지연시키는 공간이 될 위험도 있다.
Trusted Contact는 이 긴장 속에서 나온 기능이다. AI가 감정적 대화를 받을 수밖에 없는 시대라면, 그 대화가 위험 수준에 도달했을 때 현실 세계와 연결되는 안전장치가 필요하다는 문제의식이다.
OpenAI는 이번 기능 개발에 임상가, 연구자, 정신건강 및 자살예방 기관의 조언을 반영했다고 밝혔다. 또한 60개국 260명 이상의 의사 네트워크와 웰빙·AI 전문가 위원회, 미국심리학회 등 외부 조직과 협력했다고 설명했다.
안전과 프라이버시는 어디서 균형을 잡는가
Trusted Contact가 중요한 기능인 만큼 논쟁도 피하기 어렵다. 가장 큰 쟁점은 안전과 프라이버시의 균형이다.
한편으로는 명확하다. 심각한 자해 위험이 감지되는 상황에서 사용자가 고립되어 있다면, 신뢰 연락처 알림은 생명을 보호하는 데 도움이 될 수 있다. 특히 위기 순간에는 스스로 도움을 요청하기 어려울 수 있다. 미리 지정한 신뢰 연락처가 있다면, 사용자는 완전히 혼자 남지 않을 가능성이 커진다.
그러나 다른 한편에서는 민감한 질문이 남는다. AI가 어디까지 위험을 판단할 수 있는가. 사용자의 대화가 얼마나 모니터링되는가. 알림이 오탐일 경우 사용자의 사생활은 어떻게 보호되는가. 신뢰 연락처가 정말 안전한 사람인지 어떻게 보장할 수 있는가.
OpenAI는 이런 우려를 의식한 듯 기능을 선택형으로 설계했다. 사용자는 언제든 신뢰 연락처를 삭제하거나 수정할 수 있고, 신뢰 연락처 역시 스스로 역할에서 빠질 수 있다. 알림에는 구체적인 대화 내용이나 전문이 포함되지 않는다.
그럼에도 이 기능은 AI 서비스가 점점 더 민감한 영역으로 들어오고 있음을 보여준다. 이제 AI 안전은 단순히 “위험한 답변을 거부하는가”의 문제가 아니다. 사용자의 감정, 관계, 위기 신호, 현실의 보호망까지 설계하는 문제로 확장되고 있다.
OpenAI의 안전 전략 변화: 답변 차단에서 관계 연결로
OpenAI는 Trusted Contact 외에도 민감한 대화에서 위기 상담 전화, 응급 서비스, 정신건강 전문가, 주변의 신뢰할 수 있는 사람에게 연결되도록 유도하는 안전장치를 운영하고 있다고 밝혔다. 또한 자살이나 자해 방법을 묻는 요청에는 지침 제공을 거부하고, 더 안전한 응답과 지역별 위기 자원을 안내하도록 훈련하고 있다고 설명했다.
여기서 보이는 변화는 안전 전략의 확장이다.
과거 AI 안전은 주로 차단의 문제였다. 위험한 질문에 답하지 않는 것, 불법적이거나 해로운 지침을 제공하지 않는 것, 유해 콘텐츠 생성을 막는 것이 핵심이었다.
그러나 Trusted Contact는 한 단계 더 나아간다. 위험한 답변을 막는 것을 넘어, 사용자가 현실의 도움으로 이동하도록 설계한다.
이는 AI 시스템의 역할을 다시 정의한다. AI는 위기 상황에서 최종 보호자가 될 수 없다. 그러나 위험 신호를 발견하고, 사용자가 혼자 고립되지 않도록 연결을 촉진하는 중간 매개자가 될 수 있다.
AI 서비스의 경쟁력은 ‘성능’에서 ‘책임 설계’로 이동한다
이번 기능은 생성형 AI 산업 전체에도 의미가 크다.
지금까지 AI 경쟁은 주로 모델 성능 중심이었다. 더 빠른 응답, 더 긴 컨텍스트, 더 좋은 추론, 더 자연스러운 대화, 더 강력한 코딩 능력이 핵심 경쟁 요소였다. 그러나 사용자 규모가 커지고 대화 범위가 사적인 영역으로 확장되면서, 경쟁의 또 다른 축이 등장하고 있다.
바로 책임 설계다.
사용자가 취약한 상태일 때 시스템은 어떻게 반응해야 하는가. AI가 감정적 의존을 강화하지 않도록 어떻게 설계할 것인가. 위험 신호를 감지했을 때 어디까지 개입할 것인가. 프라이버시를 해치지 않으면서 생명을 보호할 방법은 무엇인가.
Trusted Contact는 이 질문에 대한 OpenAI의 초기 답변 중 하나다. AI가 더 인간적인 대화를 할수록, AI 기업은 더 인간적인 책임을 요구받게 된다.
한국에서도 이 기능은 중요한 논의를 촉발할 수 있다.
한국은 디지털 서비스 이용률이 높고, 카카오톡·커뮤니티·SNS 등 비대면 소통 문화가 강하다. 동시에 청소년과 청년층의 고립, 우울, 자살 위험 문제도 사회적으로 매우 민감한 의제다. 이런 환경에서 AI 챗봇은 상담의 보조 창구가 될 수 있지만, 동시에 위험 신호를 어떻게 처리할 것인지에 대한 사회적 기준이 필요하다.
특히 한국에서는 신뢰 연락처 기준이 글로벌 18세가 아니라 19세 이상으로 설정된 점도 눈에 띈다. 이는 국내 성년 기준과 법적·문화적 맥락을 반영한 것으로 보인다.
향후 한국에서도 AI 상담형 서비스, 교육용 AI, 청소년 대상 AI 서비스가 확산될수록 다음 질문이 중요해질 것이다. AI가 위험 신호를 감지했을 때 누구에게 알릴 것인가. 부모, 보호자, 친구, 학교, 기관 중 어떤 연결이 적절한가. 사용자의 동의와 자기결정권은 어떻게 보장할 것인가. 오탐으로 인한 낙인과 사생활 침해는 어떻게 막을 것인가.
Trusted Contact는 기술 기능이지만, 그 안에는 법·윤리·복지·교육의 질문이 함께 들어 있다.
AI가 사람을 대체하지 않고, 사람에게 돌려보내는 설계
Trusted Contact의 본질은 기능명이 말해준다. 핵심은 AI가 아니라 Trusted, 그리고 Contact다. 신뢰할 수 있는 사람과의 연결이다.
AI 시대의 역설은 여기에 있다. 기술이 정교해질수록, 더 중요한 것은 사람과 사람의 연결이 된다.
ChatGPT는 더 많은 질문에 답할 수 있다. 더 긴 대화를 나눌 수 있다. 더 섬세하게 반응할 수 있다. 그러나 누군가의 위기 앞에서 AI가 해야 할 가장 중요한 일은 완벽한 답변을 내놓는 것이 아닐 수 있다. 때로는 현실의 누군가에게 신호를 보내는 것이다.
이번 발표는 AI 안전의 방향을 보여준다. 위험한 답변을 막는 AI에서, 위험한 고립을 줄이는 AI로 이동하고 있다.
Trusted Contact는 생성형 AI가 인간의 취약함을 다루기 시작한 시대에 나온 중요한 전환점이다. AI가 사람을 대신하는 것이 아니라, 사람이 사람에게 닿도록 돕는 구조. 그것이 이번 기능의 가장 중요한 의미다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]


































