“AI 편향성과 공정성, 우리가 반드시 해결해야 할 윤리적 과제입니다.”
10월 18일 서울 양재 aT센터에서 개최된 ‘2024년 글로벌 메타버스 컨퍼런스(GMC)’에서 한국이 메타버스 생태계에서 나아갈 방향과 정부와 민간의 규제와 윤리적 생태계 구축을 위한 전략이 논의됐다.

조준희 이노시뮬레이션 대표는 가상 훈련 콘텐츠와 AI 기술의 발전이 가져오는 윤리적 이슈들에 대해 연설을 진행했다. 그는 자율주행차와 같은 첨단 모빌리티 시스템에서 가상 훈련 콘텐츠의 중요성이 증가하고 있으며, 이로 인해 가상 테스트와 시뮬레이터 개발이 필수적임을 강조했다.
가상 테스트 환경 개발의 필요성
조준희 이노시뮬레이션 대표는 자율주행차의 발전에 있어 가상 테스트가 더 이상 선택이 아닌 필수 요소임을 강조했다. 특히 역대 최고의 실적을 내고 있는 K광산에 빗대어 “실제 전장에서 전투를 하는 것은 할 수 없기 때문에 가상 현실을 활용한 시뮬레션의 시뮬레이터의 활용이 커지고 있다.”며 “자율주행차량 또한 마찬가지며 이런 가상 훈련 콘텐츠들은, 현실 세계에서 나타나는 그런 모든 교통 상황을 가상 현실 세계에서도 매우 사실적으로 표현하는 것이 중요하다.”고 설명했다.

자율주행차의 개발과 검증 과정에서 실제 도로 테스트만으로는 법적·정책적 제약, 안전성 및 신뢰성 확보의 기술적 한계, 그리고 소비자 수용성 등의 문제는 해결되지 않는다고 언급하며 가상 테스트를 통해 실시간 교통 상황을 시뮬레이션하고, 현실과 유사한 가상 공간에서 차량을 테스트함으로써 안전성을 확보할 수 있다고 조 대표는 말했다. "자율주행차의 95% 신뢰성을 확보하기 위해서는 6억 킬로미터에 이르는 주행 거리가 필요하다"며, 이 목표를 달성하기 위해서는 가상 테스트가 필수적이라는 점을 강조했다. 그러면서, 고급 모빌리티 개발을 위해서는 가상 테스트와 VILS 시스템, 고성능 시뮬레이터 개발의 가속화가 필요하다고 말했다. 덧붙여, "요즘 멀티 모델 제너레이티브 AI가 등장을 하면서 콘텐츠 개발에 혁신적으로 시간과 비용을 크게 줄일 수 있을 것"이라 기대했다.

가상 훈련 콘텐츠의 윤리적 딜레마, 네 가지 과제
조준희 이노시뮬레이션 대표는 또, 가상 훈련 콘텐츠 개발의 필요성과 함께 윤리적 딜레마들을 해결하는 것 또한 중요하다고 역설하며 네 개의 과제들을 언급하기도 했다.

1. AI 편향성과 공정성 문제
조 대표는 AI의 편향성 문제가 불공정한 결과를 초래할 수 있음을 경고하며, 이는 단순한 기술적 과제가 아닌 윤리적 문제로 접근해야 한다고 말했다. 그는 “AI 편향성과 공정성 문제는 우리가 반드시 해결해야 할 윤리적 과제입니다. 데이터가 불공정하게 사용된다면, AI의 결정은 특정 집단에 불리하게 작용할 수도 있다.”라며, 공정성과 정의를 보장하기 위한 AI 시스템 개발의 중요성을 피력했다.
AI가 모든 사람에게 공정하게 작동할 수 있도록 다양한 데이터를 확보하고, 편향을 줄이는 알고리즘을 도입해 나가야 한다고 강조했으며 이러한 노력이 공정성을 보장하는 중요한 첫걸음이 될 것이라고 덧붙였다.
2. 가상 훈련 콘텐츠의 필요성
조 대표는 자율주행차, 커넥티드 카 시스템, 첨단 운전자 보조 시스템(ADAS)과 같은 기술이 발전함에 따라 가상 훈련 콘텐츠의 중요성이 더욱 커지고 있다고 설명했다. 그는 “고급 차량의 설계 및 개발 비용이 급증함에 따라, 가상 테스트는 이제 선택이 아닌 필수입니다.”라며, 가상 훈련 콘텐츠가 비용 절감과 안전성 향상, 그리고 개발 기간 단축에 크게 기여하고 있다고 말했다.
또한 다양한 시나리오에서 운전자와 차량, 도로 간의 상호작용을 안전하게 테스트할 수 있도록 하여 현실에서의 위험을 줄이고 효과적인 학습을 가능하게 한다는 점에서, 가상 훈련과 시뮬레이터는 반드시 필요한 요소라 강조했다.
3. 프라이버시 보호와 심리적 영향 문제
또한 조 대표는 AI 기술의 발전과 함께 방대한 데이터가 수집되면서 프라이버시 침해에 대한 우려도 커지고 있다며, 가상 훈련 콘텐츠가 개인정보 보호를 위해 데이터를 최소화하고 익명화하는 기술적 방안을 마련해야 한다고 이야기했다. 특히 가상 현실 환경이 사용자에게 미칠 수 있는 심리적·정서적 영향에 대해서도 그는 우려를 표명했다. “가상 현실 환경은 현실과의 경계를 모호하게 만들 수 있으며, 이는 사용자에게 심리적 영향을 미칠 수 있으므로 충분한 안전 장치와 사전 안내가 필요하다.”라며, 가상 환경에서의 사용자 경험이 심리적 안전성을 보장할 수 있도록 신경 써야 한다고 강조했다.
이를 위해서는 가상 훈련 콘텐츠를 위해 필요한 최소한의 데이터만 수집하여, 불필요한 개인정보 노출을 줄이고 데이터를 익명화해야 하며 사용자가 자신의 데이터가 어떻게 사용되고 있는지 명확히 이해할 수 있도록 해야 한다고 설명했다.
4. AI 의사결정의 투명성과 책임성
덧붙여, AI가 자율적으로 판단하는 시스템에서 투명성과 책임성을 강화하는 것이 필수적이라고 설명했다. 그는 “Transparency and accountability in decision-making: Decision-making processes based on uncertainty and the responsibilities that come with them”이라는 문구를 설명하며, AI의 의사결정 과정이 투명하고 신뢰할 수 있어야 한다고 말했다. 이를 위해 AI의 의사결정 과정을 설명 가능한 형태로 개발하는 것이 중요하다고 덧붙였다.
조 대표는 연설을 마무리하며 기술 발전과 윤리적 기준이 조화를 이루는 방향으로 AI와 가상 훈련 콘텐츠가 지속 가능하게 발전해야 한다고 강조했다. 그는 “AI 기술과 가상 훈련 콘텐츠가 사회에 긍정적인 영향을 미치기 위해서는 윤리적 기준을 강화하고, 공정하고 안전한 환경을 제공하는 것이 필수적입니다.”라며, 이노시뮬레이션은 이러한 목표를 실현하기 위해 계속해서 노력할 것이라고 밝혔다.
이처럼 조 대표는 AI와 가상 훈련 콘텐츠가 가져올 미래에 대해 비전을 제시하며, 이를 통해 AI 기술이 더욱 공정하고 책임 있는 방식으로 발전할 수 있도록 많은 관심과 노력이 필요하다는 메시지를 전달했다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]