Ayinde 사건, “있지도 않은 판례로 주장을 뒷받침”
Al-Haroun 사건, “판사 이름까지 끌어다 만든 허구 인용”
2025년 6월 6일, 영국 고등법원이 두 건의 이례적인 판결을 공개했다. 이 판결은 단순한 재판 결과 발표가 아니었다. 오히려, 인공지능(AI)을 활용한 법률 문서 작성이 얼마나 위험할 수 있는지를 세상에 강하게 경고한 사건이었다.
사건은 겉으로 보기엔 익숙한 법적 분쟁처럼 보였다.
첫 번째 사건은 주거 지원 문제를 두고 시민이 지방정부를 상대로 낸 소송이었고, 두 번째는 수천만 파운드 규모의 금융 계약을 둘러싼 국제 소송이었다.
하지만 재판부는 충격적인 사실을 발견했다.
두 사건의 변호사들이 제출한 문서에 존재하지 않는 가짜 판례들이 다수 포함돼 있었던 것이다. 법적 근거처럼 보였던 판례들이 사실은 AI가 그럴듯하게 지어낸 허구였고, 일부는 인용 번호조차 실제 다른 사건과 맞지 않았다.
재판부는 경고했다.
“AI는 강력한 도구일 수는 있지만, 법률가는 그 결과물을 검증 없이 신뢰해서는 안 된다.”
![출처: [2025] EWHC 1383 (Admin), Ayinde v London Borough of Haringey and Al-Haroun v Qatar National Bank, High Court of Justice, King’s Bench Division, 6 June 2025](https://metax.kr/news/data/2025/06/08/p1065589013471321_695_thum.png)
2025년 6월 6일 영국 고등법원 판결문([EWHC 1383 (Admin)])에 따르면, 해당 사건(Ayinde v London Borough of Haringey and Al-Haroun v Qatar National Bank) 변호사들은 인터넷에서 AI 도구를 활용해 관련 판례를 찾은 것으로 보이며, 그 결과물을 사실 여부를 제대로 확인하지 않은 채 법정에 제출했다.
이로 인해 판례 인용 자체가 허위 사실로 판명됐고, 법원은 즉시 해당 변호사들과 법률기관에 제재를 가했다. 일부는 규제기관에도 공식 통보되어 징계 심사에 들어가게 됐다.
이 판결은 단순한 실수가 아니라, “AI 시대에 법조인이 어디까지 책임져야 하는가”, 그리고 “기계가 만든 정보에 어디까지 의존할 수 있는가”에 대한 중요한 경계선을 그은 사건으로 평가된다.
무엇보다, 이 사건은 전 세계 법률계에 명확한 메시지를 던졌다.
“AI가 만든 글이라도, 책임은 결국 사람이 져야 한다.”
사건 개요 : 법정에 제출된 ‘존재하지 않는 판례’
이번 판결의 핵심은 ‘존재하지 않는 가짜 판례’들이 법원에 공식 문서로 제출되었다는 점이다.
그 중심에는 두 명의 원고와 그들을 대리한 법률 전문가들이 있었다.
◆ Ayinde 사건, “있지도 않은 판례로 주장을 뒷받침”
Frederick Ayinde는 런던 해링게이(Haringey) 자치구를 상대로 임시 주거 제공 의무가 제대로 이행되지 않았다는 이유로 사법 심사(judicial review)를 청구했다. 그러나 문제는 소송의 본질이 아닌, 그를 대리한 변호인단이 법정에 제출한 서면에서 불거졌다.
Ayinde 측은 주장 근거로 총 다섯 개의 판례를 인용했는데, 법원이 확인한 결과 그 중 어느 것도 실제 존재하지 않는 ‘가짜’ 판례였다.
특히 주된 작성자인 변호사 Sarah Forey는 “자신이 따로 정리해둔 사례 리스트에서 실수로 잘못된 정보를 가져왔다”고 해명했지만, 법원은 이를 납득하지 않았다. 오히려 판사는 "그런 사례를 복사하거나 정리했다는 설명 자체가 사실일 수 없다"고 단언하며 신빙성을 부정했다.
결과적으로 Sarah Forey와 Haringey 법률센터는 각각 2,000파운드(약 340만 원)의 허비 비용(wasted costs)을 물게 되었고, 변호사 및 법률기관 규제당국에 공식적으로 회부되었다.
◆ Al-Haroun 사건, “판사 이름까지 끌어다 만든 허구 인용”
두 번째 사건인 89.4백만 파운드(약 1,550억 원)의 손해배상을 청구하며 카타르 국립은행(Qatar National Bank)을 상대로 소송을 제기한 Hamad Al-Haroun은, 무려 18개의 허위 판례를 인용한 문서를 법원에 제출했다.
더 놀라운 것은 이 중 일부 인용문이 해당 재판을 진행 중인 판사의 이름을 포함한 채 지어낸 문장이었다는 점이다.
재판부는 이를 확인하고 “AI가 만든 문장을 판례처럼 꾸며 법원에 낸 것은, 고의든 아니든 심각한 사법질서 위반”이라 판단했다.
특히 그의 법률대리인 Abid Hussain은 이 자료가 의뢰인이 직접 찾아온 것이라며 별도 검토 없이 그대로 법정에 제출했다고 인정했다. 이에 대해 법원은 강하게 비판했다.
“소송을 맡은 변호사가, 판례 검증 책임을 일반 시민에게 전가하는 것은 도저히 납득할 수 없는 행위다.”
Abid Hussain 역시 스스로 규제당국에 자진 신고했으며, 이후 모든 ‘소송 관련 업무에서 자진 철회’했다고 밝혔다.
법조계에 드리운 AI의 그림자, “기계는 책임지지 않는다”
이번 판결을 통해 법원은 다시 한 번 명확히 밝혔다.
“AI는 법률가의 책임을 대신할 수 없다.”
오늘날 법조계에서도 많이 활용되고 있는 ChatGPT 같은 생성형 인공지능(Generative AI)은 놀라운 속도로 문장을 만들어낼 수 있다. 문법적으로 매끄럽고, 표현도 그럴듯하다. 하지만 문제는 그 '그럴듯함' 자체에 있다.
법원은 이 기술이 갖는 ‘hallucination’, 즉 그럴듯한 허구를 만들어내는 현상에 대해 경고했다. AI는 맥락을 이해하거나 진실 여부를 판단하지 못한 채, 존재하지 않는 판례나 인용문을 실제처럼 만들어내기도 한다. 문제는 이런 내용이 변호사의 검토 없이 그대로 법정에 제출될 경우, 매우 심각한 결과를 초래할 수 있다는 점이다.
판결문은 이런 행위가 단순한 실수가 아니라, 전문직으로서의 책임을 저버린 행동이며 법원의 신뢰를 해치는 행위라고 분명히 밝혔다. 특히 법적 책임이 따르는 문서에서 “AI가 만든 텍스트를 사실처럼 다루는 것 자체가 이미 문제”라는 점을 강조했다.
이번 사건은 AI 도구를 업무에 도입하는 것과, 그 도구가 만들어낸 결과물을 어떻게 책임지고 검토할 것인가를 분리해서 생각해야 함을 보여주는 대표적 사례다.
규제기관의 대응 촉구, “AI 지침만으론 부족하다”
이번 판결은 단순히 개별 변호사들의 실수에 그치지 않는다.
법원은 “가이드라인만 배포해서는 AI 오남용을 막을 수 없다”며, 법조계 전체의 구조적인 대응 부족을 강하게 지적했다.
실제로 영국 변호사협회(Bar Council)와 법률서비스규제청(Solicitors Regulation Authority, SRA)은 이미 AI 사용과 관련된 지침서를 여러 차례 발표해왔다.
그러나 이번 판결문은 분명히 말했다.
“단순한 지도서 발간만으로는 부족하다.”
법원은 각 로펌의 대표, 변호사실의 수장, 그리고 신입 변호사들을 교육하는 감독자들에게 더 직접적인 책임을 물었다. AI의 위험성과 한계를 실제 사례 기반으로 교육하고, 작성된 문서에 대한 검증 절차를 강화해야 한다는 것이다.
특히, 이번처럼 법률 전문가의 실수나 윤리 위반이 드러나는 ‘Hamid 사건’(법원의 신뢰 회복을 위한 특별 절차)에서는, 단지 잘못을 저지른 개인뿐 아니라 그를 감독하고 업무를 배정한 상급자의 책임까지 함께 조사하겠다는 방침을 밝혔다.
이는 앞으로 “AI 도구를 누가 썼는가”만이 아니라,
“그 사용을 누가 방치했는가”,
그리고 “그 결과를 누가 검증하지 않았는가”까지 법적 책임의 범위에 포함될 수 있다는 것을 의미한다.
AI 도구 사용의 윤리 기준은 어디까지? “초보 변호사도 예외 없다”
이번 판결은 단지 잘못된 인용이 문제였던 것이 아니다.
법원은 AI 도구를 사용할 때 법률 전문가가 따라야 할 윤리적 기준을 명확히 제시했다. 특히 다음 네 가지는 모든 법조인이 반드시 지켜야 할 최소한의 기준으로 강조되었다.
① 판례 존재 여부 검증은 ‘기본 중의 기본’
법원은 모든 인용문과 판례는 정부의 공식 데이터베이스(예: National Archives, 법률 리포트 등)를 통해 사전에 존재 여부를 확인해야 한다고 못 박았다.
인터넷 검색이나 AI 도구를 통해 얻은 정보라고 하더라도, "확인되지 않은 인용은 법정에서 용납되지 않는다"는 것이 핵심이다.
② 생성형 AI는 ‘법률 보조 도구’일 뿐
판결문은 생성형 AI 도구의 사용 범위를 명확히 제한했다.
“이 도구들은 법적 분석이나 정확한 문헌 인용에는 부적합하다.”
법원은 AI를 ‘아이디어 참고용’ 정도로만 활용해야 하며, 법률 문서 초안이나 판례 인용을 자동 생성한 뒤 검토 없이 그대로 제출하는 것은 절대 안 된다고 지적했다.
③ 근거 자료 삭제는 ‘검증 회피’로 간주
Ms. Forey 변호사가 문제의 판례 목록을 삭제한 사실에 대해, 법원은 매우 강한 어조로 비판했다.
“자신이 인용한 사례가 어디서 나왔는지를 추적할 수 없게 만든 것은, 스스로 검증을 불가능하게 만든 행위다.”
이는 단순한 정리 실수가 아니라, 법적 책임 회피로 이어질 수 있는 중대한 문제로 간주됐다.
④ 초보 변호사도 책임에서 자유롭지 않다
이번 사건의 당사자인 Ms. Forey는 변호사 자격을 갓 취득한 초보였지만, 법원은 “경력이 부족하다는 이유로 윤리적 책임에서 면제될 수 없다”고 분명히 밝혔다.
교육 부족이나 지도 미비는 일부 고려 요소가 될 수 있지만, 전문가로서 법적 문서를 작성하는 이상, 책임의 기준은 동일하게 적용되어야 한다는 입장이다.
이처럼 법원은 “AI 도구를 사용하든 안 하든, 모든 법률 문서는 인간 전문가의 책임 아래 놓인다”는 원칙을 재확인했다.
이는 향후 전 세계 법조계에 걸쳐 AI 시대의 윤리 기준 수립에 중대한 전환점이 될 것으로 보인다.
‘AI 환각’ 법정 위협, 전 세계 법조계에 경고등 켜지다
미국, 캐나다, 호주, 뉴질랜드 등 주요국 법원, AI 생성 허위 정보에 ‘엄중 경고’
인공지능(AI) 기술이 사회 전반의 효율성을 높이고 있지만, 법조계에서는 그 이면에 감춰진 위험이 실제 사건으로 현실화되고 있다.
AI가 만들어낸 그럴듯한 허위 정보, 이른바 ‘AI 환각(hallucination)’이 실제 법정 문서에 등장하면서, 전 세계 주요 법원이 전문가 윤리와 법적 책임을 둘러싼 경고 메시지를 내고 있다.
이는 단순 실수가 아닌, 전문가의 검토 의무를 저버린 중대한 윤리 위반으로 간주되며, 각국 법원이 강경한 제재에 나서고 있다.
① 미국: Mata v. Avianca Inc. “AI가 만든 허구 판례, 벌금과 징계로 이어지다”
대표적인 사례는 2023년 미국 뉴욕 남부지방법원에서 발생한 ‘Mata v. Avianca Inc.’ 사건이다.
한 변호사가 ChatGPT를 활용해 작성한 소송 문서를 법원에 제출했는데, 여기에 포함된 6건 이상의 판례가 실제로 존재하지 않는 ‘허구’였다.
법원이 판례 사본 제출을 요구하자, 변호사는 또다시 AI에게 요약을 요청해 잘못된 내용을 재제출했다. 이에 대해 법원은 문서의 내용이 “미국 항소법원의 문체나 논리와 전혀 맞지 않는 인공적 구성”이라고 지적했다.
해당 변호사 2인과 소속 로펌에는 각 5,000달러의 벌금이 부과되었으며, 이 사건은 AI 남용의 경고적 사례로 널리 인용되고 있다.
② 캐나다: “AI 인용 포함 문서 전면 재점검” 명령
2024년 브리티시컬럼비아 대법원(Zhang v. Chen) 사건에서는 변호사가 ChatGPT가 생성한 허위 판례를 인용한 문서를 법원에 제출한 사실이 확인됐다.
법원은 변호사에게 AI를 활용해 작성된 문서 전체를 재검토하고, 오류가 있을 경우 그 내용을 모두 보고하라는 명령을 내렸다.
또한 2025년 온타리오 고등법원(Ko v. Li)에서는 변호사가 존재하지 않는 판례들을 인용한 서면을 제출한 사실이 드러나면서, 판사는 이를 “변호사의 가장 기본적인 의무 위반”으로 규정하고 강한 질책을 가했다.
③ 호주: AI 남용 사례, 규제기관에 공식 회부
2025년 호주의 Valu v Minister for Immigration 사건에서도 유사한 문제가 발생했다.
변호인이 AI 도구를 활용해 작성한 문서에 허위 인용문과 조작된 사례 요약이 포함돼 있었고, 재판부는 이를 확인한 후 해당 변호사를 뉴사우스웨일스 법률 규제기관(OLSC)에 공식 회부했다.
법원은 판결문에서 “AI의 오·남용은 법조인의 자격 문제로 이어질 수 있다”고 경고하며, AI 기술이 ‘생성 도구’일 뿐 ‘책임의 주체’가 될 수 없음을 분명히 했다.
④ 뉴질랜드: “존재하지 않는 인용문 포함된 AI 서면” 철회 사례
2024년 뉴질랜드 항소법원에서 진행된 Wikeley v Kea Investments Ltd 사건에서도, 변호인이 제출한 서면에 존재하지 않는 AI 인용문이 포함돼 있는 사실이 밝혀졌다.
해당 문서에 대해 상대 측이 문제를 제기하자, 변호인은 해당 주장을 철회했고, 법원은 “AI 사용 시 판례의 진위 여부를 검증하는 것은 법률가의 의무”라고 강조했다.
⑤ 영국 판결로 이어진 국제 흐름...“진실과 책임은 인간의 몫”
2025년 6월 6일 공개된 영국 고등법원의 판결([2025] EWHC 1383 (Admin)) 역시 이러한 국제적 흐름과 맞닿아 있다.
해당 판결에서 법원은 “AI는 강력한 보조 도구일 수 있으나, 법정에 제출되는 문서에 대한 책임은 온전히 인간 전문가에게 있다”고 강조하며, 가짜 인용문과 AI 자동 생성 문서를 제출한 변호사들에게 벌금과 공식 제재를 부과했다.
이번 판결은 AI 시대에 “법률 전문가의 검증 책임과 윤리 기준”이 더 이상 선택이 아니라 의무임을 재확인한 중대한 판례로 평가된다.
AI 시대, 법률은 누구의 손에 있어야 하는가
이번 사건은 단지 윤리 규정을 어겼느냐를 따지는 데 그치지 않는다.
그보다 더 본질적인 질문을 우리 모두에게 던진다.
“AI가 만든 결과물은 누구의 책임인가?”
기술은 빠르고 편리하다. 하지만 그 결과가 법정에 도달하는 순간, 책임은 언제나 ‘사람’의 이름으로 시작된다.
법원은 이번 판결에서 명확히 선을 그었다. AI는 보조 수단일 뿐, 법적 책임의 주체가 될 수 없으며, 전문가는 그것을 검증하고 판단할 책임을 져야 한다.
이는 마치 의사가 환자를 진찰도 하지 않은 채, AI가 추천한 처방전을 그대로 건네는 것과 같다. 그 행위는 의료가 아니라, 무책임이다.
법조계에서도 마찬가지다. AI가 판례를 추천하고, 문장을 작성하며, 논리를 세울 수 있는 시대가 되었지만, 그 문서가 ‘누구의 판단을 거쳐 법정에 제출되었는가’는 질문에 답할 수 없다면, 그건 기술의 문제가 아니라 신뢰의 위기다.
이제 우리에게 남은 질문은 이것이다.
“당신의 주장은, 누구의 이름으로 법정에 올려졌는가?”
그리고 그 질문은, AI 시대의 법률이 어디에 있어야 하는지를 가리킨다.
[저작권자ⓒ META-X. 무단전재-재배포 금지]