경찰, ‘AI 허위 판례’ 논란 후 국내 제휴 AI 이용도 중단

비용 부담·정확성 논란 겹쳐…“AI 활용, 신중해야”
경찰이 오픈AI의 챗GPT를 활용한 보고서에서 ‘허위 판례’를 인용해 논란이 일고 있는 가운데 국내 제휴 인공지능(AI) 서비스 이용를 중단한다고 밝혔다. 경찰 내부에서 AI 활용이 확산되던 가운데, 비용 부담과 신뢰성 문제가 동시에 불거진 것이다.
21일 경찰청은 이날부터 경찰관들이 무료로 사용하던 AI 법률 정보 플랫폼 ‘엘박스 AI’의 이용을 중단했다. 경찰청은 내부 공지를 통해 “유료 전환으로 인한 연간 10억 원 이상의 비용 부담”을 이유로 들었다.
엘박스 AI는 법률 문서 작성, 판례 검색, 보고서 작성 보조 등의 기능을 제공하며 일부 수사관들이 업무 효율화를 위해 사용해 왔다. 그러나 경찰청은 정확성 검증 없이 AI가 생성한 내용을 그대로 사용할 경우 오류 가능성이 크다고 우려했다.
경찰 관계자는 “AI 서비스를 업무에 적극 활용하는 분위기였지만, 검증 절차 없이 보고서에 인용될 경우 문제가 될 수 있다는 우려가 있었다”고 전했다.
앞서 국정감사에서는 경기 용인동부경찰서가 AI가 만든 허구의 법리를 근거로 불송치 결정을 내린 사례가 지적됐다.
더불어민주당 권칠승 의원은 당시 “경찰이 인용한 문구가 실제 판결문에 존재하지 않는다”고 비판했다. 이에 대해 유재성 경찰청장 직무대행은 “해당 보고서에 챗GPT가 활용된 것으로 보고받았다”며 “이후 AI 사용 시 유의사항을 하달했다”고 밝혔다.
경찰청은 현재 판례·법령 검색 서비스 계약을 갱신하며, 제한된 범위 내에서 신뢰성 있는 생성형 AI 검색서비스를 별도 계약 형태로 도입하는 방안을 검토 중이다.
전문가들은 경찰 등 공공기관에서 AI를 업무에 활용할 때 ‘환각(hallucination)’ 현상, 즉 존재하지 않는 정보를 사실처럼 만들어내는 문제에 대한 관리가 필요하다고 강조한다.
이윤호 동국대 경찰행정학과 명예교수는 “AI는 참고용으로 활용할 수 있지만, 최종 판단이나 법적 결론을 내리는 데 직접 사용하는 것은 위험하다”고 지적했다.
경찰은 향후 업무 효율화와 데이터 정확성 확보를 병행할 수 있는 AI 활용 가이드라인 마련에 나설 것으로 보인다.
저작권자 © 에포크타임스, 무단 전재 및 재배포 금지