생성형 인공지능을 활용한 판결문 공개 제도 개선: 개인정보 보호와 알 권리 균형을 위한 법적·기술적 접근

현행 법원 판결문 공개 제도는 낮은 공개율과 비효율적인 수동 비식별 처리로 인해, 사법 정보 접근성보장과 개인정보 보호라는 상충하는 가치의 균형 달성이 어렵다. 이는 국민의 알 권리 충족과 법률 연구 및 AI 산업 발전을 저해한다. 본 연구는 이를 해결하고자, 법원에서 안전하게 운영 가능한 생성형 AI기반 자동 비식별화 시스템의 설계 및 구현 방법론을 제시하고 그 성능을 평가한다. 연구 방법으로 실제 판결문 데이터를 활용하여, 외부 대형 언어 모델(GPT-4o 등)의 Few-shot 방식과 기관 내부 구축에 적합한 소형 언어 모델(...

Full description

Saved in:
Bibliographic Details
Published in지식재산연구 Vol. 20; no. 2; pp. 93 - 118
Main Authors 임을영, Eul Young Lim, 현민성, Minsung Hyun
Format Journal Article
LanguageKorean
Published 한국지식재산연구원 30.06.2025
Subjects
Online AccessGet full text
ISSN1975-5945
2733-8487
DOI10.34122/jip.2025.20.2.93

Cover

More Information
Summary:현행 법원 판결문 공개 제도는 낮은 공개율과 비효율적인 수동 비식별 처리로 인해, 사법 정보 접근성보장과 개인정보 보호라는 상충하는 가치의 균형 달성이 어렵다. 이는 국민의 알 권리 충족과 법률 연구 및 AI 산업 발전을 저해한다. 본 연구는 이를 해결하고자, 법원에서 안전하게 운영 가능한 생성형 AI기반 자동 비식별화 시스템의 설계 및 구현 방법론을 제시하고 그 성능을 평가한다. 연구 방법으로 실제 판결문 데이터를 활용하여, 외부 대형 언어 모델(GPT-4o 등)의 Few-shot 방식과 기관 내부 구축에 적합한 소형 언어 모델(7~8B 규모)의 파인튜닝 방식 성능을 비교했다. 실험 결과, 파인튜닝한 소형 언어 모델은 Few-shot 방식의 대형 언어 모델에 준하는 높은 비식별 정확도와 재현율(F1 점수 98% 이상)을 달성하였다. 이는 개인정보 유출 위험 없이 법원 내부에서 안전하고 효율적으로 판결문 비식별화 작업을 자동화할 수 있음을 실증적으로 보여준다. 나아가, 이러한 시스템 도입 시 발생할 수 있는 법적 쟁점, 특히 비식별화 오류 발생 시 책임 소재를 분석했다. 인간의 오류는 물론, AI의 정확도 수준에 따라 기존 과실책임 법리, 국가배상책임, 제조물책임등의 적용 가능성과 한계를 검토하여, AI 시스템 오류에 대한 법적 불확실성이 존재함을 지적했다. 결론적으로 본 연구는 파인튜닝한 소형 언어 모델이 개인정보 보호와 알 권리 보장을 조화시키는 현실적 기술 대안임을 보여주고, 관련 법·제도적 보완의 필요성을 강조하며, 사법 투명성 제고와 법률 AI 산업 발전에 기여하고자 한다. Current Korean court ruling disclosure systems inadequately balance public access and privacy regarding Artificial Intelligence (AI) owing to low disclosure rates and inefficient manual anonymization. This results in hindering AI development as well as the public’s right to information. This study proposes and evaluates a generative AI-based automatic anonymization system using fine-tuned Small Language Models (sLLMs, 7-8B scale), designed for secure operations within courts. Using actual court data, we compared the performance of fine-tuned sLLMs with that of few-shot Large Language Models (LLMs, e.g., GPT-4o). The results demonstrate that fine-tuned sLLMs achieve high accuracy and recall (F1 > 98%), compared to LLMs, proving their feasibility for safe and efficient internal automation without data leakage risks. Furthermore, we analyzed the legal liability challenges concerning potential AI anonymization errors. Reviewing the applicability of existing doctrines revealed legal uncertainties surrounding AI system failures. Fine-tuned sLLMs offer a realistic technological solution for harmonizing privacy protection and access rights. This study underscores the need for supportive legal and institutional frameworks to enhance judicial transparency and to advance the legal AI sector.
Bibliography:Korea Institute of Intellectual Property
ISSN:1975-5945
2733-8487
DOI:10.34122/jip.2025.20.2.93