“판사부터 AI로 바뀌어야 한다”는 말이 요즘 더 자주 들린다. 이유는 단순하다. 많은 시민들이 판결을 보며 “왜 이렇게 납득이 안 되지?” “왜 이렇게 편차가 크지?” “왜 이 사람은 봐주고, 저 사람은 더 세게 맞지?” 같은 감정을 느끼기 때문이다.
그렇다면 정말로 판사는 AI로 대체될 수 있을까? 그리고 그 변화는 어디까지 왔고, 앞으로 어떤 방식으로 진행될까? 마지막으로 가장 현실적인 장벽인 기득권의 저항은 어떤 형태로 나타날까?
1. 결론부터 말하면 “대체”보다 “흡수”가 먼저 온다
사람들이 상상하는 AI판사는 보통 이런 모습이다.
-
사건 기록을 모두 읽고
-
법 조문과 판례를 적용해
-
형량까지 정해서
-
인간 판사는 사라진다
하지만 현실은 다른 방향으로 간다.
가까운 미래에 가장 가능성이 높은 그림은 AI가 판사를 “대체”한다기보다, 판사의 일을 “흡수”하면서 판사의 역할을 바꿔버리는 것이다.
즉, 판사는 남아있되…
-
판결문의 상당 부분이 AI 초안으로 작성되고
-
사건 정리·요약·쟁점 추출이 AI로 끝나며
-
판사는 “결정 버튼”을 누르는 최종 승인자처럼 바뀌는 방향이다
이 변화는 이미 시작됐다.
2. “AI판사”라고 부르는 것들의 실체: 지금 어디까지 왔나?
(1) 이미 많이 쓰는 단계: 검색·요약·분류
현재 법원에서 AI가 가장 쉽게 들어가는 영역은 판결이 아니라 행정과 서면 처리다.
-
사건 분류(어떤 사건인지 자동 태깅)
-
유사 판례 추천
-
서면 요약(당사자 주장, 쟁점 정리)
-
증거자료 정리(시간순 배열, 핵심 문장 추출)
-
기일 통지, 진행 안내 같은 자동화
이 단계는 “판결”을 바꾸기보다 “속도와 효율”을 바꾼다.
하지만 사실상 여기서부터 판결의 그림이 달라진다. 왜냐하면 누가 어떤 쟁점을 먼저 보게 되는지, 어떤 판례가 추천되는지가 판단의 방향에 영향을 주기 때문이다.
(2) 그 다음 단계: 판결문·결정문 “초안 생성”
다음 단계는 문서 생산이다.
-
판결문 구조(사실관계 → 쟁점 → 법리 → 결론)는 매우 정형적이고
-
반복되는 표현이 많으며
-
사건 유형별로 템플릿이 존재한다
그래서 AI는 “문서 초안”에 매우 강하다.
판사는 초안을 검토하고 수정해 확정한다. 이 단계에서 판사는 점점 작성자에서 **감수자(편집자)**로 변한다.
(3) 가장 민감한 단계: “권고 판결(추천)” + 인간 불복 시스템
‘대체’에 가장 가까운 형태는 이거다.
-
AI가 결론(예: 벌금 얼마, 손해배상 얼마)을 권고하고
-
당사자가 원하면 인간 판사 재판으로 넘어갈 수 있게 하는 방식
이 방식은 정치권과 사법부가 심리적 저항을 덜 느끼는 형태다.
왜냐하면 명목상 최종 책임은 인간에게 남아있기 때문이다.
3. 판사가 AI로 완전 대체되기 어려운 4가지 이유
사람들은 “법은 논리니까 AI가 더 잘하겠네?”라고 생각하지만, 법의 핵심은 단순 논리가 아니다.
1) 책임 문제: 오판의 책임을 누가 지나?
인간 판사는 오판하면 비판과 감사를 받는다.
그런데 AI가 오판하면?
-
개발사가 책임질까?
-
법원이 책임질까?
-
국가가 책임질까?
-
아니면 “AI가 그랬다”로 흐릴까?
민주사회에서 책임이 흐려지는 시스템은 정당성을 확보하기 어렵다.
2) 설명 문제: “왜 그렇게 판단했는지”를 설득해야 한다
판결문은 결과만 적는 문서가 아니라 설명서다.
당사자는 “왜 내가 졌는지”를 이해해야 납득한다.
AI가 결론을 내도, 그 결론이 설명 가능한 형태로 정리되지 않으면 불신만 커진다.
3) 가치 판단 문제: 양형은 ‘계산’만이 아니다
특히 형사에서 핵심은 ‘응보 vs 교화’, ‘사회 보호 vs 개인 사정’, ‘엄벌 vs 관용’ 같은 가치 선택이다.
이건 단순히 “비슷한 사건 평균”으로 결정할 문제가 아니다.
4) 데이터 편향 문제: 과거가 불공정했다면 AI도 불공정해진다
AI는 과거 데이터를 학습한다.
만약 과거 판결이 계층·지역·성별·직업 등에 따라 무의식적 편향이 있었다면, AI는 그 편향을 “학습된 정답”으로 받아들일 수 있다.
즉 “AI는 공정할 것”이라는 기대는
데이터가 공정하다는 전제가 붙어야만 성립한다.
4. 그럼에도 AI판사가 진짜로 필요한 이유
“불공정하다”는 시민의 분노가 커진 시대에, AI가 주는 장점은 분명하다.
(1) 편차를 줄일 수 있다
같은 죄, 같은 피해, 비슷한 사정인데 결과가 확 달라지면 사람들은 납득하지 못한다.
AI는 판결의 기본선(기준선)을 일정하게 만드는 데 강하다.
(2) 속도를 올릴 수 있다
사건이 밀리면 정의는 늦어진다.
AI는 단순 사건에서 속도 혁명을 일으킬 수 있다.
(3) 판사가 더 중요한 것에 집중하게 된다
AI가 반복 작업을 가져가면 판사는
-
증언 신빙성 판단
-
피해자 보호
-
사정의 세밀한 참작
-
중대 사건의 정교한 심리
같은 “인간 판단이 필요한 영역”에 시간을 쓸 수 있다.
5. 기득권의 저항은 어떻게 나타날까?
여기서 “기득권”은 꼭 판사 개인만이 아니다.
사법 시스템 전체(법원 조직, 변호사 시장, 법학 교육, 법률 서비스 산업)가 포함된다.
저항은 대개 노골적 반대보다 우회적인 방식으로 나타난다.
1) “안전성”을 이유로 무기한 유예
“아직 위험하다” “검증이 부족하다”는 말은 반박하기 어렵다.
그래서 변화는 느려진다.
2) ‘보조’라는 이름으로만 제한
AI가 초안을 써도 “참고용”으로만 두고
실제 시스템은 기존대로 굴러가게 만드는 방식이다.
3) 책임을 떠안기 싫어서 도입 범위를 최소화
AI가 판단에 가까워질수록 책임이 따라오니
“행정 자동화 정도만 하자”는 논리로 좁혀진다.
4) 이해관계 충돌
AI가 법률 서비스 일부를 대체하면
-
변호사 업무 일부가 자동화되고
-
소액 사건은 ‘자동 해결’이 되며
-
법률 시장의 구조가 흔들린다
이때 저항은 법원뿐 아니라 관련 업계 전체에서 나온다.
6. 앞으로의 변화 시나리오: “3단계 진화”가 가장 현실적이다
1단계: 사법 행정 AI (이미 진행 중)
-
사건 분류, 서류 요약, 판례 추천, 절차 안내
-
국민 입장에선 체감이 약하지만 법원 생산성이 크게 바뀜
2단계: 판결문 초안 AI + 판사 승인 (가장 빨리 확산될 가능성)
-
단순 사건부터 적용
-
“판사 대체”가 아니라 “판사 업무 방식의 변형”
3단계: 권고 판결 AI + 인간 불복권 (논쟁 속에서 부분 도입)
-
소액·경미 사건 중심
-
“원하면 인간 재판으로”라는 안전장치로 정당성 확보
여기까지가 향후 10~20년 안에 가장 현실적인 큰 흐름이다.
완전한 “AI 단독 판결”은 일부 특수 영역(행정 과태료, 자동화된 분쟁조정 등)에서만 제한적으로 시도될 가능성이 높다.
7. AI판사가 ‘공정’을 만들려면 반드시 필요한 조건들
AI가 들어온다고 자동으로 공정해지지 않는다. 오히려 잘못 도입하면 새로운 불공정이 생긴다. 그래서 최소한 아래 조건이 필요하다.
-
설명 가능성: 왜 이런 결론이 나왔는지, 사람이 이해 가능한 방식으로 공개
-
감사(감독) 체계: 특정 집단에 불리하게 작동하지 않는지 상시 점검
-
데이터 품질 관리: 편향 데이터 제거/보정, 업데이트
-
인간의 최종 책임: 최소한 현재 단계에서는 책임이 흐려지지 않게 설계
-
불복권 보장: AI 결정에 동의하지 않으면 인간 재판으로 갈 수 있어야 함
이 장치들이 없으면, AI판사는 “공정의 엔진”이 아니라 “불신의 증폭기”가 된다.
8. 마무리: 시민이 원하는 건 “AI판사”가 아니라 “납득 가능한 정의”다
사람들이 판사를 AI로 바꾸자고 말하는 이유는
AI가 멋있어서가 아니라 지금의 판결이 납득되지 않아서다.
그래서 핵심은 이 질문이다.
-
AI가 판사를 대체하느냐 마느냐가 아니라
-
판결이 더 일관되고, 더 설명 가능하고, 더 투명해질 수 있느냐
AI는 그 도구가 될 수 있다.
다만 변화는 혁명처럼 오기보다, 조용히 ‘업무’부터 잠식해 들어오며 판사의 역할을 바꾸는 방식으로 진행될 가능성이 크다.
그리고 기득권의 저항은 “반대”보다 “지연”과 “제한”의 형태로 나타날 것이다.
결국 승부는 기술이 아니라 제도 설계(책임·설명·감사·불복권)에서 갈린다.