IT / 법률
AI 법률서비스, 합법 판결 받은 서비스에도 막히는 이유
2026년 3월, 대법원이 AI 법률서비스를 합법으로 확정했습니다. 그런데 같은 판결문에서 생성형 AI 방식은 “위법 소지가 크다”고 경고가 나왔습니다. 무엇이 허용되고 무엇이 막혔는지, 판결 원문과 실제 사례를 교차해서 정리했습니다.
대법원이 뭘 허용하고 뭘 막았는지
2026년 2월 12일, 대법원 3부(주심 오석준 대법관)는 리걸테크 플랫폼 로폼과 서울지방변호사회 간 소송에서 로폼 측 승소를 확정했습니다(사건번호 2025두35483). 결론부터 말씀드리면, 대법원이 허용한 건 “이용자가 빈칸을 채우면 알고리즘이 그대로 문서를 완성하는 방식”입니다. 수정이나 법률 검토가 개입되지 않는 구조입니다.
1심 재판부는 “이 서비스는 이용자가 입력한 내용을 검토하거나 수정하지 않고 그대로 반영한다”며 “기존 법률 서식집에서 양식을 골라 빈칸을 채우는 작업을 디지털로 편리하게 도와주는 것”이라고 판단했습니다. 변호사법이 금지하는 ‘법률사무 취급’은 구체적·개별적인 사안을 다뤄야 하는데, 표준화된 양식 제공은 여기 해당하지 않는다는 겁니다. (출처: 법률신문, 2026.03.18)
💡 공식 판결문과 실제 서비스 흐름을 같이 놓고 보니 이런 차이가 보였습니다.
과거 내용증명 한 건에 변호사가 50만~100만원을 받았습니다. 대법원 판결 이후 로폼 같은 플랫폼이 이 시장을 직접 대체할 수 있는 법적 근거가 생긴 겁니다. 비용 격차가 최소 수십 배입니다.
허용된 서비스는 내용증명, 지급명령, 계약서, 고소장 등 표준 양식 기반 문서 자동 작성입니다. 단, 이용자가 입력한 내용을 AI가 해석하거나 상황에 맞게 재구성하면 다른 판단이 나옵니다. 그게 이 판결의 핵심 경계선입니다.
같은 회사 안에 합법과 위법이 공존하는 구조
이번 판결을 “AI 법률서비스 전면 허용”으로 이해하면 절반은 틀립니다. 대법원은 로폼의 자동작성 서비스는 합법으로 봤지만, 같은 회사의 다른 서비스 두 가지에 대해서는 위법 소지가 있다고 명시했습니다.
| 서비스 유형 | 법원 판단 | 이유 |
|---|---|---|
| 표준 양식 자동완성 (무료) | ✅ 합법 | 입력값을 수정 없이 채우는 보조 작업 |
| 제휴 변호사 검토·직인 서비스 (유료) | ⚠️ 위법 소지 | 개별 사실관계 검토·수정 → 법률사무 취급 해당 |
| 생성형 AI 기반 문서 작성 | ⚠️ 위법 소지 | 텍스트 분석·문서 선택이 “법률사무 취급”에 해당 |
재판부는 “이용자가 텍스트로 자신의 상황을 설명하면 생성형 AI가 연관 문서를 선택·작성해 주는 방식은 단순 문서 양식의 디지털화를 넘어 법률사무 취급에 해당한다고 보기에 충분하다”고 직접 밝혔습니다. (출처: 조선일보, 2026.03.18) 다시 말해, 현재 가장 많이 쓰이는 방식인 “내 상황을 설명하면 AI가 알아서 문서를 만들어줘” 형태는 아직 법의 경계 바깥에 있습니다.
생성형 AI가 만든 가짜 판례, 실제 사건에서 쓰였다
대법원이 생성형 AI를 우려한 건 근거가 있습니다. 2025년 12월, 울산지방노동위원회 부당해고 구제심판 과정에서 공인 노무사가 AI로 작성한 답변서를 제출했습니다. 그런데 답변서에 인용된 법원 판례 10건의 원문을 아무도 찾을 수 없었습니다.
실제 확인 결과 (울산MBC, 2025.12.04)
법원행정처 담당자: “이거 없는 사건인데, 혹시 챗GPT나 이런 거 활용해서 신청하신 건가요? 다 없는 사건이에요.”
당사자가 지적하기 전까지 지노위도 판례가 가짜인지 몰랐습니다. 가짜 판례가 그대로 사건 판단에 영향을 줄 수 있었다는 뜻입니다.
같은 시기 경기 용인동부경찰서에서도 챗GPT를 활용한 불송치 결정문에 존재하지 않는 법리를 인용한 사실이 드러나 경찰청 국정감사에서 질타를 받았습니다. AI가 만들어낸 그럴듯한 문서가 전문가의 검증 없이 공식 절차에 제출된 겁니다.
생성형 AI의 ‘할루시네이션(환각)’ 문제는 법률 분야에서 특히 치명적입니다. 의학 정보의 오류는 직접 확인할 수 있지만, 존재하지 않는 판례 번호는 당사자가 일일이 검색하기 전까지는 가짜인지 알기 어렵습니다. AI가 법률 답변을 자신 있게 틀리는 이유가 여기 있습니다.
변협 광고규칙이 국민을 더 위험한 곳으로 민 역설
대법원이 로폼 서비스를 합법으로 확정했지만, 변호사가 직접 AI를 활용해 법률서비스를 제공하는 길은 여전히 막혀 있습니다. 대한변호사협회(변협)가 2024년 10월 제정한 ‘변호사의 광고에 관한 규칙’이 그 이유입니다.
💡 규제와 실제 사용 흐름을 같이 놓고 보면 이런 모순이 드러납니다.
이 규칙은 변호사가 일반 국민을 대상으로 AI 프로그램을 직접 사용하게 하거나 연결하는 방식의 서비스를 제공하는 것을 금지하고 있습니다. 위반하면 자격정지 등 중대 징계 대상이 됩니다. (출처: 전자신문, 2026.04.01)
결과는 예상 밖으로 흘렀습니다. 변호사가 책임지는 AI 법률서비스가 막히자, 국민은 검증도 책임자도 없는 범용 AI(챗GPT 등)에 법률 문제를 묻는 방향으로 이동했습니다. 최이선 한국인공지능협회 정책위원 변호사는 “검증된 국내 리걸테크를 규제로 묶어둔 사이 국민이 ‘환각 리스크’가 큰 범용 AI에 법률 자문을 하고 있다”고 직접 언급했습니다. (출처: 한국경제, 2026.03.18)
규제가 보호하려 했던 방향과 실제 결과가 정반대로 작동하고 있습니다. 변호사가 AI를 쓰지 못하도록 막을수록, 국민은 아무 책임도 지지 않는 AI를 쓰게 됩니다. 전자신문의 이재원 넥서스AI 대표 기고문도 같은 지적을 담았습니다. “변협이 스스로 광고규칙을 개정하지 않으면 변호사법 개정도 검토해야 한다”는 목소리가 법조계 안에서 나오고 있습니다.
법원은 이미 대응에 들어갔습니다
가짜 판례 제출 사건이 잇따르자 법원행정처는 2025년 11월부터 2026년 3월까지 ‘AI 활용 허위 주장·증거 제출 대응 TF’를 운영했습니다. 법관 8명, 변호사 2명 등 총 10명으로 구성된 이 TF의 결론은 실질적입니다. (출처: 한국경제, 2026.03.31)
- 가짜 AI 법령·판례로 소송비용이 발생하면 해당 비용 전부를 당사자에게 부담시킬 수 있습니다.
- 허위 자료를 제출한 변호사는 변협 징계 의뢰 대상이 됩니다.
- 민사소송규칙 개정으로 AI 활용 사실을 법원에 고지하도록 할 예정입니다.
- 과태료 부과가 가능하도록 소송법 개정안도 제안됐습니다.
법원행정처는 이미 사법정보공개포털에 ‘허위 사건번호 확인’ 기능을 추가해 운영 중입니다. AI가 만든 가짜 판례를 제출하면 상대방이 바로 검증할 수 있는 공식 도구가 생겼다는 뜻입니다.
글로벌 수치도 방향을 보여줍니다. FTI컨설팅 조사에 따르면 법무팀에서 생성형 AI를 활용하는 글로벌 기업 비중은 2025년 44%에서 2026년 87%로 두 배 가까이 늘었습니다. (출처: 한국경제, 2026.03.18) 도입은 피할 수 없고, 검증 체계만 빠르게 따라붙고 있습니다.
AI 법률서비스, 지금 쓸 수 있는 것과 조심할 것
판결 기준으로 정리하면 지금 쓸 수 있는 AI 법률서비스와 조심해야 할 방식이 비교적 선명하게 나뉩니다.
✅ 지금 쓸 수 있는 것
로폼처럼 표준 양식을 기반으로 이용자가 빈칸을 채우는 방식의 서비스는 대법원이 합법으로 확정했습니다. 내용증명, 지급명령 신청, 계약서 기초 작성이 여기 해당합니다. 비용은 사실상 무료에 가깝고, 변호사가 50만~100만원을 받았던 서비스를 대체합니다. 단, 완성된 문서의 법적 효력은 여전히 본인 책임입니다.
⚠️ 조심해야 할 방식
챗GPT나 범용 생성형 AI에 “내 상황을 설명하면 소장을 써줘” 형태로 활용하는 방식입니다. 법원은 이런 방식을 생성형 AI 서비스로 분류하고 위법 소지를 경고했습니다. 더 심각한 문제는 할루시네이션입니다. 존재하지 않는 판례를 그럴듯하게 생성해내는 건 생성형 AI의 구조적 한계이며, 이를 검증 없이 사용하면 소송비용 부담과 징계까지 연결될 수 있습니다.
직접 계산해볼 수 있는 수치
노무사 할루시네이션 사례에서 인용된 판례 10건 중 실존하는 판례는 0건이었습니다. (출처: 울산MBC, 2025.12.04)
가짜 판례 비율 100%. 전문가가 검증 없이 제출해도 지노위가 걸러내지 못했습니다. 일반인이 직접 쓴다면 더 위험합니다.
변호사 76%가 법률 검색·조사에서 리걸테크 도입이 시급하다고 답했습니다. (출처: 한국형사·법무정책연구원 2024년 조사, 변호사 283명 포함 707명 대상) 전문가 집단도 AI 법률서비스의 필요성을 인정하고 있지만, 검증 없이 쓰는 것과 제대로 쓰는 것은 결과가 완전히 다릅니다.
자주 묻는 질문
Q. 로폼으로 만든 내용증명, 실제로 법적 효력이 있나요?
내용증명 자체는 법적 강제력이 없습니다. “이런 내용을 발송했다”는 사실을 증명하는 문서입니다. 실제 법적 효력은 이후 소송이나 지급명령 신청을 통해 발생합니다. 로폼 서비스의 합법성과 내용증명의 법적 효력은 별개입니다.
Q. 챗GPT로 소장을 쓰면 무조건 위법인가요?
일반인이 개인적으로 챗GPT를 활용해 소장 초안을 작성하는 건 변호사법 위반이 아닙니다. 문제는 전문가(변호사, 노무사 등)가 AI가 생성한 내용을 검증 없이 공식 절차에 제출할 때입니다. 2026년 3월 법원행정처 TF는 이 경우 소송비용 부담·징계를 제안했습니다.
Q. AI 기본법이 시행됐는데 리걸테크 서비스에 뭐가 달라졌나요?
2026년 1월 22일 시행된 AI 기본법은 고영향 AI 사업자의 위험 평가 의무, 투명성 확보 의무 등을 담고 있습니다. 그러나 리걸테크 서비스에 대한 구체적 허용·금지 기준은 여전히 변호사법·변협 광고규칙의 적용을 받습니다. AI 기본법 시행만으로 기존 규제가 사라지는 건 아닙니다.
Q. 가짜 판례를 AI가 만들었는지 어떻게 확인하나요?
법원행정처가 사법정보공개포털에 ‘허위 사건번호 확인’ 기능을 추가했습니다(2026년 2월 이후). 판례 사건번호를 입력하면 존재 여부를 직접 확인할 수 있습니다. 대한법률구조공단 법률 검색 시스템(www.klac.or.kr)이나 국가법령정보센터(www.law.go.kr)에서도 판례 원문을 검색할 수 있습니다.
Q. 로톡 같은 변호사 소개 플랫폼은 이번 판결로 어떻게 되나요?
이번 판결은 로폼의 문서 자동작성 서비스에 한정됩니다. 로톡의 변호사 소개·연결(알선) 서비스는 별도 판단 대상입니다. 다만 대법원이 로폼에 유리한 판단을 내리면서 같은 규제에 시달리던 로톡·로앤굿 등 다른 리걸테크에도 간접적으로 숨통이 트인다는 분석이 나오고 있습니다.
마치며
대법원 판결을 “AI 법률서비스 전면 허용”으로 읽는 건 판결문을 절반만 본 겁니다. 허용된 건 “빈칸 채우기”이고, 막힌 건 “AI가 판단하는 것”입니다. 그 경계선이 지금 리걸테크 시장 전체를 가르고 있습니다.
솔직히 말하면, 지금 가장 위험한 사용 방식은 “AI가 다 해줄 것”이라는 믿음입니다. 노무사 사례처럼 전문가도 할루시네이션에 걸렸고, 지노위도 걸러내지 못했습니다. 범용 AI를 아무 검증 없이 쓰다 가짜 판례를 제출하면, 앞으로는 소송비용 전액을 본인이 떠안아야 할 수 있습니다.
변협 광고규칙 개정 논의가 진행 중이고, 법무부도 법제 정비를 연구 중입니다. 제도가 따라붙는 속도를 고려하면 지금은 공식 허용된 서비스 범위 안에서 쓰고, 판례나 법리가 포함된 내용은 반드시 직접 검증하는 게 맞습니다.

댓글 남기기