AI 기본법 고영향 AI, 5가지 직접 확인했습니다

Published on

in

AI 기본법 고영향 AI, 5가지 직접 확인했습니다

2026.03.22 기준
AI 기본법 시행령 2026.01.22 기준

AI 기본법 고영향 AI,
5가지 직접 확인했습니다

“AI 기본법 시행됐으니 우리 서비스도 다 걸리겠지”라고 생각했다면, 이 글이 그 판단을 바꿔줄 수 있습니다. 과기정통부 공식 가이드라인, 법무법인 세종 원문, BBC 현장 보도를 교차해서 읽어봤더니 실제 규제 범위는 대부분이 생각하는 것과 많이 달랐습니다.

11개
고영향 AI 적용 분야
3,000만원
위반 시 최대 과태료
1년 이상
규제 계도 기간

고영향 AI, 실제로 해당되는 게 얼마나 될까요

AI 기본법 고영향 AI를 다룬 블로그 대부분이 “11개 분야에 해당하면 무조건 규제 대상”이라고 설명합니다. 그런데 과기정통부가 법 시행 당일 공식 입장에서 밝힌 내용은 조금 다릅니다. 현재 상용화된 기술 중 고영향 AI 기준을 충족하는 구체적 사례로 정부가 공식 제시한 건 “레벨4 이상 완전 자율주행”이 사실상 유일합니다. (출처: 과기정통부 보도자료, 2026.01.22)

분야만 보면 채용·대출·의료·교통 등 광범위하게 걸리는 것처럼 보이지만, 같은 분야에서도 사람의 실질적인 검토·개입이 있으면 고영향 AI에서 제외될 수 있다는 조건이 붙습니다. 지금 국내에서 서비스 중인 AI 채용 툴이나 대출 심사 보조 시스템 상당수가 이 조건에 걸리지 않을 가능성이 높습니다.

고성능 AI 안전성 의무 쪽은 더 명확합니다. 학습 누적 연산량 10의 26승 FLOPs 이상이라는 기준을 충족하는 국내 모델은 현재 없고, 전 세계적으로도 3개 안팎에 그친다고 서울여대 김명주 AI안전연구소장이 BBC 인터뷰에서 직접 밝혔습니다. (출처: BBC 코리아, 2026.01.22)

▲ 목차로 돌아가기

2단계 판단 구조 — 분야만으론 충분하지 않습니다

1단계: 어느 분야에서 작동하는가

법률 제2조 제4호가 정하는 11개 영역을 먼저 확인해야 합니다. 에너지(전력·가스), 먹는물, 보건의료, 의료기기, 원자력, 범죄수사 생체인식, 채용·대출심사, 교통, 공공서비스 의사결정, 유아·초중등 학생 평가, 그리고 대통령령으로 정하는 추가 영역입니다. 이 중 하나에 해당하는지가 1차 관문입니다. (출처: 인공지능기본법 제2조 제4호, 2026.01.22 시행)

2단계: 실제로 중대한 영향이 있고, 사람이 개입하지 않는가

1단계를 통과해도 2단계에서 걸러질 수 있습니다. 생명·신체 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있어야 하고, 동시에 AI가 사람의 실질적인 검토 없이 전적으로 결정을 내리는 구조여야 합니다. Tech42가 공개한 과기정통부 가이드라인 해설을 보면, 채용 시스템도 최종 판단을 사람이 충분히 검토·확인하면 고영향 AI에서 제외될 수 있다고 나와 있습니다. (출처: Tech42 AI 기본법 가이드라인 톺아보기④, 2026.03.04)

💡 공식 가이드라인과 실제 서비스를 나란히 놓고 보면 이런 차이가 보였습니다
서비스 기획 단계에서 “사람 개입 구조를 문서화할 수 있는가”가 핵심 판단 기준으로 기능합니다. 단순히 분야만 보고 고영향 AI로 자가진단하면 불필요한 규제 부담을 떠안을 수 있고, 반대로 너무 느슨하게 보면 2단계에서 예상치 못한 지적을 받을 수 있습니다.

▲ 목차로 돌아가기

사업자별로 달라지는 의무 5가지

AI 기본법은 사업자 유형과 서비스 종류에 따라 의무가 달리 적용됩니다. 무조건 모든 기업이 같은 부담을 지는 구조가 아닙니다. 법무법인 세종 원문을 기준으로 정리했습니다. (출처: 법무법인 세종 AI 기본법 시사점, 2026.01.22)

의무 항목 생성형 AI 고영향 AI 고성능 AI
(10²⁶ FLOPs↑)
AI 운용 사전 고지 필수 필수
결과물 AI 생성 표시 필수
딥페이크 명시적 고지 필수
위험관리방안·이용자보호·인간감독 체계 (5년 문서 보관) 필수
수명주기 위험관리 보고서 과기정통부 제출 필수

※ ChatGPT API로 챗봇 서비스를 제공하면 “생성형 인공지능 이용사업자”로 사전 고지·표시 의무가 적용됩니다. 서비스를 직접 개발하지 않아도 해당됩니다.

▲ 목차로 돌아가기

계도기간 1년, 생각보다 좁습니다

과기정통부는 법 시행일(2026년 1월 22일)부터 최소 1년 이상 과태료와 사실조사를 유예하겠다고 공식 발표했습니다. 많은 기업이 이를 “1년은 신경 쓰지 않아도 된다”로 해석하는데, 정확하지 않습니다.

법적 의무는 2026년 1월 22일부터 이미 발생했습니다. 계도기간 동안 과태료 부과는 없지만, 인명사고·인권 훼손 등 중대한 사회적 문제가 발생한 경우에는 사실조사가 즉시 시작될 수 있습니다. (출처: 과기정통부 추가 설명자료·보도자료, 2026.01.22)

ZDNet이 시행 당일 취재한 내용을 보면, 업계 관계자들은 “생성형 AI 워터마크가 이용자에 의해 삭제되거나 훼손될 경우 책임 소재가 불분명하다”는 점을 가장 큰 불안 요소로 꼽았습니다. 법은 서비스 제공 단계까지만 의무를 부여하고, 이용 단계에서 발생하는 훼손에 대한 처벌 규정이 아직 없기 때문입니다. (출처: ZDNet Korea, 2026.01.22)

실무에서는 계도기간을 “준비 기간”으로 활용해야 한다는 게 법조계 중론입니다. 특히 고영향 AI 해당 여부 사전 확인 신청(접수 후 원칙 30일, 최대 60일 내 통보)을 지금 진행해두면, 서비스 출시 이후 불필요한 리스크를 줄일 수 있습니다.

▲ 목차로 돌아가기

해외 빅테크와의 역차별 구조

AI 기본법은 해외 기업에도 국내 대리인 지정을 의무화했습니다. 조건은 세 가지 중 하나입니다. 전년도 글로벌 매출 1조원 이상이거나, 국내 AI 서비스 매출 100억원 이상이거나, 직전 3개월간 국내 일평균 이용자 100만명 이상입니다. (출처: 인공지능기본법 제36조, 시행령 제29조)

💡 국내 대리인 조건은 OpenAI·Google·Anthropic 같은 빅테크를 겨냥하고 있습니다. 문제는 대리인이 실질적인 법적 책임자가 아니라 본사와의 소통 창구 역할에 그친다는 점입니다.

조선일보와 연합뉴스 보도를 보면, 국내 기업은 법 위반 시 바로 제재 대상이 되지만 해외 기업은 대리인 지정 의무만 있고 실질적인 집행이 어렵다는 점이 명시적으로 지적됐습니다. 과기정통부도 “집행 가능성에 한계가 있다”는 사실을 공개적으로 인정한 상태입니다. 국내 기업이 같은 서비스를 운영할 때 더 큰 규제 부담을 지게 될 수 있는 구조입니다.

이 문제가 의미하는 건 단순히 “불공평하다”는 수준을 넘어섭니다. 국내 AI 스타트업이 글로벌 빅테크와 경쟁할 때 규제 비용만큼 불리한 출발선에 서게 된다는 점에서, AI 기본법의 “산업 진흥” 목적과 정면으로 충돌하는 구조적 문제로 볼 수 있습니다.

▲ 목차로 돌아가기

EU AI Act와 비교해보면 이게 보입니다

한국 AI 기본법이 “세계 최초 전면 시행”이라는 타이틀을 갖게 된 건 EU AI Act의 핵심 규제 조항 시행이 2026년 8월부터이기 때문입니다. 제정 자체는 EU가 먼저입니다. 두 법을 나란히 놓으면 성격 차이가 뚜렷하게 드러납니다.

비교 항목 한국 AI 기본법 EU AI Act
규제 철학 진흥 중심·자율규제 안전 중심·사전 규제
위험 분류 고영향 / 생성형 / 고성능 4단계(허용불가~저위험)
최대 제재 3,000만원 전 세계 매출 7% 또는 3,500만 유로
사전 적합성 평가 자율 확인 (권고 중심) 의무 적합성 평가
완전 금지 AI 규정 없음 사회신용 시스템 등 명시적 금지

한국 AI 기본법에 “완전 금지 AI”에 대한 규정이 없다는 점은 시민단체들이 공개적으로 지적한 부분입니다. 예를 들어 공공장소 실시간 얼굴 인식 감시 AI를 운영해도 현행법으로는 명시적 금지 조항이 없습니다. (출처: 민변 디지털정보위 공동성명, 2026.01.22)

▲ 목차로 돌아가기

자주 나오는 질문 5가지

Q1. ChatGPT API로 챗봇 서비스를 만들었습니다. 저도 의무 대상인가요?

네, 해당됩니다. ChatGPT API를 이용해 이용자에게 서비스를 제공하면 “생성형 인공지능 이용사업자”로 분류됩니다. AI 기반 서비스라는 사실을 이용자에게 사전 고지해야 하고, AI가 생성한 결과물임을 표시해야 합니다. AI를 직접 개발하지 않아도 서비스를 제공하는 순간 의무가 발생합니다.
Q2. 채용 AI를 쓰는데 무조건 고영향 AI인가요?

반드시 그렇지는 않습니다. 과기정통부 가이드라인에 따르면, 최종 채용 여부를 사람이 실질적으로 검토·확인하면 고영향 AI에서 제외될 수 있습니다. 핵심은 “AI가 전적으로 결정하느냐”입니다. 이력서 1차 스크리닝처럼 보조 도구로 쓰고 사람이 판단하면 해당 가능성이 낮습니다. 다만 이를 문서로 입증할 수 있어야 합니다.
Q3. 계도기간 1년 동안은 아무것도 안 해도 되나요?

그렇지 않습니다. 과태료 부과와 사실조사가 유예되는 것이지, 법적 의무는 2026년 1월 22일부터 이미 발생했습니다. 인명사고·인권 침해 등 중대한 문제가 발생하면 계도기간 중에도 사실조사가 즉시 시작됩니다. 계도기간은 준비 시간이지 면죄부가 아닙니다.
Q4. 딥페이크 결과물 표시와 일반 AI 생성물 표시가 다른가요?

다릅니다. 일반 AI 생성물은 워터마크처럼 기계가 판독하는 방식도 허용됩니다. 그런데 딥페이크처럼 실제와 구분하기 어려운 가상 음성·이미지·영상은 이용자가 육안이나 청각으로 명확하게 인식할 수 있는 방식으로만 고지해야 합니다. 시행령 개정으로 기계 판독 방식만으로는 딥페이크에 적용이 안 되도록 강화됐습니다.
Q5. 고영향 AI 해당 여부를 스스로 판단하기 어려운데 어떻게 하나요?

과기정통부에 공식 확인 요청을 낼 수 있습니다. 서비스 개요서 등 관련 서류를 첨부해 신청하면 원칙적으로 30일 이내, 복잡한 경우 최대 60일 이내에 결과를 통보받습니다. 결과에 이의가 있으면 회신일로부터 10일 이내에 재확인 요청이 가능합니다. AI 기본법 지원데스크(080-850-2546)에서 사전 상담도 받을 수 있습니다.

▲ 목차로 돌아가기

마치며 — AI 기본법 총평

AI 기본법을 직접 파보고 나서 가장 크게 바뀐 생각은 두 가지입니다. 하나는 “생각보다 규제가 약하다”는 것이고, 다른 하나는 “그래서 오히려 더 주의해야 한다”는 겁니다.

고성능 AI 안전 의무는 현재 기준을 충족하는 모델이 전 세계에 없고, 고영향 AI도 실제 해당 사례가 레벨4 자율주행 수준으로 제한적입니다. 그럼에도 생성형 AI 서비스를 운영하는 거의 모든 기업은 사전 고지와 결과물 표시 의무에서 자유롭지 않습니다. 이 의무를 형식적으로 처리했다가 계도기간 종료 후 갑자기 지적받는 사례가 나올 수 있다는 게 솔직한 예상입니다.

해외 빅테크 역차별 문제와 워터마크 삭제 책임 공백은 정부도 인정한 현안입니다. 가이드라인이 추가로 나오거나 법 개정이 이루어질 때마다 이 글도 함께 살펴볼 필요가 있습니다.

📌 본 포스팅 참고 자료

  1. 대한민국 정책브리핑 — AI 기본법 시행 공식 안내 (https://www.korea.kr/news/policyNewsView.do?newsId=148958460)
  2. 법무법인 세종 — AI 기본법 시행과 그 시사점 (https://www.shinkim.com/kor/media/newsletter/3114)
  3. Tech42 — 고영향 AI 가이드라인 톺아보기④ (https://www.tech42.co.kr/…)
  4. BBC 코리아 — 세계 첫 전면 시행 인공지능기본법 (https://www.bbc.com/korean/articles/cy4qqklnl99o)
  5. ZDNet Korea — 규제 의무 핵심 시행일 현장 보도 (https://zdnet.co.kr/view/?no=20260122100919)
  6. 인공지능기본법 제2조·제31조~제36조, 시행령 제22~29조 (2026.01.22 시행)

본 포스팅은 2026년 03월 22일 기준으로 작성되었으며, 공개된 공식 자료를 바탕으로 정리했습니다.
AI 기본법 시행령·고시·가이드라인은 지속적으로 보완·개정될 수 있습니다.
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있으며, 구체적인 법적 판단은 전문가와 상담하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기