본문 바로가기
메뉴
뉴스레터

인공지능기본법 시행령 초안 발표

2025.09.10

국가인공지능전략위원회 출범, 대한민국 AI 액션플랜 및 국가 AI 컴퓨팅 센터 추진 방안 발표 
 

과학기술정보통신부(이하 “과기정통부”)는 2025. 9. 8. 국가인공지능전략위원회 공식 출범과 함께 2026.1. 22. 시행 예정인 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 “인공지능기본법” 또는 “법”)의 시행령 초안(이하 “시행령”)을 공개하였습니다.
 
시행령은 인공지능산업 육성을 위한 지원 대상 및 기준, 인공지능사업자에게 부과되는 투명성·안전성 확보 의무의 이행 방식·예외 등 인공지능기본법이 시행령에 위임하고 있는 기준·절차 등을 규정하고 있습니다. 특히, ① 생성형·고영향 인공지능 사업자에게 부과되는 투명성 확보 의무의 이행 방법, ② 고성능 인공지능의 기준, ③ 고영향 인공지능 해당 여부에 대한 판단 기준과, 관련 의무의 이행 방안, ④ 국내대리인 지정의무 범위 등 관련 사업자들에게 영향을 미칠 수 있는 내용을 다수 규정하고 있어 주목할 필요가 있습니다.
 
과기정통부는 시행령 초안에 대해 9월 중 산업계, 학계, 시민단체 및 관계 부처 등 다양한 이해관계자로부터 의견을 수렴하고, 이후 10월 중 입법예고 절차를 거쳐 연내 시행령 제정을 마무리할 계획입니다. 아울러, 세부사항을 담은 고시·가이드라인[1] 초안 역시 보도자료에 따르면 12월까지 공개될 예정이므로, 관련 동향에 대한 지속적인 모니터링 역시 필요해 보입니다.
 
시행령의 주요 내용과 시사점은 아래와 같습니다.
 

1.

투명성 확보 의무

인공지능기본법은 생성형·고영향 인공지능 이용자에 대한 사전고지의무, 생성형 인공지능 이용자에 대한 표시의무 등을 부과하고 있는데(이하 “투명성 확보 의무”), 시행령은 투명성 확보 의무의 이행 방법과 예외를 규정하였습니다. 다만, 보다 구체적인 이행 방법과 예시의 경우 향후 공개될 ‘AI 투명성 확보 가이드라인’을 통해서 제시될 것으로 생각됩니다.
 

고영향·생성형 인공지능의 사전고지의무(법 제31조 제1항, 시행령 제22조 제1항)

인공지능기본법은 고영향·생성형 인공지능 이용자에게 해당 서비스가 인공지능에 기반하여 운용된다는 사실을 사전에 고지하도록 하고 있는데, 시행령은 제품 등에 직접 기재하는 방법 외에도 계약서, 사용설명서, 이용약관 등에 기재하거나 이용자 화면 또는 단말기 등에 표시하는 방법, 제품 등을 제공하는 장소에 인식하기 쉬운 방법으로 게시하는 방식 중 어느 하나의 방법을 활용하여 사전고지의무를 이행할 수 있도록 허용하고 있습니다.
 

생성형 인공지능의 표시의무(법 제31조 제2항, 시행령 제22조 제2항)

생성형 인공지능의 경우 이용자에게 그 결과물이 생성형 인공지능에 의하여 생성되었다는 사실을 표시하여야 하는데, 시행령은 ‘사람 또는 기계가 판독할 수 있는 형식’으로 표시를 할 수 있다고 규정하여, 사람이 인식하기는 어렵지만 기계가 판독할 수 있는 이른바 비가시적인 워터마크를 활용할 수 있도록 허용하고 있습니다.
 

‘딥페이크’의 고지 또는 표시의무(법 제31조 제3항, 시행령 제22조 제3항)

‘딥페이크’(인공지능시스템을 이용하여 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등의 결과물)의 경우 해당 결과물이 인공지능시스템에 의하여 생성되었다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하여야 하는데, 시행령은 인공지능사업자가 (1) 이용자가 시각, 청각 등을 통하거나 소프트웨어 등을 이용하여 쉽게 내용을 확인할 수 있는 방법으로, 그리고 (2) 주된 이용자의 연령, 신체적·사회적 조건 등을 고려하여 고지 또는 표시하도록 관련 기준을 제시하였습니다.
 

투명성 확보 의무의 예외(법 제31조 제4항, 시행령 제22조 제4항)

시행령은 (1) 제품·서비스명, 이용자 화면이나 제품 겉면에 표시된 문구 등을 고려할 때 고영향·생성형 인공지능 기반 운용 사실이 명백한 경우, (2) 사업자 내부 업무 용도로만 사용되는 경우에는 투명성 확보 의무가 요구되지 않음을 명시하였습니다. 또한 과기정통부 장관이 하위 고시를 통하여 제품 등의 유형·특성이나 결과물의 내용, 이용형태 및 기술 수준 등을 고려하여 투명성 확보 의무의 전부 또는 일부에 대한 적용을 배제할 수 있도록 위임 규정을 마련하였습니다.
 

2.

‘고성능’ 인공지능의 안전성 확보 의무(법 제32조, 시행령 제23조)

시행령은 안전성 확보 의무가 부과되는 소위 ‘고성능’ 인공지능시스템을, 10의 26승 부동소수점 연산(FLOP) 이상인 시스템 중에서 과기정통부 장관이 그 인공지능의 발전 수준, 위험도 등을 고려하여 하위 고시를 통하여 마련한 구체적인 기준에 부합하는 인공지능시스템으로 명시하였습니다.
 

3.

고영향 인공지능의 확인(법 제33조, 시행령 제24조)

인공지능기본법에 따르면 인공지능사업자는 과기정통부 장관에게 고영향 인공지능 해당 여부의 확인을 요청할 수 있는데, 시행령은 이 경우 (1) 인공지능이 활용되는 영역과 (2) 사람의 생명, 신체의 안전 및 기본권에 초래할 수 있는 위험의 영향, 중대성, 빈도 및 활용 영역별 특수성, (3) 사업자의 고영향 인공지능 해당 여부에 대한 사전검토 결과 및 (4) ‘고영향 인공지능 전문위원회(시행령 제25조에 근거하여 설치, 과기정통부 장관이 위원 위촉)’의 자문결과 등을 고려하도록 규정하였습니다. 또한 과기정통부 장관은 추가적으로 고려될 수 있는 사항들을 하위법령을 통하여 규정할 수 있습니다.
 

4.

고영향 인공지능의 안전성·신뢰성 확보의무(법 제34조, 시행령 제26조)

고영향 인공지능의 경우 안전성과 신뢰성을 확보하기 위해 법에 규정된 일정한 조치[2]를 수립 및 시행할 의무가 부과되는데, 시행령은 더 나아가 (1) 위험관리방안의 주요 내용, (2) 인공지능 및 그 학습용데이터 등에 대한 설명 방안의 주요 내용, (3) 이용자 보호 방안, (4) 고영향 인공지능을 관리·감독하는 사람의 성명 및 연락처를 인공지능사업자의 홈페이지 등에 게시하도록 규정하였습니다(다만 영업비밀에 해당하는 사항은 제외할 수 있습니다). 또한 관련 사업자는 이와 같은 안전성·신뢰성 확보의무를 이행하였다는 근거를 문서로 5년간 보관해야 합니다.
 
인공지능이용사업자는 인공지능개발사업자에게 관련 의무 이행에 필요한 자료의 제공을 요청할 수 있고, 인공지능개발사업자는 이에 협력하도록 노력할 의무가 있습니다.
 

5.

고영향 인공지능 영향평가(법 제35조, 시행령 제27조)

인공지능기본법에 따르면 인공지능사업자는 고영향 인공지능을 이용한 제품 또는 서비스를 제공하는 경우 영향평가를 하기 위하여 노력할 의무가 있는데, 시행령은 영향평가가 포함해야 하는 사항을 아래와 같이 구체화하고 있고, 과기정통부 장관이 추가적으로 영향평가의 내용, 방법을 수립하여 보급할 수 있도록 정하였습니다.
 

  • 해당 고영향 인공지능을 이용한 제품 또는 서비스에 의하여 기본권에 영향 받을 수 있는 가능성이 있는 대상의 식별

  • 해당 고영향 인공지능과 관련하여 영향을 받을 수 있는 기본권 유형의 식별

  • 해당 고영향 인공지능으로 인하여 발생할 수 있는 사람의 기본권에 대한 사회적·경제적 영향의 내용 및 범위

  • 해당 고영향 인공지능의 사용 행태

  • 영향평가에서 활용한 정량적 또는 정성적 평가지표 및 결과산출 방식

  • 해당 고영향 인공지능으로 인한 위험의 예방, 손실의 복구 등

  • 영향평가의 결과, 개선이 필요한 경우 그 이행 계획에 관한 사항
     

6.

국내대리인 지정 사업자의 기준(법 제36조, 시행령 제28조)

국내에 주소 또는 영업소가 없는 인공지능사업자는 국내대리인을 서면으로 지정하고 과기정통부 장관에게 신고해야 하는데, 시행령은 국내대리인을 지정해야 하는 사업자의 대상을 아래 각 호의 어느 하나에 해당하는 자로 규정하였습니다.
 

  • 전(사업)년도 매출액이 1조원 이상인 자

  • 인공지능서비스 부문 전(사업)년도 매출액이 100억원 이상인 자

  • 전년도 말 기준 직전 3개월 간 국내 이용자 수가 일일 평균 100만명 이상인 자

  • 인공지능기본법을 위반하여 인공지능서비스 이용의 안전성을 현저히 해치는 사건·사고가 발생하였거나 발생할 가능성이 있는 경우로서 과기정통부 장관으로부터 관계 물품·서류 등을 제출하도록 요구받은 자
     

7.

사실조사(법 제40조, 시행령 제31조) 미실시 근거 규정 및 과태료 계도기간 도입

과기정통부 장관은 일정한 의무 위반의 경우 사실조사를 통해 중지·시정명령을 할 수 있는데, 시행령은 (1) 위반 사항 또는 혐의에 대하여 충분한 자료나 증거가 이미 확보되어 있는 경우 및 (2) 신고나 민원이 민원인의 사적이익을 위하여 제기된 경우나 공무를 방해하기 위하여 제기된 경우 등 목적이 정당하지 않은 것으로 판단되는 경우에는 사실조사를 실시하지 않을 수 있도록 허용하고 있습니다.
 
한편, 과기정통부는 보도자료를 통해 인공지능기본법 시행 초기에 기업들의 혼란을 최소화할 수 있도록 ‘과태료 계도기간’ 운영을 추진하겠다고 밝혔습니다. 다만 구체적인 계도기간은 이해관계자 의견수렴을 거쳐 추후 확정될 예정으로, 지속적인 모니터링이 필요할 것으로 생각됩니다.
 

8.

맺음말: 국가인공지능전략위원회 출범, 대한민국 AI 액션플랜 및 국가 AI컴퓨팅 센터

이번 발표에서는 시행령 공개 이외에도, (1) 대통령 직속 국가인공지능전략위원회 출범 및 (2) 대한민국 AI액션플랜 추진방안 및 (3) 국가 AI컴퓨팅 센터 추진 방안도 발표 및 공개되었습니다.
 
우선 인공지능기본법은 인공지능 발전 등 주요 정책 등에 관한 사항을 심의·의결하기 위하여 대통령 소속으로 “국가인공지능위원회”를 두도록 규정하고 있으나, 과기정통부는 그 명칭을 “국가인공지능전략위원회”로 변경하고 그 기능을 강화하기 위하여 인공지능기본법을 개정하며, 구체적인 내용을 시행령에 반영하겠다고 밝혔습니다. 구체적으로 국가인공지능전략위원회의 기능에 부처간 정책 조정, 이행점검, 성과관리를 추가할 계획이며, 최고인공지능책임자(CAIO) 및 CAIO협의회 운영의 근거 또한 마련할 예정이라고 밝혔습니다.
 
나아가, 국가인공지능전략위원회 제1차 전체회의에서는 인공지능기본법 시행령 등 하위법령 제정방향 이외에도 ‘대한민국 AI액션플랜 추진방안’, ‘AI고속도로 구축을 위한 국가 AI컴퓨팅 센터 추진 방안(안)’ 및 ‘국가인공지능전략위원회 운영세칙 제정안’ 도 보고 및 의결되었습니다.
 
특히 국가 AI컴퓨팅 센터 관련하여 정부는 민간 투자를 촉발하고, 민간의 전문성을 활용하기 위해서 특수목적법인(SPC)를 설립할 예정이며, 2028년까지 첨단 GPU를 1.5만 장 이상 확보하고, 장기적으로 첨단 GPU를 5만장까지 지속 확충하여 ‘AI 고속도로’를 구축하겠다는 계획을 발표하였습니다. 국가 AI 컴퓨팅 센터 구축 관련하여 9월 중 사업 공고 및 사업설명회가 별도 개최될 예정이므로 관련 내용 역시 주목할 필요가 있겠습니다.
 
인공지능기본법 시행이 다가온 가운데, 시행령을 통해서 인공지능사업자에게 부과되는 의무가 조금 더 구체화되었습니다. 다만, 금번에 공개된 시행령은 초안이며 9월 중 산업계·학계·시민단체 및 관계부처를 대상으로 의견 수렴이 진행될 예정입니다.
 
시행령은 일부 항목에 대하여 구체적인 사항을 과기정통부 장관으로 하여금 정하도록 위임하고 있으며, (1) 고영향 인공지능 관련 사업자의 안전성·신뢰성 확보의무가 면제되는 “다른 법령에 따라 준하는 조치를 이행한 경우”, (2) 구체적인 과태료 부과기준 등 별표·별지에 위임된 내용 등은 추후 관계부처 의견수렴 이후 확정·공개될 예정입니다.
 
따라서 인공지능 관련 사업 및 서비스를 고려하거나 진행 중인 사업자로서는 추후 순차적으로 공개될 하위법령에 지속적으로 관심을 가질 필요가 있으며, 이번 시행령 초안 및 향후 발표될 고시, 가이드라인 등이 사업 및 서비스에 미칠 영향을 면밀히 분석하고 준비하는 것이 필요해 보입니다.
 


[1] ① 고영향AI 기준·예시 가이드라인, ② 고영향AI 사업자책무 고시 및 가이드라인, ③ AI 안전성 확보 의무 고시 및 가이드라인, ④ AI 투명성 확보 가이드라인, ⑤ AI 영향평가 가이드라인
[2] ① 위험관리방안의 수립·운영, ② 기술적으로 가능한 범위에서의 인공지능이 도출한 최종결과, 인공지능의 최종결과 도출에 활용된 주요 기준, 인공지능의 개발·활용에 사용된 학습용데이터의 개요 등에 대한 설명 방안의 수립·시행, ③ 이용자 보호 방안의 수립·운영, ④ 고영향 인공지능에 대한 사람의 관리·감독, ⑤ 안전성·신뢰성 확보를 위한 조치의 내용을 확인할 수 있는 문서의 작성과 보관, ⑥ 그 밖에 고영향 인공지능의 안전성·신뢰성 확보를 위하여 위원회에서 심의·의결된 사항

 

[영문] The MSIT Releases Draft Enforcement Decree of the AI Basic Act

공유하기

레이어 닫기

관련 구성원

레이어 닫기

관련 구성원

레이어 닫기