본문 바로가기
메뉴
뉴스레터

‘생성형 인공지능 서비스 이용자 보호 가이드라인’ 발표

2025.03.04

방송통신위원회(이하 “방통위”)는 2025. 2. 28. 생성형 인공지능(generative AI) 서비스 과정에서 이용자 피해를 방지하기 위한 「생성형 인공지능 서비스 이용자 보호 가이드라인」(이하 “본 가이드라인”)을 발표하였습니다. 본 가이드라인은 2025. 3. 28.부터 시행될 예정입니다.
 

1.

배경 및 목적

방통위는 2024년과 2025년의 각 연간 업무 계획으로 ‘인공지능 서비스 이용자보호법(가칭)’ 제정을 추진하고 있으며[인공지능 이용자 보호 관련 법안으로 2025. 1. 21. 제정된 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 “인공지능기본법”)과 별개], 2024. 7. 19. ‘인공지능 서비스 이용자 보호 민관협의회’를 출범하는 등 인공지능 이용자 보호를 위한 다양한 업무를 추진하고 있습니다. 나아가 방통위는 2024. 12. 20. 인공지능 서비스 이용 관련 피해·불만 등에 대해 신고·제보할 수 있는 ‘인공지능 서비스 이용자 피해 신고창구’를 개설하면서 앞으로도 인공지능 서비스의 안전성·신뢰성 확보와 함께 이용자 중심의 서비스 활성화를 위한 법·제도 마련을 추진하겠다고 밝힌 바 있습니다.

보도자료에 따르면 본 가이드라인은 생성형 인공지능 기술을 이용한 명예훼손, 차별·편향 등 생성형 인공지능의 부작용으로부터 이용자의 안전 및 권리를 보호하기 위해 마련되었으며, 향후 방통위의 인공지능 서비스 이용자 보호를 위한 법 집행 내지 제도 도입의 방향성을 보여준다는 점에서 주목할 필요가 있습니다.
 

2.

본 가이드라인의 주요 내용

본 가이드라인은 생성형 인공지능 서비스 이용 과정에서 발생할 수 있는 잠재적 위험들을 사전에 방지하고 이용자 권익을 보호하기 위해 개발사 및 서비스 제공자가 서비스 전반에 걸쳐 추구해야 할 4가지 기본 원칙과 기본 원칙이 제시하는 목표를 실현하기 위한 6가지 실행 방식을 제시하고 있습니다. 또한 각 실행 방식과 관련하여 실제 제공되고 있는 서비스의 모범 사례를 통해 사업자의 이해를 돕고 있습니다.
 

  • 4가지 기본 원칙

(1)

생성형 인공지능 서비스는 인간의 존엄성을 보호하고 개인의 자유와 권리를 보장하며, 인간이 적절하게 통제하고 감독할 수 있는 방식으로 제공되어야 한다.

(2)

생성형 인공지능 서비스는 인공지능시스템 사용에 따른 작동 원리 및 결과, 이용자에게 미치는 영향 등에 대하여 이용자에게 알기 쉽게 설명되도록 제공되어야 한다.

(3)

생성형 인공지능 서비스는 안전하게 작동되어야 하며, 예상치 못한 피해를 최소화하고 악의적으로 이용되거나 변경되지 않도록 제공되어야 한다.

(4)

생성형 인공지능 서비스는 이용자에게 차별 또는 불공정한 결과가 발생하지 않도록 제공되어야 한다.
 

  • 6가지 실행 방식

실행 방식

주요 내용 및 실행 사례

이용자 인격권 보호

  • 인격권 침해 요소 발견·통제 알고리즘 구축

  • 산출물에 대한 관리 책임을 인지

  • 내부 모니터링 체계 및 이용자 신고 절차 방안 마련

실행 사례: 이용자가 타인의 권리 침해 정보 등을 프롬프트에 입력하는 경우 경고문구를 제시하거나 일정 시간 차단 등

결정 과정을 알리려는 노력

  • 산출물이 인공지능으로 생성되었음을 고지

  • 생성형 인공지능의 결정 과정에 대한 정보 제공

실행 사례: 결정 과정을 이해할 수 있는 기본정보 제공 방법으로 출처 표기 혹은 출처에 대한 링크 제공 등

다양성 존중 노력

  • 차별·편향적 사용 방지를 위한 필터링 기능 등 제공

  • 편향적 정보 생성 등 위험성에 대한 신고 절차 마련

실행사례: 문제 발견 시 이용자가 신고할 수 있는 채널을 서비스 주요 위치에 배치하고, 피해 신고 양식을 제공 등

입력데이터 수집·활용 과정에서의 관리

  • 이용자 입력데이터 수집 및 학습데이터로 활용에 대한 사전 동의 절차 마련

  • 기업 내 관련 책임자를 선정해 관리

실행사례: 개인정보 수집·이용 동의절차와 연계하여, 이용자가 생성한 데이터를 학습데이터로 활용할지 여부를 선택할 수 있는 방법을 가입 혹은 이용 단계에서 제공 등

문제 해결을 위한 책임과 참여

  • 서비스 제공자 및 이용자의 책임 범위를 정의하고, 책임 주체가 이를 명확히 인지하도록 안내

  • 점검 시스템 등 위험관리 체계 마련

실행사례: 이용약관 혹은 서비스 약관에 이용자의 오남용으로 발생하는 문제들에 대한 이용자 책임 명시 등

건전한 유통·배포를 위한 노력

  • 부적절한 콘텐츠를 생성하거나 공유하지 않도록 안내

  • 이용자의 입력값과 산출물이 도덕적·윤리적 기준을 준수하는지 검토·관리

실행사례: 유해 콘텐츠 생성을 방지하기 위해 입력 프롬프트 및 산출물을 필터링하고 노출이 심한 사진 등 부적절한 콘텐츠를 산출할 가능성이 있는 경우 안내 등

 

3.

향후 전망 및 대응방안

방통위는 본 가이드라인 시행 후 2년마다 본 가이드라인의 타당성을 검토하여 개선 등의 조치를 취할 예정입니다(부칙 제2조). 이를 통하여 본 가이드라인의 구체적인 실행 방식과 사례들은 보완 및 업데이트될 수 있습니다.

본 가이드라인에 제시된 4가지 기본원칙 및 6가지 실행 방식은 생성형 인공지능 사업자에게 전기통신사업법이나 정보통신망법 등 기존의 이용자 보호 관련 법령 및 규제를 적용 및 집행하고, 더 나아가 현재 추진 중인 ‘인공지능 서비스 이용자보호법(가칭)’을 포함한 새로운 법령 및 규제를 도입함에 있어 참고 기준이 될 수 있을 것으로 생각됩니다.

또한 본 가이드라인의 기본원칙 중 이용자에 대한 설명 제공 원칙에 관하여는 인공지능기본법 제3조 제2항에서도 유사한 원칙이 규정되어 있고, 실행 방식 중 i) 인공지능에 의해 생성된 산출물이라는 점의 고지와 ii) 이용자 입력데이터 수집 및 학습데이터로 활용에 대한 사전 동의 절차 마련에 대한 내용도 각각 인공지능기본법 제31조와 개인정보 보호법상 관련 규정과 유사성 또는 관련성이 있어 보이므로, 이들 규정을 어떻게 조화롭게 해석하고 실행할지가 앞으로 계속 논의될 것으로 보입니다.

특히 과학기술정보통신부 산하에 인공지능기본법을 위한 ‘하위법령 정비단’이 2025년 초 출범하여 인공지능기본법 시행령 등 하위법령과 관련 가이드라인에 대한 정비 작업이 진행되고 있습니다. 그리고 이러한 하위법령 및 가이드라인 등을 통해서 생성형 인공지능을 개발하거나 이용하는 사업자의 권리 및 의무가 보다 구체적으로 규정 및 제시될 것으로 예상됩니다. 따라서 향후 인공지능기본법 및 그 하위법령과 가이드라인 및 방통위의 본 가이드라인의 관계 및 정합성에 대해서는 지속적으로 면밀히 살펴볼 필요가 있습니다.

 

[영문] The Korea Communications Commission Issues the Guidelines on the Protection of Users of Generative AI Services

공유하기

레이어 닫기

관련 구성원

레이어 닫기

관련 구성원

레이어 닫기