지식/인사이트
딥페이크에 ‘AI생성물 표시’ 의무화… 국내업체 제재 역차별 우려도[10문10답]
등록일: 2026-01-27 09:26:20
작성자: 관리자

■ 10문10답 - AI 기본법

EU 이어 글로벌 두번째로 시행
연구개발·학습 데이터 구축 등
구체적인 산업 육성 사항 명시

생명·신체·기본권 영향 AI엔
광범위한 사전고지 의무 부과
고영향 AI엔 “기준 모호” 지적

정부, 1년 이상 규제 유예 기간



이재명 정부가 ‘인공지능(AI) 대전환’을 통해 AI 3대 강국 도약이라는 정책적 목표를 제시한 가운데 국가 차원에서 AI 경쟁력을 높이며, 안전하고 신뢰할 수 있는 AI 활용기반을 조성하기 위한 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI 기본법)이 지난 22일부터 시행됐다. 그러나 일각에서는 국민이 활용함에 있어 기본권 침해 등의 큰 영향이 예상되는 ‘고영향 AI’에 정부가 각종 의무를 부과하는 법 내용에 대해 우려를 제기하기도 한다. AI 기본법이 한국의 AI 대전환에 날개를 달아줄지 혹은 족쇄를 채울지, 정부와 관계 당국의 운용의 묘가 기대되는 시점이다.

1. AI 기본법이란

국내 AI 기본법은 글로벌 AI 업계에서 국내 AI의 경쟁력을 높이는 동시에 AI를 안전하고 신뢰할 수 있는 여건 속에서 활용할 수 있도록 하는 기반을 조성하기 위해 지난 2024년 12월 여야 합의를 거쳐 국회를 통과한 국가 AI 개발·활용의 설계도 같은 법이다. AI 기본법은 유럽연합(EU)의 AI법(AI Act)에 이어 전 세계에서 두 번째로 제정된 AI 관련 법률이며 AI 행정체계(거버넌스)를 법제화하고, AI 산업 활성화와 기반 조성, AI 혁신을 뒷받침하는 안전 신뢰 기반에 관한 내용을 담고 있다.

2. AI 기본법의 도입 배경은

AI는 휴머노이드 등과 같이 피지컬 AI로 확대되면서 인류의 삶을 획기적으로 바꿔놓은 첨단기술로 꼽힌다. 그러나 AI가 온라인상에서 생성해 내는 조작 영상(딥페이크)이나 허위·부실 정보는 그만큼 인류의 일상생활에 피해를 초래할 가능성도 있다. 또한 피지컬 AI 같은 경우 각종 오류로 인해 물리적 피해를 일으킬 수 있다는 우려도 여전하다. 따라서 이 같은 오류나 사고를 통제할 수 있는 ‘신뢰 가능한 AI 생태계’를 구축할 필요성도 커지고 있다. 이에 과학기술정보통신부 등 정부는 AI 기본법 시행을 통해 AI 활용 현장에서 법적 불확실성을 제거하고 건강하고 안전한 국내 AI 생태계를 조성하기 위해 AI 기본법과 그 시행령을 마련했다.

3. AI 기본법으로 무엇이 달라지나

AI 생태계는 최첨단 분야인 만큼 각종 데이터나 기술을 어디까지 수집·가공·활용 가능한지 회색지대로 남아 있는 영역이 많다. 이에 AI 기본법과 시행령은 AI 산업 발전을 위해 AI 연구·개발(R&D), 학습용 데이터 구축, AI 도입·활용 지원, 창업 지원, AI 융합 촉진, 전문인력 확보, AI 데이터센터 구축 지원 등 법률상 지원 사항과 그 세부 기준 및 절차 등을 구체화했다. 예를 들어 학습용 데이터 제공을 위한 ‘통합제공시스템’은 과기정통부 장관이 구축·관리하되, 시스템이 갖춰야 하는 기능을 시행령에 규정해 내실 있게 운영될 수 있도록 했다.

4. 고영향 AI의 정의는

AI 기본법에서 규율의 핵심 개념은 ‘고영향 AI’다. 제2조 4호는 고영향 AI를 “사람의 생명·신체 안전과 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템”으로 정의하고 있다. AI 사업자는 고영향 AI에 해당하는지를 스스로 검토해야 한다. 해당 여부를 잘 모르는 사업자는 정부에 확인을 요청할 수 있다. 구체적인 예시로는 ‘AI 면접관’과 같이 채용이나 대출 심사 등 개인의 권리나 의무에 중대한 영향을 미치는 AI가 있다. 에너지·식수·의료·원자력·범죄 수사·채용·대출 심사·교통·공공서비스·교육 등 영역이다. 다만 법은 고영향 AI를 구체적으로 열거하지 않고 적용 영역과 위험도를 결합해 판단하도록 설계하고 있어 기준이 모호하다는 지적도 나온다. 법적 영역 내 활용 여부나 기본권에 대한 위험 영향, 중대성, 빈도, 활용 영역별 특수성 등을 종합적으로 고려해야 하기 때문이다.

5. 생성형 AI와 딥페이크에는 어떤 의무가 생기나

이번 법은 AI 사업자가 AI 활용 사실을 이용자에게 사전고지하도록 정하고 있다. 생성형 AI로 어떤 결과물을 만들 경우 이용자가 해당 결과물이 AI로 생성됐다는 사실을 인식할 수 있도록 해야 한다는 취지다. 챗봇부터 이미지 생성, 게임 내에 구현된 AI 기능 등에 대해 사업자는 AI 생성물임을 알리는 표시(워터마크)를 해야 한다. 특히 사회적 부작용이 우려되고 실제와 구분하기 어려운 딥페이크 결과물일 경우 AI 생성 사실을 이용자가 명확하게 인식할 수 있게 가시적 워터마크 등 방법으로 고지 또는 표시해야 한다.

6. 업계는 무엇을 우려하나

AI 관련 업계는 모호한 규제 기준과 불확실성을 우려하고 있다. 특히 AI 기본법이 정의하고 있는 ‘고영향 AI’는 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템이다. ‘중대한 영향’이란 개념 자체가 모호해 자의적으로 해석될 소지가 많은데, 이에 따른 보고 및 조사 등 규제가 다양하게 도입될 경우 산업 자체가 위축될 수 있다는 것이다. 고영향·생성형 AI 사전고지 의무도 너무 광범위하다는 지적이다. 특히 기계가 판독할 수 있는 방법을 사용한 경우도 안내 문구나 음성 등을 1회 이상 제공하라는 것은 과도한 규제라고 반발하고 있다. 사람이 인식할 수 있는 방법보다 판독 가능성이 높은 기술적 방법을 적용했을 때도 추가적인 의무를 지울 필요가 없다는 주장이다. 특히 화면상 가시적 라벨링은 악의적 이용자가 쉽게 삭제할 수 있어 사람이 인식할 수 있는 방법 위주로 정책을 펼치면 오히려 국민 보호 목적과 충돌할 우려가 있다고 지적했다.

7. 국내 기업 역차별 후폭풍

가장 큰 이유는 국내 AI 산업계와 해외 산업계에 대한 역차별 우려다. AI 기본법이 해외 AI 기업에 대한 제재가 사실상 어렵다는 점이 역차별이라는 것이다. 세계 매출 1조 원, 국내 매출 100억 원, 일평균 이용자 100만 명 이상 중 하나라도 해당하는 해외 사업자는 국내 대리인을 지정하도록 했다. 하지만 이를 충족하는 기업은 구글과 오픈AI를 제외하면 극소수에 불과하다. 특히 국내 기업의 경우 AI 기본법에 따라 고영향 AI라는 의구심이 들면 관련 신고 및 조사 등의 각종 절차를 거쳐야 한다. 미국 등 AI 선진국에서 비슷한 서비스를 개발하는 경쟁 업체는 아무런 제약이 없는 만큼, 경쟁에서 어쩔 수 없이 뒤떨어지는 처지에 놓인다는 점도 업계 반발의 이유다. 속도와 서비스 품질을 핵심 경쟁력으로 삼는 AI 스타트업 입장에서는 행정 부담으로 인한 개발 지연이 생길 경우 생존 자체를 고민해야 할 처지에 놓이게 된다고 하소연하고 있다.

8. 기업 부담을 줄이기 위한 정부 대응은

정부는 우선 AI 기본법 시행 ‘연착륙’을 목표로 하고 있다. 이에 기업 혼란을 최소화하고 현장에서 충분히 준비할 시간을 제공하기 위해 최소 1년 이상 규제를 유예하기로 했다. 이 기간엔 사실조사나 과태료 부과보다는 제도 안내와 현장 적응에 무게를 두되, 인명사고·인권훼손 등 중대한 문제가 발생했을 시에 사실조사를 실시한다는 방침이다. 정부는 AI 기본법 지원 데스크도 운영한다. 법 시행과 동시에 전담 창구를 개설해 기업의 법률·기술 자문을 지원한다는 취지다. 서울 송파구 IT벤처타워 한국인공지능소프트웨어산업협회(KOSA)에 마련된 AI 기본법 지원 데스크에서는 한국지능정보사회진흥원, 인공지능안전연구소, 한국정보통신기술협회, 정보통신정책연구원 등 전문기관에 소속된 법·제도·기술 분야 전문인력이 비공개로 상담을 제공한다. 일반적인 문의는 평일 기준 72시간 내 회신이 목표다. 법적 검토가 필요한 사안은 보다 충분한 검토를 거쳐 최대 14일 이내 답변할 예정이다.

9. 업계가 요구 중인 대안은

AI 관련 스타트업 업계에서는 고영향 AI의 구체적인 기준 마련이 필요하다는 입장이다. 고영향 AI 여부는 ‘자동 의사결정 개입 정도’나 ‘사용자 통제 가능성’ 등 구체적인 기준이 필요하다는 것이다. 판단이 애매할 경우는 ‘비고영향 AI 추정’ 원칙을 도입할 필요가 있다고 제안했다. 의도된 목적이 비고영향이 명확한 경우, 결과를 수정할 수 있는 경우, 업계 자율 기준을 충족한 경우 등은 우선 비고영향 AI로 추정한 뒤 이후 고영향 여부를 판단하자는 것이다. 생성형 AI 표시 의무의 경우에도 매체·위험도별로 차등 적용이 필요하다는 의견도 나온다. 정부가 밝힌 1년간의 과태료 유예 방침 등 계도기간 운영에 대해서도 부정적이다. 규제 위반이라는 행정적 판단 상태에 놓이고, 시정명령 및 감독 대상이 될 가능성이나 민사 소송 리스크 등에서 자유로울 수 없는 상태가 유지되는 등 불확실성이 크기 때문이다. 업계는 대안으로 사실조사 자체를 일정 기간 유예하거나 유예가 어렵다면 시행령에 조사 개시 요건과 판단 기준을 명확하게 명시해 달라고 요청했다.

10. 유럽 AI법 등 해외 사례는

가장 자주 비교되는 사례는 EU의 AI법이다. EU의 AI법은 AI를 위험 수준에 따라 ‘금지, 고위험, 제한, 최소위험’ 등으로 세분화하고 ‘고위험 AI’에 대해서는 사전 인증과 엄격한 의무를 부과한다. 미국의 경우 연방 차원의 포괄적 AI 기본법은 없지만, 백악관의 AI 행정명령이나 주 단위 입법을 통해 초고성능 AI와 딥페이크에 대한 관리 논의가 진행 중이다. 또한 정부에 따르면 구글·오픈AI 등 주요 생성 AI 기업은 AI 생성물에 대한 표시를 이미 도입하고 있다. AI 생성물 표시 제도 역시 EU·미국(캘리포니아)·중국 등 주요국에서 제정·시행되는 등 세계적으로 관련 제도가 도입되는 추세다. 중국은 지난해 9월부터 관련 제도를 시행 중이고, 캘리포니아와 EU는 올해 8월 2일부터 시행이 예정돼 있다.

박준희 기자(vinkey@munhwa.com),구혁 기자(gugija@munhwa.com),이예린 기자(yrl@munhwa.com)

원문보기 : https://n.news.naver.com/mnews/article/021/0002766692?sid=105


이전글 "피지컬AI로 제조원가 80% 절감" 과기부, 사전검증 성과 공유
다음글 6월 선보일 'AI 연구동료', 국가대표 AI 모델 첫 시험대 되나