'AI 기본법'이 오늘부터 시행됐다. 법 이름은 길지만 메시지는 단순하다. 인공지능을 썼다면 썼다고 알리고, 생명·안전·권리에 영향을 줄 수 있는 영역에서는 책임을 분명히 하라는 것이다.
그런데 시행을 앞두고 온라인에서 먼저 확산한 것은 법 조문이 아니라 오해였다. "AI로 만든 그림 올리면 처벌받는다", "개인 이용자도 단속 대상이다" 같은 말이 빠르게 퍼졌다.
하지만 법의 적용 대상은 다르다. AI 기본법의 규율 대상은 생성형 AI 모델을 개발하거나 이를 활용해 제품·서비스를 제공하는 사업자다. 개인이 AI로 이미지를 만들거나 글을 써서 게시하는 행위는 규제 대상이 아니라는 뜻이다.
표시 의무가 적용되는 범위도 제한적이다. 생성형 AI를 통해 만들어져 외부로 유통되는 이미지·영상·음성이다. 그렇다고 화면에 큼직한 문구로 AI 사용 사실을 드러내야 한다는 의미는 아니다. 딥페이크처럼 실제 인물과 구분이 어려운 콘텐츠는 명확한 고지가 필요하지만, 웹툰·애니메이션 등 일반 콘텐츠는 디지털 워터마크처럼 눈에 띄지 않는 방식도 허용된다.
이 대목은 최근 숏폼 플랫폼을 중심으로 퍼진 'AI 의사 광고' 사례를 보면 이해하기 쉽다. 실제 전문가처럼 보이는 AI 인물이 의료·건강 제품을 추천하는 영상이 반복 노출되면서, 고령층을 중심으로 피해가 발생했다. 이들은 사람과 AI를 구분하지 못했다. 광고라는 사실보다는 '전문가의 말'로 받아들였다. AI 기본법이 말하는 표시 의무는 바로 이런 혼선을 막기 위한 장치다.
법의 두 번째 축인 '고영향 AI'도 같은 맥락이다. 모든 인공지능이 아니라, 에너지·먹는물·의료·채용·대출·범죄 수사·교통·공공서비스·교육 등 사람의 기본권에 직접 영향을 미칠 수 있는 영역에 한정된다. 이 역시 기술 자체를 문제 삼기보다, 사람이 최종 의사결정에 개입하는지를 기준으로 통제 가능성을 본다. 판단 구조 안에 사람이 있다면 고영향 AI에서 제외될 수 있다.
초고성능 AI에 대한 안전성 의무도 다르지 않다. 극히 일부, 매우 높은 연산량과 영향력을 동시에 갖춘 경우에만 적용된다. 현재 기준으로는 실제 적용 대상이 거의 없다는 설명이 뒤따른다. 그럼에도 이 조항을 둔 이유는 지금보다 더 강력한 AI가 등장할 상황을 미리 염두에 둔 것이다.
이 법은 새로운 질문을 던진다기보다, 이미 벌어지고 있던 상황을 정리한다. 인공지능이 만든 말이 사람의 말처럼 유통되고, 우리는 그 차이를 따지지 않았다. 표시 의무는 기술을 막겠다는 선언이 아니다. 적어도 무엇이 AI의 결과물인지는 알고 보자는 최소한의 기준이다. AI가 일상이 된 시대에 필요한 것은 더 강한 기술이 아니라, 구분할 수 있는 기준이다.
이지영
영남일보(www.yeongnam.com), 무단전재 및 수집, 재배포금지