공유하기

닫기

  • 페이스북
  • 트위터
  • 네이버
    밴드
  • 네이버
    블로그

https://m.yeongnam.com/view.php?key=20231012010001383

영남일보TV

[사설] AI發 가짜뉴스 못 막으면 내년 총선 난장판 될 수도

2023-10-13

지난 7월 러시아 관영 통신은 소셜미디어 계정에 조 바이든 미국 대통령이 치매 관련 책을 고르는 영상을 올렸다. 조작 영상이었다. 바이든이 책을 고르는 실제 장면과 치매 관련 안내판을 합성해 만든 것. 내년 대선을 앞두고 그의 약점인 건강 문제를 비꼰 것이다. 지난해 지방선거 땐 '윤석열 대통령이 특정 후보를 지지하는' 가짜 영상이 나돌아 논란이 됐다. 이미지 또는 영상을 합성한 이른바 '인공지능(AI) 딥페이크(deep fake)'를 악용한 가짜 뉴스가 활개 치고 있다. 당장 내년 국회의원 선거가 걱정이다. 거짓 영상이 마구 나돌 경우 자칫 선거판이 망가질 수도 있다.

딥페이크 영상은 AI 전문가도 진짜와 가짜를 구분하기 힘들 만큼 교묘하다. 그럼에도 누구나 몇 가지 기술만 익히면 쉽게 만들 수 있다. 선의의 목적으로 활용된다면 두루 공유할 가치가 있겠지만, 선거에서 상대 후보를 깎아내리기 위한 거짓 영상이라면 심각한 문제다. 선량을 고르기 위한 유권자의 판단도 흐려질 우려가 크다. 가짜 뉴스 피해를 겪은 바 있는 윤석열 대통령은 지난달 "가짜 뉴스 확산을 막지 못한다면 미래세대 삶이 위협받게 될 것"이라고 경고했다.

내년 총선에서도 진영논리가 판을 칠 게 뻔하다. 그럴수록 딥페이크 영상은 가짜 뉴스의 숙주가 될 가능성이 높다. 가짜 뉴스가 민심을 어지럽히고, 선거를 망치게 하는 일만큼은 막아야 한다. 최근 정치권에서 AI발(發) 가짜뉴스 예방 법안을 잇달아 발의했다. 선거 땐 아예 딥페이크 영상의 제작·유통을 원천적으로 금지하는 게 맞다. 여야가 입법에 속도를 내주길 바란다. 선거 후보자든, 유권자든 '눈 뜨고 코 베이는' 일은 없어야 한다.

기자 이미지

논설실

기사 전체보기

영남일보(www.yeongnam.com), 무단전재 및 수집, 재배포금지

오피니언 인기기사

영남일보TV

부동산

많이 본 뉴스