공유하기

닫기

  • 페이스북
  • 트위터
  • 카카오
    스토리
  • 네이버
    밴드
  • 네이버
    블로그

https://m.yeongnam.com/view.php?key=20230308001801118

영남일보TV

[기획 영상 인터뷰] 제 2편 '미디어가 바라보는 챗GPT'

2023-03-08 18:19

 

미국의 AI 연구 개발 단체인 OPEN AI (CEO 샘 알트만)는 지난해 12월 인공지능이 빅데이터 분석을 기반으로 사람과 대화하듯이 답을 내놓는 챗봇을 선보였다. 테스트 버전을 일반 공개한 것이 바로  챗GPT (ChatGPT)이다. 

 

현재 연구 검토 단계에 있는 동안은 사용자가 무료로 가입하고 테스트할 수 있어 공개하자마자 100만 명을 돌파하며 주목받았다. 영남일보 TV 기획 인터뷰 '전 세계를 뒤흔든 챗GPT ‘ 제2편 '미디어가 바라보는 챗GPT' 에 대해 정정주 경북대학교 미디어커뮤니케이션학과 교수에게 들어봤다.


Q. 챗GPT가 언론과 미디어에 미칠 영향에 대해서 말씀해 주세요.

그동안의 새로운 뉴미디어 테크놀로지가 언론 및 매체의 생태계에 접목된 것을 보면 이번에도 미디어 생태계에 큰 변화를 줄 것이라고 생각을 합니다. 그런데 제가 생각하기에 챗GPT의 등장도 기존 언론이나 기자 분들에게는 그렇게 우호적이지만은 않은 그러한 상황이 될 거라고 봅니다.

대신에 이제 기자들이 새로운 어떤 정보를 찾거나 또 확인을 한다거나 하는 부분에서는 시간과 에너지를 줄일 수 있게 되면서, 과거에 한동안 스포츠나 아니면 증시나 날씨나 이렇게 로봇이 기자의 역할을 대체하고, 단순한 보도를 이제 기자를 대신하는 그런 역할을 하는 매체가 생기면서, 기자에 대한 역할에 대한 논의라든지 기자가 어떠한 그런 가치를 제공할 수 있는지에 대한 그런 고민들이 우리 사회에 던져졌었는데, 이제 기자는 다양한 정보 소스도 얻고 더블 체크도 한번 해볼 수 있으면서 본인이 조금 더 전문적이거나 심층적인 기사를 제공할 수 있는 이런 어떤 시간과 여건이 됐다라고 봐요. 오히려 역설적으로...


Q. 챗GPT 등장으로 편향성이나 정보의 오남용에 대한 문제점은 없나요?

일단 DB화된 자료를 쓰기 때문에 이런 오남용 가능성이라든지 정보의 오류 또 편견 학습 가능성이 있는 거죠.

예를 들어서 잘못된 데이터에 기반하고 있다 라면 잘못된 데이터를 잘못된 설명을 할 수가 있는 거고 또 일부 이제 실시간적인 데이터를 DB가 구축한다고 또 반영한다고는 하지만 과거의 DB를 기반으로 해서 답을 준다고 한다면 업데이트되지 않은 정보를 줄 수가 있는 거고, 

또 예전에 학습된 자료가 편향적이다거나 어떠한 그런 쏠림 편견을 자극하는 그런 정보라고 한다면 예를 들어서 흑인들의 범죄 가능성이 높다는 그러한 설명을 흑인 범죄율에 기반 해서, 이렇게 판단을 내린다고 한다면 잘못된 정보를 또 아니면 인식을 우리 사회에 줄 수 있는 그런 가능성이 있고요. 의도적으로 정보나 또 이러한 여론 형성에 부정적인 역할을 할 수 있는 가능성도 있다고 봐요.

잘못된 그러한 의견 대신 댓글을 단다 거나 과거에는 그런 역할을 어떠한 돈을 주고 사서 한다든지 아니면 그런 것들을 프로그래밍화해서 개발해서 이렇게 도입했다라고 한다면 아예 그런 것들이 이제 자연스럽게 적은 비용으로 또 수월하게 어떤 죄 의식 없이 그런 챗GPT가 한다 고 한다면 우리 사회의 근간이라고 할 수 있는 민주주의라든지 아니면 여론의 공정한 또 올바른 형성에 부정적인 영향을 줄 수 있다고 봅니다.

이제 정교하게 만들어진 이런 가짜 뉴스, 허위 정보 이런 것들이 이제 마치 진짜인 것처럼 챗GPT 그러면 거기서 나온 정보다 그러면 우리가 신뢰하게 돼 그래서 챗GPT가 어떤 공신력이나 또 대중성을 확보하면 확보할수록 거기에 우리가 어떤 신뢰성이나 그런 공정성을 부여할 수가 있다.

그래서 때로는 그것이 잘못된 정보이거나 아니면 부적절한 정보이다 할지라도 우리가 그것을 이제 받아들이는 경계선이 문턱이 낮게 되면서 무분별하게 정보가 확산된다고 한다든지,  오늘날의 정보가 이제 반복 재생산해서 이렇게 막 뿌리는 그러한 경향이 많이 나타나는데 챗GPT로 형성된 정보가 이제 무분별하게 많은 사람들에게 확산될 수 있는 그러한 위험성도 있습니다.

저작권법이나 개인 정보 보호와도 관련해서 이제 웹상에서 오픈되어 있는 그러한 DB나 정보를 무분별하게 갖다 쓰다 보니까 최근에는 그러한 정보, 사진, 로고나 글꼴 등에 대한 소송도 진행되고 있는 것처럼 여러 가지의 사회적인 또 윤리적인 문제도 불거질 수 있다고 봅니다.

 

Q. 언론과 미디어의 이상적인 활용 방향은?

챗GPT 시대에 이제 기자들은 챗GPT를 활용해서 어떠한 정보를 찾거나 또 더블 체크하는 시간을 이제 줄이고 또 표나 그림이나 어떤 도표 같은 것들을 1차적으로 비주얼 하는 데 도움을 얻을 수 있기 때문에 기자들에게는 편의성을 제공할 부분이 있다고 봅니다.

그렇게 도움을 받는 만큼 기자들 스스로 어떤 전문적이거나, 아니면 심층적인 보도를 할 수 있는 이제 여건이 된 거죠.

미국의 언론학자 미첼 스티븐스의 ‘비욘드 뉴스 지혜의 저널리즘’이라는 저서를 통해서 밝힌 내용을 이제 좀 보강해서 말씀을 드리면 언제, 어디서, 누가, 무엇을, 왜, 어떻게 라는 식의 이런 단순한 사실을 보도하는 것이 기자가 아니라, 이제는 현명하고 확실하게 이해하고 해석적이며 통찰력 있게 분석하고 새로운 사실을 깨우쳐주는 그러한 기자가 필요하고 저는 여기에다가 프로페셔널 한 그런 전문성을 갖추어야 한다고 봅니다.

보도 자료에 기반하고 출입처에 의존하고 또 누구나 접할 수 있는 정보를 앵무새처럼 되풀이하는 단순 사실 보도는 챗GPT 시대에 설자리가 좁아질 수밖에 없다고 봅니다. 왜냐하면 로봇이 대체할 수 있으니까요.

핵심을 전문적으로 취재하고 사안을 비판적으로 검증하고 가치를 판단하고 새로운 화두를 제시하는 몫은, 기자가 전문성과 사회적 공적 의식을 바탕으로 해야 된다고 봅니다. 그것이 기자의 몫이자 미래가 될 것이라고 생각합니다.

 

Q. 챗GPT에 대해 마무리 해 주신다면?

챗GPT는 막아야 될 그러한 대상이 아니라 활용해야 될 그러한 대상이라고 생각을 해요. 대신에 이제 무작위적인 무비판적인 맹목적인 그러한 이용의 대상이 아니라, 그 위험성을 알고 또 경계하면서도 인간 사회의 발전이나 아니면 진전을 충분히 역할을 할 수 있을 거라고 봐요.

이미 어떤 정돈되고 정리된 것들이 잘 구축되어 있고, 거기서부터 기본적인 지식이나 이해를 할 수 있는 도구가 있다 그러면 당연히 그걸 활용하는 게 맞다고 봅니다.

거기에 어떤 가치를 부여한다거나 어떤 지향점을 제시한다고 한다거나 어떤 새로운 그런 구조를 설계한다거나 화두로 제시하는 거는, 인간이 아직까지는 AI나 로봇보다 더 잘할 수 있는 영역이죠.

그 부분을 고려한다고 한다면 챗GPT가 이제 함께 인간과 공존하는 그러한 시대에 저는 긍정적으로 보고 어떻게 공존할 수 있는지, 그 기준은 뭐고 어떠한 지향점을 가지고 있는지에 대한 그러한 합의 노력이 필요한 시대가 아닐까라고 생각합니다.

 

한유정기자 kkama@yeongnam.com

기자 이미지

한유정 기자

까마기자 한유정기자입니다.영상 뉴스를 주로 제작합니다. 많은 제보 부탁드립니다.
기사 전체보기

영남일보(www.yeongnam.com), 무단전재 및 수집, 재배포금지

영남일보TV