
챗GPT가 기자를 대체할 수 있을까?
최근 챗GPT가 가져온 돌풍으로 AI가 기자나 카피라이터를 대체할 가능성이 있는지 활발한 담론이 펼쳐졌다. 하지만 필자는 크게 걱정하지 않는다. 지금부터 그 이유를 말해주겠다.
뉴스 편집국들은 장안의 화제인 AI 도구, 챗GPT를 업무에 통합하기 위해 2가지 다른 접근법을 시도했다. 기술 뉴스사이트 씨넷(CNET)은 비밀리에 챗GPT로 전체 기사를 작성하기 시작했다. 그러나 얼마 지나지 않아 챗GPT가 작성한 기사들에 표절 의혹이 제기돼 결국 정정보도를 내야 했다. 반면, 버즈피드(Buzzfeed)는 더 신중한 접근법을 취했다. 버즈피드의 경영진들은 자사의 인기 있는 퀴즈 콘텐츠의 답변 생성에 챗GPT를 이용하겠다고 밝혔다. 물론 퀴즈의 주제나 질문들은 기자들이 직접 만들어야 하며 답변 생성도 기자들의 관리하에 이루어지도록 한다.
오늘날 많은 업계가 직면한 근본적인 질문은 다음과 같다. 우리는 AI 시스템에 얼마나 많은 통제권을 주어야 할까? 씨넷은 너무 많은 부분을 일임해 난처한 상황에 처했지만, 버즈피드는 챗GPT를 생산성 도구로 사용하는 신중하고 투명한 접근법으로 좋은 반응을 얻었고, 회사의 주가도 대폭 상승했다.
런던 정치경제 대학교(LSE)에서 저널리즘 AI 수업을 진행하는 찰리 베킷(Charlie Beckett) 교수에 따르면 저널리즘에서 놀랄 정도로 많은 부분이 자동화될 수 있다. 기자들은 보통 로이터, AFP, AP통신과 같은 뉴스 통신사의 텍스트를 재사용하고, 경쟁자들로부터 기사의 내용과 출처에 대한 아이디어를 베끼곤 한다. 이런 업계 관행을 고려하면 뉴스 편집국이 AI 기술로 효율성을 증가시킬 수 있는 방안을 찾는 것도 당연하다.
“저널리즘이 독창성과 창의성의 보고라는 말은 완전히 헛소리”라고 베킷은 지적했다. 아, 정곡을 찔린 기분이다.
사실 저널리즘의 지루하고 반복적인 부분을 AI에 맡길 수 있다면 나쁘지 않다고 본다. AI의 도움으로 기자들은 더 창의적이고 중요한 일을 할 수 있는 시간을 벌 수 있다.
필자가 본 좋은 사례가 하나 있다. 챗GPT를 이용해 보도자료 텍스트를 미국의 뉴스 스타트업 악시오스(Axios)처럼 ‘똑똑한 간결함(smart brevity)’ 스타일로 정리하는 것이다. 챗봇이 충분히 잘할 수 있는 일이고, 기자들도 정형화된 기사 형식에서 벗어나 더 재미있는 일을 할 수 있어 행복할 것이다.
이 밖에도 뉴스 편집국이 AI를 성공적으로 사용할 수 있는 방안이 많이 있다. AI는 기자들이 긴 텍스트를 요약하고, 데이터 자료를 훑어보고, 기사 제목을 떠올리는 데 도움을 줄 수 있다. 필자도 이번 글을 작성하면서 문서 자동완성과 음성 인터뷰 전사 등 몇 가지 AI 도구를 활용했다.
그러나 뉴스 편집국에서 AI를 사용할 때 조심해야 할 부분들이 있다. 그중 하나가 개인정보의 보호다. 출처를 밝힐 수 없는 민감한 사안을 다룬 기사의 경우 특히 그렇다. 이 문제로 MIT 테크놀로지 리뷰의 기자들이 음성 전사 서비스를 사용하는데 제약이 생겼고 민감한 인터뷰의 경우 직접 작성하고 있다.
기자들은 민감한 정보를 챗GPT에 입력할 때도 주의를 기울여야 한다. 제작사인 오픈AI가 입력한 데이터를 어떻게 다룰지 알 수 없기 때문이다. 이 데이터는 재가공을 거쳐 챗GPT의 학습에 사용될 확률이 높다. 즉, 오늘 입력한 데이터가 미래에 챗GPT를 이용하는 사람들에게 돌아갈 수 있다는 뜻이다. 이미 많은 기업이 이 사실을 알고 있다. 소문에 따르면 아마존의 한 변호사가 아마존 직원들에게 내부 문서에 챗GPT를 이용하지 말라고 경고했다고 한다. 씨넷이 어렵게 교훈을 얻었듯이 챗GPT는 헛소리를 내뱉는 것으로도 악명이 높다. AI 언어모델은 다음에 올 단어를 예측해 문장을 생성하지만, 정작 문장의 의미나 맥락은 전혀 모른다. 챗GPT는 종종 거짓말을 한다. 그러므로 챗GPT가 생성한 모든 글은 다시 신중하게 확인해야 한다. 계속 확인하다 보면 오히려 글을 직접 작성할 때 시간이 덜 든다고 느껴질 정도다.