연구 보고서

AI와 뉴스의 미래 

AI는 뉴스 산업 전반에 어떠한 영향을 미치고 있는가에 대하여

 

 

로이터 저널리즘 연구소는 2025년 3월 26일에 주최한 발표회·공개 토론회를 통하여 AI와 뉴스 산업의 관계를 여러 측면에서 탐구하며 관련 분야에서 이루어진 여러 흥미로운 연구를 소개하였다그중 공개 토론회는 하기의 세 가지 핵심 가치를 기반으로 이루어졌다:

  1. 증거(Evidence): AI·뉴스·신뢰도에 대한 연구를 기반으로 통찰이 담긴 지식을 제공한다

  2. 참여(Engagement): 뉴스 산업의 리더들이 AI의 가치를 어디에 두고 있으며도전 과제는 무엇인지 적극적으로 탐구한다

  3. 확장(Expansion): AI와 관련된 주요 도전 과제 중 하나가 정보 접근 권한이 있는 자와 없는 자 사이에 빠르게 형성될 수 있는 격차인 만큼모든 사람은 정보에 접근할 수 있어야 한다.

 또한이날 언급된 연구들은 세 가지 핵심 질문에 대한 답변을 제공하였다

  1. 뉴스룸에서 기자들이 생성형 AI(generative A.I.)를 어떻게 사용하는가

  2. 사람들이 생성형 AI를 사용하여 뉴스를 소비하는 방식은 어떠한가

  3. 사람들은 생성형 AI가 뉴스에 사용되는 것에 대하여 어떻게 생각하는가

 이미 저명한 언론사들(publishers)의 뉴스룸 상부(leader) 가운데 87%는 생성형 AI가 뉴스룸 내에서 완전히 또는 일부 변화를 가져왔다고 말한다. AI 기술 도입에 따라 이전에 보지 못한 우려와 도전 과제들이 부상하였으며뉴스 조직과 기타 관계자들 사이의 권력 역학 관계가 변화하고 있다현재 뉴스 산업은 대중특히 젊은 세대의 독자들과 어떻게 관계를 유지하고 AI로부터 언론 조직의 지식 재산권을 보호할 수 있는지를 고민한다어린 독자들은 챗봇(chat bot)같은 생성형 시스템에 매력을 느끼고 있고뉴스 산업이 소셜 미디어의 발전에 따라 이미 직면하고 있던 플랫폼 경쟁이 더욱 심화될 전망이다

 

  1. 뉴스 조직과 AI 기업 간의 가치 교환(Value Exchange)’ 

 챗봇과 같은 자동 요약 시스템의 등장은 뉴스 산업에 잠재적인 영향을 미칠 수 있다예컨대 생성형 AI를 이용한 검색에 익숙해진 독자가 이를 유일한 팩트 제공자로 여기며 의존한다면이는 미디어 다원성에 대한 문제 제기로 이어진다대규모 언어 모델(Large Language Model, 이하 LLM)이 뉴스 콘텐츠를 재구성하고 제시하는 맥락에 대해 뉴스 조직이 통제력을 상실할 경우뉴스가 가진 브랜드 무결성(brand integrity)이 훼손될 가능성이 있다뉴스 제공자다시 말해 기자들(journalists)과 언론사들은 콘텐츠에 대한 적절한 인정을 받지 못하여 브랜드 가치가 희석되고결과적으로 뉴스 플랫폼에 대한 독자들의 선호도 및 참여도가 낮아져 정식 뉴스 플랫폼으로의 트래픽 감소가 발생할 수 있다

 AI 기업과 언론사 간의 가치 교환이 적절히 이루어지고 있는지의 여부는 여전히 불분명하다언론사들 가운데 일부(뉴욕타임즈워싱턴 포스트가디언지 등)는 AI 기업과 콘텐츠 거래를 맺은 경우도 있으나그러한 제휴 관계가 아직 산업 전반에 보편화되지는 않았다

 본 발표회에서는 실시간 검색 기능이 있는 생성형 AI 도구 또는 챗봇이 뉴스 관련 콘텐츠의 출처를 정확하게 인용하는 능력이 있는지 검증하기 위하여미국 내 20개 다양한 언론사를 대상으로 저명한 인지도를 가진 8개의 AI 도구(GPT, 퍼플렉시티코파일럿딥시크 등)에 1,600개의 질의를 실행한 결과가 공개되었다이러한 도구들은 자주(often) 질문에 답할 수 없을 때 답변을 거부하기보다 오답을 자신있게(confidently wrong)’ 제공하는 경우가 많았다오히려 무료 모델보다 퍼플렉시티 프로(Perplexity Pro)나 그록 3(Grok 3)과 같은 프리미엄 유료 모델에서 이러한 경향이 더 잦았다제미나이(Gemini), 그록(Grok)과 같은 생성형 검색 도구는 종종 답변에 조작된(fabricated) 링크나 원본 기사를 포함시켰다따라서콘텐츠 라이선스 계약조차 AI·챗봇 응답의 인용 오류 배제를 보장하지 못한다

 일부 뉴스 플랫폼의 경우이미 로봇 배제 프로토콜(Robots Exclusion Protocol)’을 통해 크롤러(crawler)를 의도적으로 차단했음에도 불구하고 AI에 의한 정보 수집이 이루어지는 것으로 나타났다예컨대내셔널지오그래픽(National Geographic)은 퍼플렉시티의 웹 크롤러를 차단했으나퍼플렉시티는 연구진이 내셔널지오그래픽에서 발췌한 제시문 10개 중 9개를 정확하게 식별할 수 있었다데이터 스크래핑(data scraping)과 관련하여 언론사들은 데이터 보호 측면의 준비가 매우 미흡하다이미 페이스북·인스타그램의 모기업인 '메타(Meta)'는 무분별한 스크래핑에 대해 정부가 더 많은 조치를 취할 것을 촉구하였다. 2025년 6월 18일 기준스크래퍼의 투명성에 대한 제안을 담은 데이터 (이용 및 접근에 대한법안(Data [Use and Access] Bill)’이 법안 통과의 마지막 단계인 왕의 재가(Royal Assent)’만을 남겨두고 있다

 AI 기업과 언론사 간의 데이터 거래는 주로 다음과 같이 세 가지 형태로 이루어진다:

  1. AI 모델의 훈련 또는 파인튜닝(fine-tuning) 목적의 데이터 제공과거부터 현재까지의 모든 데이터에 대한 접근을 허용한다특히 LLM 훈련에 있어 뉴스 데이터는 편집을 거친 사실 기반의 고품질 정보라는 점에서 매우 바람직한 콘텐츠로 간주된다.

  2. 추론적 이용(inference access)을 위한 데이터 제공뉴스 플랫폼에서 실시간으로 가져온 정보를 질의형 검색 서비스에서 이용하기 위함이다

  3. 일회성 가치(one-time value) 계약언론사는 기업이 필요로 하는 데이터를 한꺼번에 제공하고 기업은 이를 일정 기간 동안 AI 모델 훈련에 이용할 수 있다그러나 훈련 시 정기적인 신규 데이터가 반드시 필요한 것은 아니므로이러한 계약은 최초 거래 이후 갱신이 없을 가능성이 크다

데이터 거래라는 새로운 영역에 있어 보호 조치를 실행하기란 귀속성(attribution)’과 품질(quality)’을 고려하여야 한다는 어려움이 존재한다예컨대데이터 거래에서 계약 위반이 발생하는 경우에 그 빈도와 주체를 평가할 수 있는 데이터 도구가 없는 실정이다더불어저작권에 관한 합의에는 투명성(transparency)이 부족하다는 지적이 있다이에 따라 호주는 뉴스 미디어 협상에 대한 법률(News Media and Digital Platforms Mandatory Bargaining Code)’을 통해 관련 규제 기관이 AI 플랫폼과 언론사 간의 논의에 참여하여 해당 기관이 합의안의 가치를 인지할 수 있도록 했다미국의 경우기업들이 중국 등 외국의 AI 기술 발전을 예시로 들며 국제적 기술 경쟁에서 승리하기 위하여 저작권 규제가 완화되어야 한다고 주장하고 있다가령 구글과 OpenAI는 AI 훈련에 대한 저작권 제한을 완화하고기업이 일반에 공개된(publicly available) 데이터로 AI 모델을 광범위하고 제한 없이 훈련할 권리를 법으로 명문화할 것을 촉구하는 의견을 제출하였다

 AI에 대한 대중의 인식을 알아보기 위한 한 설문조사에서영국 대중의 61%는 LLM 및 LLM 기반 도구를 사용하여 정보를 검색하고 추천받는다고 응답했다이는 전통적인 형태의 검색 엔진과 정보의 형태가 대체되고 있다는 신호로 볼 수 있다그러나 타 콘텐츠와 달리 뉴스를 검색할 때에 사람들은 다른 경향을 보였다영국을 포함한 6개국(아르헨티나덴마크프랑스일본영국미국)에서 실시된 설문조사에 따르면평균 5%의 사람들만이 생성형 AI를 사용하여 뉴스를 접한다고 답하였다생성형 AI를 통한 뉴스 검색은 아직 대다수의 사람들에게 익숙한 방식이 아니며사용자 경험(user experience) 측면에서 생성형 AI가 제시한 결과가 만족스럽지 않은 사례가 많기 때문이다예컨대약 15,000개의 프롬프트로 챗봇에게 특정 매체에서 최신 뉴스를 가져오도록 지시했을 때GPT의 경우 절반 정도의 요청을 거부했고나머지 30%에 대해서는 시일이 지나거나 최신 정보가 반영되지 않은 기사를 제공하였다생성형 AI의 기술적 완성도와는 별개로 상당수의 언론사들이 이러한 종류의 질의를 AI 챗봇이 수행하는 것을 원치 않아 접근을 차단한 사실 또한 결과에 영향을 미쳤다

 추가로뉴스에 생성형 AI가 사용되는 정도에 대한 대중의 편안함(comfort) 수준은 다음과 같았다

  1. 약간의 인간 감독(human oversight)이 있었으나 대부분 AI가 제작한 뉴스미국에서는 23%다수 유럽 국가들에서는 평균적으로 15%가 편안함을 느꼈다

  2. AI의 도움을 받되 대부분 인간이 제작한 뉴스미국 42%, 유럽 평균 33%의 사람들이 편안함을 느꼈다

사람들의 인식 면에서 뉴스의 주제 역시 중요한 요소였다대중은 무거운 뉴스(hard news) 주제이를테면 정치·범죄·지역 뉴스(local news)에 AI가 사용될 시 더 많은 불편함을 느꼈다언론사가 AI를 사용하는 영역에 있어서도사람들은 AI가 후방(behind-the-scenes) 지원예를 들어 인터뷰 녹취 보조·인터뷰 질문 생성을 위한 브레인스토밍·텍스트 가공·요약 등을 수행할 때에 더 편안함을 느꼈다대중의 불편함은 AI가 뉴스의 '핵심 작업(heavy lifting)’을 수행하고 그 작업물을 직접적으로 제공할 때 가장 고조되었다. AI의 작업물 가운데 사실적인 시각 이미지를 대할 때 이러한 경향이 더욱 두드러졌다.

 상술된 6개국 대상 설문조사에서대중은 이미 기자들이 AI를 광범위하게 사용한다고 생각함이 드러났다다만사람들은 그러한 AI의 활용이 대부분 후방 지원 및 작업에서 이루어진다고 여겼다그러나 응답자 중 32%만이 기자들이 생성형 AI가 만들어낸 결과물을 항상 또는 자주 검토한다고 생각했다. AI 사용 여부에 대한 공개와 관련하여서는거의 모든 응답자들이 AI로 만들어진 콘텐츠에 최소한의 형태를 갖춘 라벨링(labelling)이 필요하다고 대답하였다콘텐츠 생성이나 미디어 제작에 AI 작업이 큰 비중을 차지하였다면 이에 대한 라벨링의 필요성이 더 크고, AI의 영향력이 후방에 국한되었다면 그 필요성이 덜하다는 의견이었다

 나아가 AI가 저널리즘의 가치 상승에 기여한다고 생각하는지에 대한 질문에는 6개국 응답자의 8%만이 AI가 뉴스를 더 가치 있게 만들 것이라고 딥변하였다응답자의 41%가 AI로 인한 뉴스 가치의 하락을 예상했으며, ‘지금과 거의 같을 것(roughly about the same)’이라고 답한 사람들이 32%였다이는 적어도 현재로서는 대중의 눈에 AI가 명확한 언론 가치를 추가적으로 창출하지 않는다는 의미이다사람들은 AI를 이용하면 뉴스 제작 비용이 절감되고최신 정보 제공이 수월해지며이해하기 쉬운 콘텐츠가 생산될 것이라고 예상하지만역설적으로 언론의 투명성(transparent)과 신뢰성(trustworthy)은 떨어질 것이라고 여긴다

 요약하면현재 뉴스를 확인하고자 생성형 AI를 사용하는 사람들은 소수이지만 AI의 보편화에 따라 이러한 수치는 증가할 가능성이 있다사람들은 특정 유형의 작업 및 주제에서는 AI의 개입을 편안하게 받아들이지만다른 경우에서는 불편함을 표하였다기자들이 생성형 AI의 작업물을 검토하는지에 대한 대중의 확신은 미미하며따라서 라벨링의 필요성이 대두되었다그러나 어떠한 경우에 AI 개입을 명시하는 라벨링이 필요한지에 대한 구체적 비전은 확립되지 않았다. AI가 뉴스의 가치 상승에 기여하리라고 생각하는 사람은 거의 없으며이는 사람들이 AI가 생성한 뉴스를 확인하기 위하여 더 많은 비용을 지불할 가치가 없다고 판단함을 의미한다사람들은 AI가 뉴스의 신뢰도 저하를 일으키리라고 예상하지만동시에 최신 정보 확보와 언론사의 제작비 절감에는 도움을 줄 수 있을 것 같다고 답변하였다, AI가 언론사에 가져다줄 이점은 명확한 편이나 반대로 독자들은 뉴스 소비자로서 자신에게 돌아올 명확한 이점을 보지 못한다.

 

  1. AI 시대의 뉴스 보도와 윤리적 고려 사항

 위와 같은 뉴스 소비자들의 우려를 고려하면저널리즘 산업이 AI 기술을 본격적으로 도입하기 전에 윤리적 코드를 의식하는 것은 매우 중요하다언론사가 부주의하게 AI를 통해 뉴스를 생산하거나 배포한다면 콘텐츠에 인간의 편향이 내재할 수 있으며소외된 지역 사회 및 최신 기술에 접근하기 어려운 사람들과 뉴스 간의 관계성이 변질될 수 있다따라서 언론사와 데스크는 AI의 광범위하고 전반적인 영향을 지역 사회 수준에서 검토하여야 한다언론·보도의 모든 측면에 AI가 미칠 수 있는 영향에 대한 이해를 높이기 위한 교육 또한 필수적이다. AI는 더 이상 비디오나 사진 제작을 위한 단순 보조 도구가 아니며뉴스 보도와 콘텐츠 제작심지어는 언론사의 운영 방식에 더 큰 영향을 미칠 수 있다언론사가 AI 기술을 개발할 때에는 인간 중심의 접근 방식이 필수적이며, AI는 인간의 창의성과 통찰력을 보완하는 도구임을 염두에 두어야 한다

 종종 뉴스 매체에서 AI 관련 기사는 주로 기술 분야에 국한되어 있으며제품과 기능에 초점을 맞추어 비판적 또는 정치적 관점 없이 매우 낙관적으로 보도되는 경향이 있다. AI 시스템이 자원을 많이 소비하고 기후 위기에마저 영향을 미칠 수 있는데도 이에 대한 논의가 부족하다특정 언어만이 내재된 도구를 사용하였을 때 언어 불평등이 발생할 가능성이나 자국에서 제작하지 않은 도구가 국가의 안보에 미칠 영향에 대한 논의도 충분하지 않다현 시점에서 기자들이 충분히 다루지 않는 질문은 특정 형태의 기술이 가진 사회적 목적이 무엇인지그리고 발전하는 기술이 각 지역으로 하여금 어떤 대가를 치르게 하는지이다예컨대오스트리아의 미디어 보도는 극도로 기술 중심적이나전문가가 아닌 언론인에 의한 새로운 기술에 대한 보도는 때때로 어리숙하게 들리기도 한다기술 규제 측면에 대한 주제 또한 훨씬 더 전문적이고 설명 가능한(explainable) 방식으로 전달되어야 한다.

 

  1. 새로운 스토리텔링 방식이 언론사에 가져오는 변화

 AI는 콘텐츠 생성보다 스토리텔링 목적에 더 효과적으로 기여할 수 있다는 전망이 등장하였다라틴 아메리카의 에바(Eva)’ 프로젝트는 독자들이 마약 밀매 혐의로 수감된 여성과 대화할 수 있는 챗봇을 개발하였다이 프로젝트의 목적은 여성의 이야기를 통해 라틴 아메리카가 벌인 마약과의 전쟁의 실패를 효과적으로 전달하는 것이었다프로젝트의 리더들은 독자들에게 단순한 텍스트 구독 대신 더 역동적인 경험을 제공하고자 하였으며챗봇을 통해 독자들은 여성에게 직접 왜 감옥에 있는지생활은 어떤지무엇을 먹는지 등을 물을 수 있다이 프로젝트는 AI를 콘텐츠 생성에 사용하지 않았으며챗봇이 제공하는 모든 답변은 환각(hallucination) 현상의 위험과 자칫 민감한 사안을 왜곡할 가능성을 피하기 위하여 실제 인터뷰에 등장한 정확한 단어들만을 차용하였다대신, AI는 청중이 그러한 상황에 있는 여성에게 어떤 질문을 할지 예측하고 콘텐츠를 준비하는 데 도움을 주었으며같은 내용을 다양한 방식으로 묻는 질문을 챗봇이 이해하도록 훈련하는 데 사용되었다이처럼 AI를 활용하면 기자는 독자들과 이야기의 경로를 함께 디자인할 수 있고대중이 기사의 내용에 접근하는 방식에 있어 기자에게 자율성과 참신함을 부여해 궁극적으로 저널리즘에 매우 힘을 실어줄 수 있다

 새로운 기술의 발전이 마법처럼” 언론사 운영 방식을 변화시키고 업무의 효율성을 증대시키지 못할 수 있다그러나 결국 저널리즘의 최종 목표는 대중이 원하는 시간에 원하는 형식으로 원하는 뉴스를 소비할 수 있도록 하는 것이다