기업에서는 뉴스를 비롯한 미디어 콘텐츠를 생성하여 고객 참여를 유도하기 위해 인공지능(AI)을 점점 더 많이 활용하고 있다. 이제 우리는 뉴스의 "게임화", 즉 뉴스 콘텐츠와 관련된 상호 작용을 생성하는 데 AI가 사용되는 것을 보고 있다.
그녀는 어떻게 죽었는가?
당신이 시드니의 명문 학교에서 젊은 스포츠 코치의 죽음에 관한 비극적인 기사를 읽고 있다고 상상해 보라.
오른쪽 상자에는 사망 원인에 대해 추측하도록 요청하는 설문 조사가 있다. 여론조사는 AI로 생성된다. 이는 귀하가 스토리에 계속 참여하도록 설계되었다. 이를 통해 설문 조사 운영자가 제공하는 광고에 응답할 가능성이 높아진다.
이 시나리오는 가상이 아니다. 이는 릴리 제임스(Lilie James)의 죽음에 대한 최근 가디언(The Guardian)의 보도에서 드러났다.
라이선스 계약에 따라 Microsoft는 뉴스 앱과 웹 사이트 Microsoft Start에 가디언의 기사를 다시 게시했다. 이번 여론조사는 기사 내용을 토대로 진행됐고 기사와 함께 게재됐지만 가디언은 이에 관여하거나 통제하지 않았다.
기사가 다가오는 스포츠 경기에 관한 것이라면 예상되는 결과에 대한 여론 조사는 무해했을 것이다. 그러나 이 예는 AI가 전통적으로 전문가가 선별한 제품인 뉴스 페이지와 섞이기 시작할 때 얼마나 문제가 될 수 있는지를 보여준다.
이 사건은 합리적인 분노를 불러일으켰다. 가디언 미디어 그룹의 CEO 애나 베이트슨은 Microsoft사장 브래드 스미스에게 보낸 서한에서 “genAI(생성 AI)의 부적절한 사용”이 가디언과 기사를 쓴 기자에게 “심각한 평판 손상”을 입혔다고 말했다.
당연히 설문조사는 삭제되었다. 그러나 이는 다음과 같은 질문을 제기한다. 왜 Microsoft는 애초에 이러한 일이 발생하도록 허용했을까?
상식을 생략한 결과
대답의 첫 번째 부분은 텍사스 대학교 미디어 참여 센터의 연구에 따르면 여론 조사나 퀴즈와 같은 보충 뉴스 제품이 실제로 독자의 관심을 끌 수 있다는 것이다.
이러한 목적으로 AI를 사용하는 것이 얼마나 저렴한지를 고려하면, 뉴스 비즈니스(및 다른 사람의 뉴스를 표시하는 비즈니스)는 계속해서 그렇게 할 것으로 보인다.
대답의 두 번째 부분은 Microsoft 사건에 "루프에 사람이 개입"되지 않았거나 사람의 개입이 제한적이라는 것이다.
다양한 AI 프로그램을 뒷받침하는 모델인 대규모 언어 모델의 주요 제공업체는 프로그램이 해를 끼치지 않도록 하는 재정적, 평판적 인센티브를 갖고 있다. GPT 모델과 DAll-E를 갖춘 개방형 AI, PaLM 2(Bard에서 사용됨)를 갖춘 Google, 다운로드 가능한 Llama 2를 갖춘 Meta는 모두 해당 모델이 유해한 콘텐츠를 생성하지 않도록 하기 위해 상당한 노력을 기울였다.
그들은 종종 인간이 해를 끼칠 수 있는 질문에 대한 응답을 선별하는 "강화 학습"이라는 프로세스를 통해 이를 수행한다. 하지만 이것이 모델이 부적절한 콘텐츠를 생성하는 것을 항상 막는 것은 아니다.
Microsoft는 모델의 실제 사용으로 인해 발생할 수 있는 피해를 최소화하는 방법을 고려하기보다는 AI의 피해가 적은 측면에 의존했을 가능성이 높다. 후자는 상식이 필요하다. 이는 대규모 언어 모델로 프로그래밍할 수 없는 특성이다.
매주 수천 개의 AI 생성 기사
생성 AI(Generative AI)는 접근 가능하고 저렴해지고 있다. 이는 수익 손실로 인해 어려움을 겪고 있는 상업 뉴스 비즈니스에 매력적이다. 따라서 우리는 이제 AI가 뉴스 기사를 "작성"하여 기업이 기자 급여를 지불하지 않아도 되는 것을 보고 있다.
지난 6월 뉴스 코퍼레이션(News Corp)의 마이클 밀러(Michael Miller) 회장은 회사에 AI를 사용하여 매주 약 3,000개의 기사를 작성하는 소규모 팀이 있다고 밝혔다.
기본적으로 4명으로 구성된 팀은 콘텐츠가 의미가 있는지 확인하고 '환각'(입력에 대한 적절한 응답을 예측할 수 없을 때 모델이 만들어낸 잘못된 정보)을 포함하지 않도록 한다.
이 뉴스는 정확할 가능성이 높지만, 동일한 도구를 사용하여 잠재적으로 오해의 소지가 있는 콘텐츠를 뉴스로 분류하여 전문 저널리스트가 작성한 기사와 거의 구별할 수 없게 만들 수 있다.
4월부터 NewsGuard 조사에 따르면 여러 언어로 작성된 수백 개의 웹사이트가 AI에 의해 생성되어 실제 뉴스 사이트를 모방한 것으로 나타났다. 이들 중 일부에는 조 바이든 미국 대통령이 사망했다는 주장과 같은 유해한 잘못된 정보가 포함되어 있었다.
광고가 난무하는 사이트는 광고 수익을 얻기 위해 만들어진 것으로 보인다.
기술이 발전할수록 위험도 증가한다.
일반적으로 많은 대규모 언어 모델은 기본 교육 데이터로 인해 제한되었다. 예를 들어, 2021년까지의 데이터로 훈련된 모델은 2022년에 세계에서 일어날 사건에 대한 정확한 '뉴스'를 제공하지 않는다.
그러나 이제는 특정 소스에 대응하도록 모델을 미세 조정할 수 있으므로 상황이 바뀌고 있다. 최근 몇 달 동안 "검색 증강 생성"이라는 AI 프레임워크의 사용이 진화하여 모델이 최신 데이터를 사용할 수 있게 되었다.
이 방법을 사용하면 소수의 뉴스 매체에서 라이센스된 콘텐츠를 사용하여 뉴스 웹 사이트를 만드는 것이 확실히 가능할 것이다.
이는 비즈니스 관점에서는 편리할 수 있지만 AI가 뉴스 생성 및 전파 과정에서 인간을 루프에서 밀어낼 수 있는 또 하나의 잠재적인 방법이다.
편집을 통해 선별된 뉴스 페이지는 가치 있고 깊이 고려된 제품이다. AI가 이 작업을 수행하게 되면 우리는 모든 종류의 잘못된 정보와 편견(특히 인간의 감독 없이)에 노출되거나 중요한 현지화된 보도가 부족해질 수 있다.
모퉁이를 자르면 우리 모두가 패배자가 될 수 있다
호주의 뉴스 미디어 교섭 규정은 거대 기술 기업과 미디어 기업 간의 "평등한 경쟁의 장"을 위해 고안되었다. 코드가 발효된 이후 이제 생성 AI 사용으로 인한 2차 변화가 유입되고 있다.
클릭 가치를 제쳐두고 현재 언론인이 생산할 수 있는 뉴스의 품질과 AI가 생산할 수 있는 뉴스의 품질을 비교할 수는 없다.
생성 AI는 대량의 콘텐츠를 분류하는 등 저널리스트의 업무를 강화하는 데 도움이 될 수 있지만 이를 대체물로 간주하기 시작하면 잃을 것이 많다.