생성 AI: 워터마킹으로 표절 방지 가능하다.
학년이 시작되었고, 따라서 학교에서 생성 AI의 새로운 역할에 대한 새로운 담론이 시작되었다. 약 3년 만에 에세이는 모든 곳의 교실 교육의 주류에서 훨씬 덜 유용한 도구로 전락했다. 그 이유는 하나뿐이다. 바로 ChatGPT이다. 에세이에 ChatGPT를 사용하는 학생 수에 대한 추정치는 다양하지만, 교사들이 적응하도록 강요할 만큼 흔한 일이다.
생성 AI에는 많은 한계가 있지만, 학생 에세이는 그들이 매우 잘하는 서비스 범주에 속한다. 훈련 데이터에는 지정된 주제에 대한 에세이의 예가 많고, 그러한 에세이에 대한 엄청난 양의 수요가 있으며, 학생 에세이의 산문 품질과 독창적인 연구에 대한 표준이 그렇게 높지 않다.
현재 AI 도구를 사용하여 에세이를 부정하는 것은 적발하기 어렵다. 많은 도구는 텍스트가 AI에서 생성되었는지 확인할 수 있다고 광고하지만 그다지 신뢰할 만하지 않다. 학생을 표절했다고 거짓으로 고발하는 것이 큰 문제이기 때문에 이러한 도구는 효과가 있으려면 매우 정확해야 하지만 그렇지 않다.
기술을 이용한 AI 지문
하지만 여기에는 기술적 솔루션이 있다. 2022년, 양자 컴퓨팅 연구원 스콧 아론슨(Scott Aaronson)이 이끄는 OpenAI의 한 팀은 최종 사용자가 여기저기서 몇 개의 단어를 바꾸거나 텍스트를 재배치하더라도 AI 텍스트를 사실상 혼동할 수 없게 만드는 "워터마킹" 솔루션을 개발했다. 이 솔루션은 기술적으로 약간 복잡하지만, 매우 흥미롭기 때문에 참아주길 바란다.
AI 텍스트 생성의 핵심은 AI가 지금까지 텍스트에 나타난 내용을 바탕으로 가능한 다음 토큰을 "추측"한다는 것이다. 지나치게 예측 가능하지 않고 지속적으로 동일한 반복 출력을 생성하지 않기 위해 AI 모델은 가장 가능성 있는 토큰을 추측하는 것이 아니라 무작위 요소를 포함하여 "더 가능성이 높은" 완성을 선호하지만 때로는 가능성이 낮은 완성을 선택한다.
이 단계에서는 워터마킹이 작동한다. AI가 무작위 선택에 따라 다음 토큰을 생성하는 대신, AI가 무작위가 아닌 프로세스를 사용한다. OpenAI가 발명한 내부 "점수" 함수에서 높은 점수를 받는 다음 토큰을 선호한다. 예를 들어, V 문자가 있는 단어를 약간 선호하여 이 점수 규칙으로 생성된 텍스트가 일반적인 인간 텍스트보다 20% 더 많은 V를 가질 수 있다(실제 점수 함수는 이보다 더 복잡하지만). 독자는 일반적으로 이것을 알아차리지 못할 것이다. 사실, 나는 이 뉴스레터에서 V의 수를 늘리기 위해 편집했고, 나의 일반적인 글에서 이런 변화가 두드러졌을 것 이라고는 생각하지 않는다.
마찬가지로 워터마크가 있는 텍스트는 한눈에 일반 AI 출력과 다르지 않을 것이다. 그러나 비밀 점수 규칙을 아는 OpenAI가 주어진 텍스트 본문이 인간이 생성한 텍스트보다 숨겨진 점수 규칙에서 훨씬 더 높은 점수를 받는지 여부를 평가하는 것은 간단할 것이다. 예를 들어, 점수 규칙이 V 문자에 대한 위의 예라면, 이 뉴스레터를 검증 프로그램을 통해 실행하면 1,200단어에 약 90개의 V가 있다는 것을 알 수 있다. 영어에서 V가 얼마나 자주 사용되는지에 따라 예상했던 것보다 더 많은 것이다. 어려운 문제에 대한 영리하고 기술적으로 정교한 솔루션이며 OpenAI는 2년 동안 작동하는 프로토타입을 가지고 있었다.
따라서 AI 텍스트가 인간이 쓴 텍스트로 위장하는 문제를 해결하고 싶다면, 매우 쉽게 해결할 수 있다. 하지만 OpenAI는 워터마킹 시스템을 출시하지 않았고 업계의 다른 누구도 출시하지 않았다. 왜 그럴까?
모두 경쟁에 관한 것이다.
OpenAI(그리고 OpenAI만)가 ChatGPT에 워터마킹 시스템을 출시하여 생성 AI가 텍스트를 생성한 시점을 쉽게 알 수 있게 했다면 학생 에세이 표절에 아무런 영향도 미치지 않았을 것이다. 소문이 빠르게 퍼져나가고 모두가 오늘날 사용 가능한 여러 AI 옵션 중 하나로 전환할 것이다. Meta의 Llama, Anthropic의 Claude, Google의 Gemini이다. 표절은 계속될 것이고 OpenAI는 많은 사용자 기반을 잃을 것이다. 따라서 그들이 워터마킹 시스템을 비밀로 유지하는 것은 놀라운 일이 아니다.
이런 상황에서 규제 기관이 개입하는 것이 적절해 보일 수 있다. 모든 생성 AI 시스템에 워터마킹이 필요하다면 경쟁에서 불리하지 않다. 이것이 올해 캘리포니아 주 의회에서 도입된 법안의 논리이다. 캘리포니아 디지털 콘텐츠 출처 표준으로, 생성 AI 제공자는 AI에서 생성된 콘텐츠를 감지 가능하게 만들고, 제공자는 생성 AI에 라벨을 붙이고 사기성 콘텐츠를 제거하도록 요구한다. OpenAI는 이 법안에 찬성한다. 놀랍지 않게도, 그들은 이를 수행하는 시스템을 보유한 유일한 생성 AI 제공자이다. 경쟁자들은 대부분 반대한다.
나는 생성 AI 콘텐츠에 대한 일종의 워터마킹 요구 사항을 전반적으로 지지한다. AI는 엄청나게 유용할 수 있지만, 생산적인 용도로 사용하려면 인간이 만든 것처럼 가장할 필요가 없다. 그리고 신문사가 우리 기자를 AI로 대체하는 것을 금지하는 것이 정부의 역할이라고 생각하지는 않지만, 매체가 독자들에게 읽고 있는 콘텐츠가 실제 인간이 만든 것인지에 대해 잘못된 정보를 제공하는 것은 원치 않는다.
나는 일종의 워터마킹 의무를 원하지만, 구현이 가능한지 잘 모르겠다. 출시된 "오픈" AI 모델 중 최고(최신 Llama와 같은)는 사용자가 자신의 컴퓨터에서 직접 실행할 수 있는 모델로, 품질이 매우 좋다. 학생 에세이에 충분히 좋다. 이미 나와 있고, 누구나 현재 버전을 실행할 수 있고 향후 버전에서 어떤 업데이트가 적용되든 워터마킹을 추가할 방법이 없다. (이것은 오픈 모델에 대한 복잡한 감정을 갖게 된 여러 가지 이유 중 하나이다. 오픈 모델은 엄청난 양의 창의성, 연구, 발견을 가능하게 하며, 또한 우리가 그렇지 않으면 정말 원할 법한 모든 종류의 상식적인 사칭 방지 또는 아동 성적 학대 방지 자료 조치를 취하는 것을 불가능하게 만든다.)
워터마킹이 가능하더라도, 나는 그것을 믿을 수 없다고 생각한다. 즉, 사회에서 쉬운 AI 생성 콘텐츠의 편재성을 해결하는 방법을 알아내야 한다는 것을 의미한다. 교사들은 이미 수업 내 에세이 요구 사항과 학생들의 부정행위를 줄이기 위한 다른 접근 방식으로 전환하고 있다. 대학 입학 에세이도 사라질 가능성이 높다. 솔직히 말해서, 학생을 선발하는 데 에세이가 좋은 방법이 아니었기 때문에 좋은 소식이 될 것이다.
하지만 대학 입학 에세이에 대해 크게 애석해하지는 않을 것이고, 교사들이 학생들을 평가하는 더 나은 방법을 찾을 수 있다고 생각하지만, 나는 이 전체 사가에서 몇 가지 걱정스러운 추세를 알아차렸다. 사칭과 표절과 같은 명백한 단점 없이 AI의 이점을 활용할 수 있는 간단한 방법이 있었지만, AI 개발이 너무 빨리 진행되어 사회가 거의 기회를 그냥 지나쳤다. 개별 연구실에서 이를 수행할 수 있지만, 경쟁에서 불리한 입장에 처하게 되어 수행하지 않을 것이다. 그리고 모든 사람이 이를 수행하도록 하는 좋은 방법이 있을 가능성은 없다.
학교 표절 논쟁에서 위험은 낮다. 하지만 AI 워터마킹 논쟁에서 반영된 동일한 역학 관계(상업적 인센티브가 기업의 자체 규제를 막고 변화 속도가 너무 늦을 때까지 외부 규제 기관이 개입하지 못함)가 위험 요소가 높아짐에 따라 유지될 가능성이 높다.
이미지 설명: 미국 회사 OpenAI가 개발한 언어 프로그램은 인공지능을 사용하여 0과 1로 구성된 무작위 바이너리 코드를 작성한다. Frank Rumpenhorst/picture alliance via Getty Images
글쓴이: 켈시 파이퍼/ 수석 작가
켈시 파이퍼는 Vox의 효과적 이타주의에서 영감을 받은 세계 최대의 과제에 대한 섹션인 Future Perfect의 수석 작가이다. 그녀는 기후 변화에서 인공지능, 백신 개발에서 공장식 농장에 이르기까지 광범위한 주제를 탐구한다. 그녀는 지구상의 모든 사람에게 번영을 가져다주는 방법, 과학에 자금을 지원하고 수행하는 방법, 새로운 기술을 잘 활용하는 방법, 혼란스럽고 불확실하며 빠르게 움직이는 시대에 세상을 이해하는 방법에 관심이 있다.