전 세계적으로 가장 많이 방문하는 웹사이트이자 수많은 AI 모델의 학습 데이터 원천인 위키백과가 최근 AI 생성 텍스트에 대한 명확한 선을 그었습니다. 오랫동안 커뮤니티 내에서 논의가 이어져 온 이 정책은 이제 영어판 위키백과를 중심으로 공식적으로 시행되며, AI 시대의 정보 신뢰도 문제를 어떻게 해결할 것인지에 대한 전 세계의 이목을 집중시키고 있습니다. 특히 AI 가 생성한 내용이 위키백과에 유입되면, 다시 AI 모델의 학습 데이터로 사용되면서 오류가 증폭되는 악순환이 발생할 수 있다는 우려가 정책 결정의 핵심 배경이 되었습니다.
위키백과 관리자들은 과거 포괄적인 가이드라인 시도가 실패한 경험을 바탕으로, 이번에는 더 구체적이고 실행 가능한 규칙을 마련했습니다. Chaotic Enby 라는 위키백과 관리자는 이전 제안들이 너무 광범위하거나 모호하다는 비판을 받았음을 언급하며, 합의는 있었으나 구체적인 실행 방안이 부재했던 상황을 설명했습니다. 이에 따라 새로운 정책은 AI 가 직접 작성하거나 기존 글을 대폭 재작성하는 것을 원칙적으로 금지합니다. 이는 AI 가 인용된 출처를 바탕으로 하지 않은 내용을 생성하거나, 의도치 않게 글의 의미를 왜곡할 가능성을 차단하기 위함입니다.
하지만 이 금지령은 AI 를 완전히 배제하는 것이 아니라, 그 활용 방식을 제한적으로 허용하는 방향으로 설계되었습니다. 첫 번째 예외는 편집 보조 도구로서의 활용입니다. 편집자가 직접 작성한 글을 문법 검사기처럼 다듬거나 스타일을 개선할 때 AI 를 사용할 수 있으며, 이때 편집자는 AI 가 제안한 수정 사항이 원래 의도와 출처에 부합하는지 반드시 검증해야 합니다. 두 번째 예외는 번역 지원입니다. 편집자가 AI 를 이용해 초안 번역을 수행할 수는 있으나, 해당 언어에 능통하여 번역의 정확성을 직접 확인할 수 있어야 합니다. 이러한 예외 조항은 AI 를 단순한 대량 생산 도구가 아닌, 인간의 판단을 보조하는 도구로 위치 짓는 위키백과의 철학을 보여줍니다.
이번 정책은 특히 2026 년 3 월에 종료된 의견 수렴 과정에서 44 대 2 라는 압도적인 찬성으로 확정된 바 있습니다. 이는 위키백과 커뮤니티가 AI 의 편의성보다 정보의 정확성과 편집자 커뮤니티의 부담을 더 중요하게 여긴다는 것을 시사합니다. 실제로 TomWikiAssist 라는 이름의 의심스러운 AI 에이전트가 수개월간 여러 기사를 작성하고 수정한 사례는 AI 가 생성한 콘텐츠가 검증 없이 퍼질 경우 발생할 수 있는 혼란을 잘 보여줍니다. 앞으로 다른 언어판 위키백과들이 이 영어판의 정책을 어떻게 수용하거나 변형할지, 그리고 AI 생성 콘텐츠의 식별 기술이 발전함에 따라 이 정책이 어떻게 진화할지가 주목됩니다. 위키백과의 이번 조치는 단순한 규칙 변경을 넘어, 인간과 기계가 함께 지식을 만들어가는 과정에서 신뢰를 어떻게 유지할 것인지에 대한 중요한 시금석이 될 것입니다.