입력
수정
챗GPT 월간 트래픽 8억 건 목전
인간 협업 구조 대체하는 AI
비판적 사고 약화 등 우려 존재

챗GPT를 비롯한 생성형 인공지능(AI)의 확산으로 위키피디아, 네이버 지식인 등 기존 집단지성 기반 지식 플랫폼이 빠르게 밀려나고 있다. 요약 중심의 응답 구조는 사용자 편의성을 높였지만, 다양한 관점과 맥락을 반영하는 집단 협업 모델의 약화로 이어지고 있다. 정보 소비 방식이 탐색과 토론에서 즉답과 수용으로 변하면서 지식 생태계 또한 근본적 전환점을 맞이한 모습이다.
전통 지식 플랫폼 방문자 감소세 뚜렷
11일 업계에 따르면 올해 들어 챗GPT의 월간 웹 트래픽(방문자)은 위키피디아의 성적을 처음으로 앞섰다. 업체마다 집계 방식과 수치가 조금씩 다르지만 영국 GWI를 비롯한 다수의 글로벌 시장조사업체는 지난 4월을 기점으로 챗GPT 방문자가 위키피디아를 추월했다고 보고 있다. 미국으로 범위를 좁히면, 챗GPT의 월간 트래픽은 출시 이후 꾸준히 증가해 지난 4월 7억8,000만 건을 기록했다. 반면 위키피디아는 7억1,600만 건으로 본격적인 감소세에 돌입했다.
사용자 감소에 직면한 건 비단 위키피디아만이 아니다. 네이버 지식인도 비슷한 하락세를 걷고 있다. 한때 한국 내 대표적인 Q&A 플랫폼으로 수많은 이용자의 질문과 답변이 오가던 공간이지만, 지금은 새로운 질문과 답변 참여율 모두 하락세다. 네이버에 의하면 2022년 2,459만 개였던 지식인 총 질문 수는 지난해 1,548만 개로 줄었다. 감소세는 올해까지 이어지면서 1월 한 달간 125만 개였던 질문이 지난 4월에는 93만 개까지 쪼그라들었다.
이 같은 변화는 사용자 경험(UX)의 기준이 바뀐 시대에 제대로 대응하지 못한 대표적 사례로 지목된다. 정보의 신뢰성과 다양성을 추구하는 전통적 지식 플랫폼의 구조가 지금의 사용자들에게는 지나치게 복잡하고 시간을 잡아먹는 시스템으로 다가온단 지적이다. 특히 모바일 환경에서는 클릭 수를 줄이고 간결하게 답을 얻는 흐름이 대세가 되면서 전통 플랫폼의 존재감 또한 점점 약해지는 추세다. 이를 두고 김주호 KAIST 전산학부 교수는 “플랫폼과 달리 AI는 질문 의도까지 파악해 답한다”며 “수도꼭지 틀면 물이 나오듯 지식을 쉽게 얻는 길이 열린 것”이라고 표현하기도 했다.
공동체 기반 정보 생산 모델 ‘흔들’
개발자 커뮤니티로 유명한 스택오버플로우(Stack Overflow)도 비슷한 경로를 밟고 있다. 스택오버플로우에 따르면 지난 5월 1일부터 같은 26일까지 이 플랫폼에 올라온 게시글 수는 1만6,207개로 집계됐다. 이는 지난해 월평균 게시글 수(6만5,787개) 대비 4분의 1토막 수준이다. 2008년 설립된 스택오버플로우는 코딩 관련 실전 노하우를 담은 질문과 답변이 공유돼 개발자들에게는 ‘성지’로 불리는 플랫폼이다.
위키피디아나 네이버 지식인, 스택오버플로우 같은 플랫폼은 기본적으로 ‘집단지성’을 기반으로 한다. 불특정 다수의 사용자가 각자의 전문성과 경험을 바탕으로 정보를 공유하고, 이를 다른 사용자들이 보완하거나 반박하는 방식으로 지식이 정제되는 식이다. 이러한 구조는 단순한 정보 공유를 넘어 협업 기반의 지식 구축이라는 점에서 매우 큰 가치를 가진다.
하지만 AI가 그 자리를 빠르게 대체하고 있다. GPT 기반 챗봇이나 검색 보조형 AI는 인간이 축적한 방대한 정보를 학습하고, 이를 정제된 형태로 재구성해 제공한다. 사용자는 더 이상 수많은 문서를 훑어보거나, 포럼을 탐색하며 최적의 해답을 찾을 필요가 없다. 질문을 한 번 던지면 가장 유력한 답이 바로 주어진다. 지식의 생성과 유통이 ‘다수의 협업’을 지나 ‘단일 모델의 응답’으로 바뀌고 있는 셈이다.

다양성과 신뢰성, AI가 놓치고 있는 것들
일각에선 이러한 변화가 정보의 다양성과 해석의 폭을 심각하게 제한할 수 있다는 우려의 목소리가 나온다. 실제로 위키피디아나 네이버 지식인 같은 플랫폼은 같은 질문에 대해 서로 다른 관점에서 접근하는 다양한 답변들이 존재하고, 그 과정에서 이용자 스스로 판단하고 해석하는 여지가 있다. 반면 AI는 특정 질문에 대개 하나의 답을 제공하며, 그 배경이나 관점의 차이를 충분히 설명하지 않는 경우가 주를 이룬다.
이는 곧 정보의 신뢰도 문제로 이어진다. 생성형 AI는 학습된 데이터를 기반으로 응답을 생성하지만, 그 과정에서 오류나 편향된 정보가 포함될 가능성이 항상 존재한다. 특히 사실관계가 중요하거나 맥락이 복잡한 이슈에서는 AI의 응답이 단정적이면서도 실제와 다른 내용을 포함할 공산이 크다. 위키피디아처럼 다수의 편집자가 오류를 수정하고, 지식인처럼 다른 이용자들이 잘못된 답변에 반론을 제기하는 구조와 비교하면 AI의 단일 응답은 검증 시스템이 상대적으로 취약하다고 할 수 있다.
집단지성이 가진 핵심 가치 중 하나인 ‘논쟁 가능성’이 차단됐다는 점도 AI가 극복하지 못하는 한계다. 하나의 주제에 대해 여러 해석이 충돌하고, 그 안에서 이용자들은 자기 입장을 고민하며 생각을 확장할 수 있었다. 그러나 AI는 그런 논쟁적 구조를 삭제한 채 확률적으로 가장 높은 답을 찾는다. 이는 편리성 측면에서는 매우 유리하지만, 자칫 이용자의 비판적 사고를 약화시킬 수 있다. 빠른 답을 얻는 시대에도 여전히 토론과 비판, 다층적 해석의 공간이 필요한 이유다.