[딥폴리시] 실시간 데이터의 함정, 정책 왜곡을 막는 방법
입력
수정
잠정치와 수정에 따라 달라지는 경제 지표 정보 과잉과 즉시성 집착이 부르는 정책 왜곡 리플레이 버퍼와 인과 검증을 통한 안정적 대응 체계
본 기사는 스위스 인공지능연구소(SIAI)의 SIAI Business Review 시리즈 기고문을 한국 시장 상황에 맞춰 재구성한 글입니다. 본 시리즈는 최신 기술·경제·정책 이슈에 대해 연구자의 시각을 담아, 일반 독자들에게도 이해하기 쉽게 전달하는 것을 목표로 합니다. 기사에 담긴 견해는 집필자의 개인적 의견이며, SIAI 또는 그 소속 기관의 공식 입장과 일치하지 않을 수 있습니다.
2025년 2월 미국 노동부는 고용 통계를 정정해 2024년 고용 증가 건수를 59만 8,000개 줄였다. 같은 시기 영국도 국내총생산(GDP) 통계를 다시 산출해 팬데믹 이후 성장 경로를 상향 조정했다. 2024년 중반 GDP 수준과 2020년 이후 누적 실질 성장률이 모두 높아진 것이다. 이러한 변화는 단순한 통계 보정이 아니라 정책 판단의 토대를 흔드는 결과다. 잠정치에 의존해 성급히 정책을 추진하면 실제 상황과 괴리가 커질 수 있다. 본질적 문제는 데이터가 아니라 초기 수치를 확정치로 오인해 즉각 대응하는 관행에 있다.

즉시성의 함정
실시간 지표는 정책 판단에 필수적이다. 그러나 즉시성에 매달릴수록 체계적 편향이 생긴다. 시간은 부족하고 부담은 큰 상황에서 과도한 정보는 판단을 흐린다. 발표 직후의 통계는 자기상관이 높고 잦은 정정으로 일시적 충격을 추세로 오인하게 만든다. 따라서 최근 정보를 반영하되 비중을 절제하는 의사결정 구조가 필요하다.
정보 과잉의 위험
정보가 많다고 판단의 질이 나아지는 것은 아니다. 일정 수준을 넘으면 오히려 의사결정이 흔들린다. 위기 상황에서 신호가 늘어날수록 인지 부하는 커지고, 사람들은 불확실한 단서를 과대평가하거나 의미 없는 잡음을 신호로 착각한다. 심리학 연구는 이런 과부하가 이해도를 낮추고 선택 만족도를 떨어뜨리며 단순한 판단법에 의존하게 만든다고 지적한다.
정책 현장은 긴급성, 여론, 이해관계가 얽히며 이러한 부작용이 더 커진다. 소셜미디어는 피로를 높여 허위 정보에 취약하게 만들고, 신뢰성보다 접근성이 좋은 정보가 우선시되게 한다. 결국 필터링과 제시 방식이 바뀌지 않는 한, 데이터가 늘어날수록 정책은 숙고보다 즉흥에 기울기 쉽다.
수정이 바꾸는 경제 현실
초기 통계는 시간이 지나면서 크게 정정되곤 한다. 최근에는 그 폭과 방향이 커지며 정책에도 직접적인 영향을 미치고 있다. 미국 고용 통계만 해도 장기적으로는 전체 고용의 약 0.2% 조정에 그치지만, 단기적으로는 이 작은 차이가 정책 결정을 흔들 만큼 크다. 초기 수치를 확정치로 받아들이는 것은 위험하다.
영국의 경제통계 연감인 ‘블루북(Blue Book)’도 해마다 개편될 때마다 팬데믹 시기의 성장 경로를 달리 보여줬다. 2024년에는 명목 GDP와 실질 성장률이 상향됐고, 2025년에도 산출 방식이 바뀌면서 결과가 다시 달라졌다. 유로존의 GDP 속보치 역시 최종치가 아닌 잠정치다. 결국 오늘 발표되는 수치는 확정되기를 기다리는 추정치다. 정책은 이 차이를 전제로 완충 장치를 갖춰야 한다.
전망도 불안정하다. 유럽중앙은행(ECB)은 인플레이션 예측 실패의 원인을 에너지 가격 변수에서 찾았다. 영국중앙은행은 벤 버냉키 전 미국 연방준비제도 의장이 이끈 외부 검토에서 상당한 한계를 인정했다. 미국 클리블랜드 연준의 ‘나우캐스팅(nowcasting)’ 연구는 혼합 빈도 모델이 전문가 합의를 앞서는 사례를 보여줬지만, 정정 과정에서 드러나는 불확실성은 피하지 못했다. 중요한 것은 특정 시점의 정확도가 아니라 데이터가 수정될 때도 결과가 얼마나 안정적으로 유지되는가다. 수정 위험을 함께 제시하지 않는다면 실시간 체계는 확신에 찬 오류를 반복할 수밖에 없다.

주: (a) 미국 GDP, (b) 유로 지역 GDP, (c) 미국 소비자 물가지수, (d) 유로 지역 소비자 물가지수/실제 데이터(검은색 실선), 단기 전망치(색 점), 설문 기관 중기 전망치(색 실선)
데이터 활용의 새로운 길
대안은 인공지능에서 쓰이는 ‘경험 리플레이(Experience Replay)’ 개념에서 찾을 수 있다. 머신러닝(ML) 분야의 심층 Q-네트워크(Deep Q-Network, DQN)는 학습 과정에서 과거 데이터를 저장한 ‘리플레이 버퍼’와 최신 데이터를 함께 활용한다. 이렇게 하면 연속된 관측치에서 생기는 자기상관을 끊고, 일시적 충격에 과도하게 끌려가는 문제를 막을 수 있다. ‘우선순위 리플레이’는 학습 가치가 큰 데이터를 더 자주 반영하되 편향은 최소화한다.
정책도 같은 원리를 적용할 수 있다. 과거 흐름과 현재 신호를 함께 고려하고, 수정 가능성을 분석 모델에 반영하며, 사건이 겹칠 때는 반드시 인과관계를 구분해야 한다. 핵심은 데이터양을 줄이는 것이 아니라 순간의 압박에도 흔들리지 않는 구조를 갖추는 데 있다. 의사결정 과정에서 다양한 시계열을 함께 검토하고, 수정 위험이 낮은 지표에는 비중을 높이고, 변동성이 큰 지표에는 낮은 비중을 두는 방식이 필요하다. 이렇게 하면 단일 지표가 논의를 좌우하는 상황을 피할 수 있다.
또 다른 원칙은 지표가 보여주는 현재 상황과 그 원인을 구분하는 것이다. 정책과 결과가 동시에 얽혀 있을 때는 이를 풀어줄 외부 단서가 필요하다. 경제학의 도구 변수(Instrumental Variable, IV) 기법이 이런 경우에 유용하다. 예를 들어 임금 보조금이 고용을 늘렸는지를 확인하려면, 정책과 직접 관련은 없지만 효과를 가늠할 수 있는 외부 요인이 필요하다. 날씨에 따른 에너지 공급 차질, OPEC 결정 이후 국제 유가 변동, 특정 글로벌 가격 흐름 등이 그 단서가 된다.
절차의 안정화
행정기관은 변동성이 큰 지표에 기반한 결정을 내릴 때 일정한 유예 기간을 두고, 예측 오류와 모델 성과를 공개해야 한다. 중앙은행과 재무 당국은 주요 통계 발표 때마다 수정 가능성을 반영한 범위를 함께 제시해 국민이 해당 수치를 최종치가 아니라 잠정치로 이해하도록 해야 한다. 단기적으로는 새 데이터가 과거 흐름을 압도하지 않도록 점진적 가중치를 적용하고, 장기적으로는 초기 대응 속도보다 수정 이후에도 정책 판단이 얼마나 일관되게 유지되는지를 평가 기준으로 삼아야 한다.
일각에서는 경제가 워낙 급변하기 때문에 정책 결정을 한 달만 늦춰도 치명적 결과가 온다고 주장한다. 그러나 대응의 핵심은 속도와 신중함 사이에서 균형을 찾는 데 있다. 수정 위험이 크면 이틀 정도의 유예를 두고, 위험이 낮으면 즉시 대응하는 방식으로 조정할 수 있다. 과거와 현재 데이터를 함께 반영하는 리플레이 버퍼 방식은 결정을 늦추는 것이 아니라 고려할 정보를 재구성하는 절차다. 도구 변수 기법 역시 장기간 연구가 아니라 제한된 시간 안에서 신뢰성 있는 원인을 찾는 수단이다.
경제 구조가 바뀌는 시기에는 과거 데이터에 의존하는 것이 위험할 수 있다. 따라서 중요한 것은 멈추는 것이 아니라 초점을 조정하는 일이다. 점진적 가중치는 새 데이터가 반복적으로 신뢰성을 입증할 때 비중을 서서히 늘린다. 결국 필요한 것은 겸손이며, 이를 절차에 내재화할 때 정책 문화로 자리 잡는다.
안정적 대응의 원칙
경제 통계는 발표 뒤에 수정되거나 계산 방식이 바뀌면서 크게 달라질 수 있다. 이러한 변동은 앞으로도 반복된다. 데이터의 불안정성은 피할 수 없지만 대응 방식은 바꿀 수 있다. 잠정치를 확정치로 오인하면 정책은 왜곡된다. 긴축은 늦어지고 완화는 서둘러 시행되며, 재정은 어떤 분야에는 과도하게 쓰이고 다른 분야에는 부족하게 배분된다.
해법은 속도를 늦추는 것이 아니라 절차를 안정적으로 운영하는 것이다. 의사결정 과정에서 과거와 현재 데이터를 함께 반영하고, 인과관계 검증을 거치며, 수정 가능성을 전제로 삼아야 한다. 정책은 데이터의 변동에 흔들리기보다 완충 장치를 두고, 시간이 지나도 일관된 판단으로 평가받아야 한다. 데이터는 계속 바뀌지만, 정책의 신뢰는 안정적 절차에서 나온다.
본 연구 기사의 원문은 The Perils of the Now: How to Stop Real-Time Data from Making Policy Worse을 참고해 주시기 바랍니다. 본 기사의 저작권은 스위스 인공지능연구소(SIAI)에 있습니다.