입력
수정
최근 인공지능(AI)이 실제로 인간의 일자리에 타격을 주고 있다는 통계가 나왔다. 워싱턴포스트에 따르면 미국 내 기업들이 지난달 정리해고를 결정한 직원 규모는 모두 8만 명이 넘는 것으로 추산되는데, 이 가운데 5%에 해당하는 3,900명의 해고 이유가 바로 AI 때문인 것으로 조사됐다. 생성형 AI인 챗GPT가 출시된 지 불과 7개월 만이다.
일각에서는 AI의 일자리 잠식이 더욱 확대될 거란 우려가 나오는 반면 AI로 인해 되레 직업이 다양해질 것이라는 긍정적인 전망도 적지 않다. 이런 가운데 유럽연합(EU)은 지난달 챗GPT, 미드저니 등 생성형 AI 기술을 규제하기 위한 AI 규제법안을 채택하고 연말 전 최종 결과물을 도출하는 것을 목표로 하고 있다.
EU의 AI 규제법은 AI 시스템을 위험 수준에 따라 최소위험, 제한된 위험, 고위험, 수용불가위험 등 4단계로 분류하고, 단계별로 다른 강제 규칙을 적용하고 있다. 법안은 포괄적인 AI 규제보다는 가장 위험한 분야에 집중한 모습이다. 특히 인간의 잠재의식에 영향을 미쳐 행동을 조작하는 AI는 ‘수용불가위험’으로 분류돼 전면 금지되며, AI를 이용한 안면 인식, 신용 평가 등은 ‘고위험’ 기술로 분류돼 투명성과 데이터 이용에 엄격한 제한을 받게 된다. 특히 고위험으로 분류된 AI 시스템의 경우 안전한 활용을 위해 공급자뿐만 아니라 사용자, 수입업자, 유통업자 등에게도 엄격한 법적 의무 부여하고 있으며, 이를 위반 시 최대 3,000만 유로의 과태료가 부과되도록 명시했다.
AI 규제에 속도 내는 주요국들
각국 정부에서도 AI 시스템의 오남용에 대한 심각성을 인지하고, 이를 규제하기 위한 법제화 작업에 착수하고 있다. 미국은 올해 초 AI의 잘못된 판단으로 불거진 피해에 대한 책임 소재를 묻는 '알고리즘 책임법'을 논의하고 있다. 해당 법안이 통과될 경우 공급자는 AI의 자동화된 의사결정 시스템에 대한 영향 평가를 의무적으로 수행해야 한다. 아울러 지난 8일에는 미국 상원이 양당 합동으로 AI 법안을 발의하기도 했다. 미국 정부가 AI를 활용해 대민 업무를 할 경우 투명성을 담보하도록 하는 것이 골자다. 이뿐만 아니라 미국은 AI의 개인 데이터 수집을 통제하는 '데이터 개인정보보호법'도 고려하고 있는 것으로 알려졌다.
최근 AI 분야에서 약진하고 있는 중국 역시 규제 마련에 적극적인 행보를 보이고 있다. 중국 국가인터넷정보판공실(CAC)은 지난달 11일 AI 기업들이 따라야 할 규정을 담은 가이드라인 초안을 공개했다. 모든 AI 기업은 서비스 출시에 앞서 당국의 보안 평가를 필수적으로 수행해야 하며, 사용자는 반드시 실명을 제출해야 한다는 내용을 담고 있다. 특히 공급자는 AI가 부적절한 답변을 생성할 경우 3개월 내에 재발 방지 대책을 마련해야 하며, 이를 준수하지 않을 시 서비스 정지 및 벌금 처분 등을 받을 수 있다.
캐나다도 지난해 6월 ‘인공지능 및 데이터법(AIDA)’의 초안을 마련한 바 있다. 법안은 불법으로 입수한 개인정보로 AI 시스템을 설계·개발하거나 대중을 속여 경제적 손실을 입힐 목적으로 사용하는 행위 등을 ‘범죄’로 규정하고 있으며, 관련 기업에 대한 투명성과 차별방지 조치 등을 요구하는 내용이 담겨 있다. 캐나다 연방정부는 현재 하원에서 논의 중인 AIDA 초안이 2025년께 발효될 것으로 전망하고 있다.
우리나라도 AI 발전에 따른 사회적 문제를 해결하기 위한 규제 방안을 마련하고 있다. 현재 국회에 발의된 AI 법안은 총 12건으로, 이 중 7개 법안이 입법을 앞두고 있다. 그러나 국내에서 발의된 관련 법안들은 대부분 산업육성과 인력양성에 초점을 뒀다. 3년마다 AI 기본계획을 수립하고 AI 관련 기술 등을 지원하는 국가인공지능센터를 설치하는 내용 등을 담은 ‘인공지능법’이 대표적이다. 또한 정부도 생성형 AI와 같은 신기술 발전 등으로 사이버 위협 패러다임이 바뀌고 있다고 보고 ‘능동적인 보안 기술 개발’을 목적으로 5년간 보안 기술 연구개발(R&D)에 4,000억원을 투자하기로 했다.
법안의 숨은 오류
한편 EU의 개인정보보호법(GDPR)이 제안에서 채택까지 4년 이상 소요됐듯이 이번 AI 규제법 역시 EU 회원국의 투표와 승인을 거쳐 최종적으로 채택될 때까지는 많은 변화가 있을 것으로 전망된다. 또한 이 과정이 신속하게 진행되더라도 유럽연합의 규제안을 ‘글로벌 표준’으로 만들거나 전 세계적으로 AI에 대한 엄격한 규제를 적용시키는 것은 결코 만만치 않은 과제다.
일각에선 EU의 AI 규제법의 일부 요건은 현재 기술 수준으로는 준수하기 어렵다는 지적도 나온다. 법안에 따르면 AI 학습용 데이터셋에 오류가 없어야 하며, 특히 사람들은 AI 시스템의 작동 방식을 ‘완전히 이해해야’ 한다고 규정하고 있다. 그러나 AI 시스템을 훈련시키는 데 사용되는 데이터셋은 매우 방대한 데다, 검증이 가능하다고 해도 사람의 힘으로 데이터셋에 한 치의 오류도 없는지 검수하는 작업에는 수만 시간이 필요하다. 게다가 오늘날 신경망은 매우 복잡한 구조로 얽혀있는 만큼, 개발자들조차 어떻게 결론에 도달하는지 완전히 이해하지 못하고 있다.
공급업체들 또한 법을 준수하기 위해 외부 감사나 규제 당국이 회사의 소스코드와 알고리즘에 접근할 수 있도록 의무화하는 것에 불편한 기색을 내비치고 있다. AI 시스템의 비의도적 차별을 줄이는 데 앞장서고 있는 비영리 단체인 ‘이퀄AI’의 회장 겸 CEO인 미리암 보겔은 “많은 사람이 비현실적인 현재의 법안에 대해 불편해하고 있다”며 “이 규제는 말 그대로 실현 불가능하다”고 지적했다.
AI 규제법이 안면 인식 기술을 ‘전면 금지’하는 것에 대해서도 갑론을박이 오가고 있다. 이는 대부분의 EU 회원국이 EU 본부가 각국의 국가 안보 및 법집행 문제에 간섭하는 것에 대해 거부감을 드러내고 있는 것과도 관련이 있다. 특히 프랑스를 비롯한 몇몇 나라들은 국가 안보를 위해 안면 인식 기술 규제에 예외두자는 입장이다. 반면 EU의 의사 결정에 막대한 영향력을 미치는 독일 정부는 공공장소에서의 안면 인식 시스템 사용 전면 금지를 지지하고 있다.
AI 규제법에 대한 상반된 시선
관련 업계 및 인권단체 등은 EU의 AI 규제안을 환영하면서도 기업부담이나 기본권에 대해서는 충분한 고려가 반영되지 않았다며 상반된 반응을 내비쳤다. 찬성하는 측은 AI 리스크에 대한 선제 대응이 가능해짐에 따라 AI에 대한 신뢰도가 상승하는 것은 물론, 고위험 AI에 대해서만 엄격한 법적 의무를 적용하고 있어 규제의 강도 또한 적정하다고 평가했다. 반대하는 입장에서는 IT 기술 및 발전에 한계를 설정하는 만큼 혁신을 방해할 것이라 지적하며, 기업에 대한 규제가 결국 정부에 의한 기술 오남용을 초래할 수 있다고 비판했다.
유럽연합 ‘개인정보보호감독관(EDPS)’은 AI 솔루션에 대해 EU의 가치, 법적 원칙을 보장하기 위한 이번 노력을 높이 사지만, 규제안에 EDPS가 요구했던 공공장소에서의 ‘원격’ 바이오 식별 시스템 금지가 포함되지 않은 점은 유감이라고 밝혔다. 비정부기구와 학자 등으로 구성된 인권단체 ‘유럽 디지털 권리’는 “제대로 정의되지 않은 개념 등으로 인해 생체정보를 이용한 대규모 감시의 위험을 충분히 규제하는 데 실패했다”며 기본권에 기반한 접근을 요구하기도 했다.
AI 정책을 감시하는 비영리 단체인 ‘AI 및 디지털 정책 센터’의 마크 로텐버그는 “미국 기업들이 EU의 AI 법안을 준수하게 되면, 미국 소비자들에게 적용되는 AI 기술의 투명성과 책임 수준도 향상될 것”이라고 말했다. 이어 “이는 과거 미국이 GDPR의 개발을 바라보던 시각과 매우 대조적”이라며 “당시 미국 사람들은 GDPR 때문에 인터넷이 막히고 세상이 무너질 것이라고 떠들었다”고 덧붙였다.
구글, 메타, 오픈AI와 같은 세계 최대 AI 기업의 본거지이자, 글로벌 AI 시장에서 선두를 달리고 있는 미국도 EU의 법안에 주목하고 있다. 외신에 따르면 현재까지 미국 백악관의 제이크 설리번 국가안보보좌관, 지나 레이몬도 상무장관 등 미 정부 유력 인사들은 유럽의 AI 규제법에 찬성하는 입장이다.
한편 EU의 이번 AI 규제안이 미국과 중국이 우위를 점하고 있는 AI 기술에 EU가 글로벌 표준를 제시함으로써 기술 주도권을 확보하기 위해 서둘러 마련됐다는 평가도 나왔다. 이미 확보한 막대한 양의 개인정보를 활용해 인권은 물론 개인의 자유를 박탈하는 방식으로 AI 개발을 주도하고 있는 미국과 중국기업들을 견제하기 위함이라는 것이다.
생성형 AI 시장, 10년 후 30배 이상 커진다
유럽연합의 AI 규제법에 대한 각계의 상반된 반응이 보여주듯이 국민의 안전과 기본권을 보호하는 동시에 혁신 저해를 방지하고 신기술의 혜택을 누리는 것은 현실적으로 실현이 어려운 과제라는 점에서, 각계각층의 이해관계자들과의 충분한 논의가 필요할 것으로 보인다. 우리나라 역시 AI 기술 발전을 주도하고 있는 미국과 중국을 비롯해 AI에 대한 글로벌 규제 표준을 제시하고 있는 EU 사이에서 국내 AI 생태계의 발전과 AI 기업들의 성장을 위해 방향성 모색에 대한 고민이 필요한 시점이다. 아울러 AI 시스템의 순기능과 역기능에 대한 구체적인 증거들이 아직까지 제한적인 만큼, 증거에 기반한 규제를 마련할 수 있도록 AI 시스템의 성과 및 한계에 대한 지속적인 증거 수집 노력도 수반돼야 한다.
블룸버그 산하 경제연구소 ‘블룸버그 인텔리전스’는 생성형 AI 시장이 2032년에 1조3,000억 달러(약 1,700조원) 규모로 커질 것으로 전망했다. 2022년 기준 해당 시장의 규모가 400억 달러(약 51조원)였던 점을 비춰볼 때 10년간 30배 이상 확대되는 것이다. 여기에 더해 마이크로소프트(MS) 소속 과학자들은 지난달 논문을 통해 ‘AI가 인간처럼 추론하는 능력을 보이기 시작했다’고 진단했다. 이는 곧 AI가 인간의 능력을 추월할 능력을 갖춘 특이점에 이르렀다는 것을 의미한다. AI 규제에 대한 법제화가 늦어질 경우 국내 AI 산업은 글로벌 테크 기업에 종속될 수 있는 만큼 AI 기술의 지속 혁신을 위해 정부 차원의 제도적 정립이 조속히 마련돼야 할 것이다.
한편 EU의 AI 규제법안은 EU 입법 절차에 따라 6월 14일(현지 시간) 본회의 상정이 예정돼 있다. 당초 AI 규제법은 올해 안으로 제정을 마무리하고 오는 2024년부터 시행할 계획이었으나, 챗GPT 열풍으로 생성형 AI 붐이 조성되자 추가 제재안을 마련하느라 몇 개월을 더 소비한 것으로 알려졌다. 본회의 표결 이후 EU집행위원회, EU이사회의, 유럽의회로 구성된 3자 협의가 타결되면 시행이 확정된다. 이 과정에서 법안의 내용이 일부 수정될 가능성도 남아 있다.