Skip to main content

[해외 DS] AI, 끈 이론을 해결할 '실마리'되나

[해외 DS] AI, 끈 이론을 해결할 '실마리'되나
Picture

Member for

1 month
Real name
이효정
Position
연구원
Bio
[email protected]
지식은 전달하는 정보가 아니라, 함께 고민하기 위해 만들어진 언어입니다.

수정

통일장 이론에 반론을 제기한 ‘끈 이론’
끈 이론에 따르면 가능한 우주 무수히 많아 그 중 인간 세계는?
최근 인간 세계를 찾아갈 해결책으로 ‘AI’ 제시

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.


string theory
사진=Scientific American

끈 이론은 우주의 비밀을 찾아낼 수 있는 이론으로 현대 물리학에서 뜨거운 주제다. 하지만 끈 이론이 보여주는 우주는 $10^{500}$개로 그야말로 우주에서 우주를 찾는 격이다. 또한 끈 이론은 10차원 공간에서 작동하는 이론으로 10차원은 인간이 인지하는 4차원과 인지하지 못하는 6차원으로 구성되어 있다. 따라서 6차원의 구조를 정확히 파악하는 것이 끈 이론의 핵심이다. 최근 물리학자들은 무수히 많은 우주 중 인간 세계를 찾아낼 도구로 ‘AI’를 도입했다. 2024년 초에 연구원들은 AI를 이용하여 유의한 결과를 얻었으며 이를 논문 사전 공개 사이트인 아카이브(arXiv)에 게시했다.

미지의 세계 6차원, 어떻게 정의할 것인가?

끈 이론은 ‘통일장 이론’에 반론을 제기하며 등장했다. 아인슈타인이 주장한 통일장 이론이란 중력, 전자기력, 강한 핵력, 약한 핵력 등 4가지 기본 힘을 하나로 통합하려는 이론이다. 1970년대 4가지 기본 힘 중 전자기력, 강한 핵력, 약한 핵력 등 3가지 힘은 하나의 이론으로 설명할 수 있게 되었으나, 중력을 여기에 포함하는데 실패했다. 따라서 "세상의 모든 것은 입자로 이루어져 있다"는 기존 믿음에 반론이 제기됐으며 기본 입자를 '끈'으로 한 이론이 등장했다.

통일장 이론이 가진 문제점을 극복하며 끈 이론으로 대세가 기우는 듯 했으나, 끈 이론 또한 난관에 부딪혔다. 끈 이론으로 관측할 수 있는 우주가 무수히 많아 인간 세계를 특정하기 어렵다는 점이다. 끈 이론에 따르면 $10^{500}$개 이상의 우주가 가능하고 그 중에서 동일한 기본 입자와 힘을 설명하는 가운데 인간 세계와 일치하는 우주를 찾아야 한다. 심지어 인간 세계에 딱 맞는 우주를 찾아냈다고 하더라도 끝이 아니다. 수학적 관점에서 볼 때 특정 해에서 관측 가능한 입자와 힘을 추론하는 것은 또 다른 어려운 작업이다.

게다가 1980년대 무렵 물리학자들은 끈 이론이 작동하기에 인간이 인식할 수 있는 4차원 시공간은 역부족이라는 것을 깨달았다. 끈 이론이 작동하려면 시간 1차원과 공간 9차원의 총 10차원 시공간이 필요하다. 그러나 인간은 3개의 공간 차원만 인지하고 나머지 6개는 너무 작아 전혀 알아차리지 못하는 한계를 갖는다. 6차원의 아주 작은 개체가 공간의 모든 지점에 위치하나, 현미경으로도 관측할 수 없을 만큼 작을 것이라는 의견이다.

미지의 세계를 탐험하기 위해서는 6차원 공간을 제대로 정의하는 것이 중요하다. 기하학 구조에 따라 끈이 진동하는 방식과 기본 입자와 힘이 생성되는 방식이 결정되기 때문이다. 궁극적인 목표는 우주를 정확히 설명하는 공간의 6차원 기하학을 찾는 것이다. 끈 이론가들은 기하학이 충족하는 몇 가지 조건을 찾아냈지만, 6차원 기하학을 정의하기란 우주에 존재하는 입자 수보다 많은 경우의 수 중 하나를 특정해야 하는 작업으로 난이도가 높다.

첩첩산중으로 6차원 공간의 기하학 세부 사항을 계산하는 것도 만만치 않은 작업이다. 복잡한 6차원 도형을 수학적으로 정확하게 설명하는 것은 사실상 불가능에 가깝다. 게다가 끈 이론의 기본 입자인 작은 실이 6차원 공간과 어떻게 상호 작용하는지를 밝혀내는 것도 숙제다. 따라서 끈 이론은 미궁에 빠져있는 상태다.

끈 이론의 작은 실마리 ‘AI’

끈 이론의 미궁을 풀 해결책으로 'AI'가 제시됐다. 인공 지능의 발전은 전 세계가 관심을 가졌던 만큼 일부 끈 이론가들의 관심을 끌었다. 인공지능이 이전에는 불가능했던 계산을 가능하게 했기 때문이다. 끈 이론가들은 인공 신경망에 주목하여 인공지능을 문제에 맞게 적절히 활용했다. 6차원 공간의 대략적인 모양을 입력하여 인공지능이 6차원 공간의 세부 기하학 구조를 찾아내도록 설계했고, 과학자들은 수천, 수만 개의 데이터로 신경망을 훈련시킴으로써 패턴을 발견하도록 유도했다.

2017년 연구자들은 신경망을 사용하여 6차원 도형을 나타내는 가장 간단한 6가지 형상을 발견하는 성과를 이뤄냈다. 그 후 옥스퍼드 대학교의 안드레이 콘스탄틴 팀은 2024년 초에 논문 사전 인쇄본을 발표했는데, 그 내용은 신경망을 활용하여 끈이 가진 기하학 구조와 입자 간의 상호 작용 방식 그리고 어떤 기본 입자가 생성되는지 조사한 것으로 알려져 있다.

최종적으로 세 가지 쿼크의 질량을 도출하여 구체적인 예측을 내놓았으나, 예측치는 우주에서 관측한 쿼크 질량과 달랐다. 과학자들은 이에 낙담하지 않고 오히려 인공지능을 활용하여 우주의 비밀을 한 꺼풀 벗겨냈다는 긍정적인 반응이다. 인공지능을 통해 자동으로 기하학 구조를 밝혀낼 수 있음을 입증했기 때문이다. 앞으로 물리학자들은 가능한 우주의 경우의 수를 줄이는 것을 목표로 삼고, 그 이후 인공지능을 통해 끈 이론의 기하학 구조를 풀어갈 계획임을 밝혔다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이효정
Position
연구원
Bio
[email protected]
지식은 전달하는 정보가 아니라, 함께 고민하기 위해 만들어진 언어입니다.

[해외 DS] 딥보이스 기술 악용한 보이스피싱 기승, 가족 암호로 막는다

[해외 DS] 딥보이스 기술 악용한 보이스피싱 기승, 가족 암호로 막는다
Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

수정

AI 기술 발전으로 음성 복제가 쉬워지면서 보이스피싱 수법이 더욱 교묘해져
가족이나 친구 간에 미리 정해둔 암호를 통해 딥보이스 음성 사기를 예방할 수 있어
개인, 기업, 정부가 협력하고, 법적·교육적 차원에서의 보완책을 마련해야

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.


A Safe Word Can Protect ScientificAmerican 20240513
사진=Scientific American

지난 한 해 동안 미국에서 가장 흔한 사기 유형은 사칭 사기였다. 2023년 미국의 연방거래위원회에는 856,000건 이상의 사례가 보고됐으며, 전국적으로 27억 달러의 피해액이 발생했다. 사기꾼들은 친구나 친척의 신분을 도용하거나 은행 직원이나 연방 요원을 속여 전화, 문자 또는 이메일을 통해 피해자들을 속였다고 한다.

딥보이스 인공지능이 발전함에 따라 목소리만으로는 구분이 어려워지고 있으며, 이에 따라 보이스피싱 범죄의 수법도 점점 더 교묘해지고 있다. 전문가들은 이러한 문제가 편의성과 저렴한 비용으로 인해 더욱 악화할 것으로 보고 있다. 또한 목소리 복제 방법이 단순하여 온라인에 게시된 비디오나 잘못 걸린 전화 통화에서 추출한 짧은 음성 샘플만으로도 사람의 목소리와 감정 실린 어투를 합성할 수 있는 상황이다.

가족 목소리도 믿지 못하는 시대, 음성 비밀번호로 신원 확인해야

딥보이스 보이스피싱을 방지할 수 있는 방법이 있다. 로그인 화면에서 아이디와 비밀번호를 입력하라는 본인 확인 요청과 같이, 가족이나 친구들만 알고 있는 비밀번호나 안전 단어를 설정하여 서로의 신원을 확인하는 검증 단계를 추가하는 것이다. 특히 경보가 울리거나 비정상적인 압력을 가하는 전화를 받았을 때도 침착하게 대응하고, 암호를 요구하여 전화한 사람이 누구인지 반드시 확인해야 한다고 전문가들은 조언한다.

하지만 가족의 목소리를 신뢰하는 것은 인간의 본능이다. 미국 애리조나주에 거주하는 제니퍼 드스테파노(Jennifer DeStefano)는 지난해 6월 상원 사법부 소위원회에서 AI가 자기 딸의 목소리를 모방한 것에 처음에는 속았다고 증언했다. 그녀의 딸이 스키 여행 중 안전하다는 것을 알게 되어 실제 사기로 이어지지는 않았지만, 그녀는 긴급 상황에서 사랑하는 사람의 신원을 확인하는 것은 현실적으로 어렵다고 지적했다.

그러나 현재로서는 통화 상대방이 누구인지 알 수 있는 다른 확실한 방법이 없다고 오디오 딥페이크에 관해 연구해 온 하니 파리드(Hany Farid) 미 UC버클리대 컴퓨터과학과 교수는 강조했다. 또한 본인들만 아는 음성 비밀번호나 코드 문구를 사용하는 것이 AI 음성 사기에 대처하는 가장 간단한 방법이라고 그는 덧붙였다. 컴퓨터 비밀번호와는 다르게, 코드 문구는 자주 사용되지 않아 잊기 쉬우므로, 서로에게 주기적으로 코드 문구를 확인하는 것이 좋다고 권장했다.

납치·사기 예방하는 가족 암호, 기억하기 쉬운 가족 이야기로 만들어

자녀를 둔 부모라면 어릴 때부터 비밀번호 확인 절차에 익숙해지도록 가르치는 것이 좋다. 이 방법은 납치를 당한 후에도 유효하지만, 무엇보다 납치를 예방하는 데에도 효과적이다. 부모 대신 아이를 데리러 온 사람에게 비밀번호를 요구하는 습관을 길러주면, 위험한 상황을 미리 방지할 수 있는 가능성이 커진다. 또한 드스테파노가 언급한 긴급한 상황에서도 이 방법이 유용하다고 할 수 있다.

애칭을 활용하는 방법도 있다. 위급 상황에서 평소 사용하지 않는 별명으로 서로를 확인하는 것이 가능하며, 보안을 강화하기 위해 상대방과 연결된 일회성 비밀번호 인증 앱을 사용하는 것을 고려할 수 있다. 복잡한 단어보다는 가족 이야기에 기반한 쉽게 기억할 수 있는 코드를 설정하는 것이 좋다.

물론 암호 문구가 노출될 가능성은 언제나 존재한다. 해킹이나 협박을 통해 암호를 얻어낼 수 있기 때문이다. 그러나 통화 상대가 은행 직원이나 경찰이라고 주장할 경우, 직접 방문하여 확인하는 것이 안전하다. 상대방이 만남을 기피한다면, 그것은 보이스피싱일 가능성이 매우 높다.

금융·통신, AI 기술 활용해 보이스피싱 방지

최근에는 딥보이스와 더불어 딥페이크까지 결합한 보이스피싱 유형도 보고되고 있다. 기존의 사기 수법보다 더욱 정교하고 빠르게 진행되어 개인이 일상적으로 주의를 기울여도 방어가 어려운 상황에 이르렀다. 일각에서는 AI를 활용한 보이스피싱 피해 규모가 이미 개인이 대응할 수 있는 범위를 넘어서며, 포괄적인 대응 계획이 필요하다고 우려의 목소리를 높이고 있다.

실제로 은행과 통신사를 비롯한 여러 기관들이 AI 보이스피싱에 대응하기 위해 저마다의 방법을 도입하고 있다. 특히, 은행은 AI 기술이 통합된 ATM을 사용하여 의심스러운 고객의 행동이나 거래 패턴을 감지한다. 이상 징후가 발견되면, ATM은 자동으로 경고 문구를 표시하거나 추가적인 본인 확인을 요구한다. 또한 고객의 거래 데이터를 분석해 이상 거래를 탐지하고 차단하는 시스템을 구축하여 보이스피싱으로 인한 금융 피해를 줄이려고 한다.

통신사에서는 음성 스팸 필터링 시스템을 통해 알려진 보이스피싱 번호를 차단하고, AI를 활용하여 새롭게 등장하는 스팸 번호를 신속하게 감지하여 발신을 차단하고 있다. 이러한 기술적 대응은 보이스피싱 범죄자들이 새로운 수법으로 변화하는 것에 발맞춰 대응력을 강화하고 있다는 평가를 받고 있다.

AI 보이스피싱으로 인한 피해가 증가함에 따라, 개인, 기업, 정부가 이 문제를 해결하기 위해 협력할 필요성이 점점 더 커지고 있다. 기술적인 해결책뿐만 아니라 법적 및 교육적 차원에서의 보완도 효과적인 대응을 위해 필요하다. 전문가들은 추가적인 시스템 구축이 완료될 때까지 가족 및 지인과의 안전 암호 설정을 통해 경각심을 유지하는 것을 당부했다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

[해외 DS] 인간에 대한 이해를 넘어 통제의 수단으로 변질된 AI, 기술 발전 속 잊혀가는 윤리의식

[해외 DS] 인간에 대한 이해를 넘어 통제의 수단으로 변질된 AI, 기술 발전 속 잊혀가는 윤리의식
Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

수정

사용자 동의 없이 개인 정보 수집해 감시·통제하는 기업과 국가
사용자의 심리적 약점을 파고들어 중독을 유발하고, 심지어 사회적 갈등을 조장하기도
기술의 발전은 윤리적 책임과 개인의 자유를 존중하는 방식으로 진행돼야

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.


AI Doesnt Threaten Humanity ScientificAmerican 20240510
사진=Scientific American

올해 4월 구글 크롬의 '시크릿 모드'라 불리는 개인정보 보호 브라우징 기능이 생각했던 것만큼 안전하지 않다는 것이 한 소송을 통해 드러났다. 구글은 사용자 데이터를 수집하고 있었으며, 이번 소송으로 인해 수십억 건의 사용자 데이터를 삭제하기로 합의했다.

그러나 크롬의 시크릿 모드는 웹사이트나 인터넷 서비스 제공자(Internet Service Provider, ISP)가 사용자의 활동을 추적하는 것을 막지 못한다. 정보 수집은 이미 현대 비즈니스 모델의 핵심으로 자리 잡았으며, 사람들의 습관과 행동을 추적해 기계 학습을 위한 데이터로 변환하는 작업은 일상적인 일이 됐다.

인공지능의 양면성, 일상이 된 개인정보 침해

기업, 국가, 민간 조직 등이 사생활을 침해하고 감시하는 일은 공공연한 비밀이다. 예를 들어 보험 회사는 수면 무호흡 보조 기기를 모니터링하여 보험 적용을 거부하기도 한다. 어린이 장난감은 아이들의 데이터를 수집하고, 생리 주기 추적 앱은 사용자의 성관계 시기, 피임 방법, 생리 세부 정보, 심지어 기분까지 메타(구 페이스북) 혹은 낙태가 제한된 주의 정부와 공유하고 있다.

게다가 가정용 보안 카메라는 사용자를 감시하는 데에 사용되며 해커의 공격에도 취약하다. 의료 앱은 개인 정보를 변호사와 공유하고, 데이터 중계 회사들은 사람들을 플랫폼 간에 추적해 사용자 프로필을 묶음으로 판매하고 있다. 하지만 문제는 여기서 그치지 않는다. 수집된 방대한 데이터는 단순히 광고나 개인 맞춤형 상품 추천에만 사용되는 것이 아니라, 사용자의 취약점을 파악하고 행동을 조종하며 심지어 개인의 정체성까지 결정짓는 알고리즘을 훈련하는 데에도 활용될 수 있다.

한편 긍정적인 측면에서 볼 때 인공지능은 인간에 대한 이해를 높이고 단점을 보완하는 데에 도움을 준다. 하지만 인공지능은 인간이 자신을 스스로 이해하는 것보다 훨씬 더 빠르게 파악하고, 중독성 있는 사용 경험을 제공하며, 사용자의 동의 없이 의사 결정에 영향을 미치고 있다. 결과적으로 인공지능은 인간의 발전을 돕는 도구가 아닌, 취약점을 이용해 사적 이익을 추구하는 방향으로 변질될 위험이 더 큰 기술이라는 것이다.

이익 추구를 위해 인간 심리의 약점을 파고들어

몇 년 전 메타의 내부 고발자는 충격적인 정보를 폭로한 바 있다. 메타는 수익 목표를 달성하기 위해 인공지능을 활용하여 사용자들이 플랫폼에서 더 오래 머물도록 유도했다. 이로 인해 괴롭힘, 음모론, 혐오 발언, 허위 정보 등 유해한 콘텐츠가 더욱 확산됐다. 또한 메타는 사용자 동의 없이 중독성을 높이는 기능을 설계했으며, 특히 이러한 기능이 청소년에게 해를 끼칠 수 있다는 사실을 알면서도 방치한 것으로 알려졌다.

더 나아가 유엔 보고서에 따르면 메타는 미얀마 대량 학살 사태에서 증오를 부추기는 '유용한 도구'로 작용했다고 한다. 메타도 폭력 확산을 촉진하는 역할을 했다는 사실을 인정했다. 이러한 일련의 사건들은 기업과 조직들이 인공지능을 활용해 사용자의 심리적 약점을 파악하고 불안정한 감정을 자극하여, 목적을 달성하기 위해 사용자를 조종할 수 있다는 사실을 여실히 드러냈다. 안타깝게도 기술 업계에서는 이를 단순히 '넛지' 효과라고 간단하게 표현하고 있다.

아울러 쿠키 사용에 대한 동의를 요청하거나 승인을 구하는 것도 선의에서 비롯된 것은 아니다. "서비스 개선"이라는 명목하에 실제로는 사용자가 인지하지 못하는 개인 정보를 수집하고, 미처 발견하지 못한 행동 양식을 추적하는 데 사용된다. 이 모든 과정은 개인정보 보호라는 착각을 조성하는 수단에 불과하다는 것이 업계 관계자들의 중론이다.

기술 발전의 방향성 재고해야

현재의 비즈니스 모델에서 AI와 로봇 기술의 발전은 소수의 부를 증진시키는 반면, 다수의 삶을 더 어렵게 만들고 있다. 물론 AI가 가져올 수 있는 여러 효율성에서 이점을 얻을 수 있는 사람들이 있을 수 있으며, 기술 산업이 제시하는 미래 가치는 경제 성장의 핵심 동력으로 작용하고 있다. 하지만 자신의 존엄성을 잃고 타인의 이익을 위해 지속적으로 감시당하고 조종당하는 사람들에게 있어 그런 주장은 무의미하다.

AI 자체를 두려워해야 하는 것은 아니다. 기술을 소유한 주체의 윤리의식이 기술 발전 속도를 따라가지 못하는 현실을 두려워해야 한다는 것이다. 인류의 전반적인 삶의 질을 향상시킬 수 있는 기술이 오히려 소수의 이익을 위한 도구로 전락하고, 불안감과 자기중심주의를 조장하며 자유를 빼앗는 데 사용될 수 있다는 점을 간과해서는 안 된다는 의미다.

기술의 방향성은 인간의 원칙에 의해서 결정되어야지, 그 반대가 되어서는 안 된다. 이를 위해 AI의 소유자가 누구인지, 그리고 인공지능이 최선의 이익을 위해 어떻게 활용될 수 있는지에 대한 질문에서 다시 시작해야 한다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

[해외 DS] '인구절벽' 겪고 있는 중국, 오히려 선진국으로 가는 발판으로 작용하나

[해외 DS] '인구절벽' 겪고 있는 중국, 오히려 선진국으로 가는 발판으로 작용하나
Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

수정

유엔에 따르면 2100년에는 현재 중국 인구의 절반 수준에 도달할 전망
하지만 현재 출산율을 2100년까지 단순하게 가정하여 계산된 값이라는 비판 뒤따라
인구 감소 자체는 문제가 아니지만, 어떻게 대처할 지가 중요해

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.


중국인구 썸네일
사진=Scientific American

중국은 14억 명에 달하는 인구로 세계에서 가장 인구가 많은 나라였으나, 최근 그 자리를 인도에게 내주었다. 유엔 보고서에 따르면 2022년부터 중국 인구가 줄어들기 시작하여 2050년에는 13억 명, 2100년에는 7억 7천만 명으로 급격하게 감소할 것이라는 전망을 내놓았다. 그러나 이는 현재 낮은 출산율을 2100년까지 단순하게 이어진다는 가정 하에 계산됐다는 비판이 뒤따른다. 한편으로는 중국이 인구 감소를 딛고 일어나 선진국으로 도약할 수 있다는 긍정적인 의견도 나온다.

인구절벽을 경험하고 있는 중국

중국에서는 인구 감소에 따른 경제 위기 우려가 확산되고 있다. 전문가들은 중국이 인구가 감소함에 따라 경제를 성장시키거나 노년층을 부양할 젊은 층이 부족해질 것을 우려하고 있다. 하지만 중국의 인구 감소는 위기가 아닌 오히려 기회가 될 수 있다는 의견도 나온다. 중국 측에서는 2100년에 약 10억 명의 안정적이고 지속 가능한 인구에 도달할 수 있다는 전망을 내놓았으며, 이 수준에서 중국은 노년층을 잘 보살피면서 국민들이 더욱 번영할 수 있는 기회라고 밝혔다. 또한 성공적인 인구 변화를 이루게 되면 향후 인구가 감소할 다른 많은 국가들에게 선례를 제공할 수 있다는 점도 강조했다.

중국 공산당은 1949년 집권 이후 인구 정책을 두 번이나 뒤집었다. 초기에는 산아제한 정책을 통해 출산을 장려하고 국가 출산율을 높였으나, 1979년 중국 공산당 중앙군사위원회 주석이었던 덩샤오핑은 경제 개혁과 함께 한 자녀 정책을 채택하여 중국의 놀라운 경제 부흥을 이루어냈다. 2015년에는 급격한 출산율 감소로 인해 두 자녀 가족을 허용하는 산아제한 정책이 다시 도입되었으며 2021년에는 세 자녀 가족을 허용하는 정책을 도입해 인구를 늘리기 위해 노력하는 모습이다.

최근 시진핑 중국 국가주석이 2023년 10월 제13차 전국여성대표대회 연설에서 다음과 같이 발표했다. "새로운 형태의 결혼과 출산 문화를 적극적으로 받아들여야 한다"며 출산을 적극 장려했고 여성대회에서 행해진 다른 연설에서는 양성 평등에서 벗어난 변화를 꾀할 것을 강조했으며 심지어 여성들이 아이를 갖기 위해 직장을 그만두라는 언급도 하여 화제가 됐다. 그러나 산아제한 정책은 중국 젊은이들의 정서에 반하는 것으로 대다수의 사람들이 자녀를 한 명 이상 낳기를 원하지 않는다.

중국의 인구 감소는 출산율, 부양비, 적정 인구 규모에 대한 근본적인 문제를 제기한다. 인구학자들은 주로 인구 피라미드를 사용하여 한 국가의 인구를 설명하는데, 인구 피라미드는 특정 시점의 인구 중 남성과 여성의 수를 나타내며 사회 문제를 이해하는 데 직관적이다.

아래 그래프를 참고하여 1980년 중국 인구 피라미드를 보면 전형적인 인구가 증가한 모양으로 분포되어 있는데, 젊은 연령층은 넓고 나이가 많을수록 좁아지는 형태를 띈다. 한 가지 특이한 점은 1966년에 시작된 문화대혁명으로 인해 20-24세 연령층이 25-29세 연령층보다 약간 더 작다는 점이다. 15~19세와 10~14세 연령층은 반등세를 보였으나, 40년 동안 이어져 온 연령대 감소 추세의 시작은 5-9세와 0-4세 연령대가 줄어든 부분이 보여준다. 중국의 한 자녀 정책이 감소 추세를 촉진했지만 소득, 교육, 도시화, 피임에 대한 접근성 향상 등 다른 요인도 영향을 미친 것이라는 의견이다.

1980년 중국의 연령대별 인구 분포
1980년 중국의 인구 피라미드/사진=Scientific American

중국 인구는 지속적으로 증가하다가 2020년에 14억 명으로 정점을 찍고 위의 요인으로 인해 중국의 인구 피라미드 모양은 크게 바뀌었다. 미래의 위기로만 여겨지던 고령 인구 ‘급증’은 30~59세 인구의 증가에서 명확히 드러났다.

중요하게 봐야할 점은 청소년(0~14세)과 고령자(65세 이상)로 이루어진 부양 인구와 15~64세 사이의 노동 인구를 비교하는 ‘부양비’다. 1980년 중국의 부양비는 노동가능인구 100명당 68명으로 노동 인구의 부담이 컸으나, 2020년에는 100명당 44명으로 부담이 덜어졌다. 하지만 향후 고령 인구의 급증으로 인해 2085년경에는 부양비가 100명당 89명에 달해 사회적으로 불안정한 수준까지 올라갈 전망이다.

1980년과 2020년의 중국 인구 피라미드 구조와 2020년과 2050년의 부양 비율을 비교한 그래프
1980년과 2020년의 중국의 인구 피라미드 구조와 2020년과 2050년의 부양 비율을 비교한 그래프/사진=Scientific American

인구 피라미드로 본 세계 인구 동향

중국 피라미드 구조는 역사와 세계 맥락에서 이해하는 것이 중요하다. 1900년대부터 전 세계 인구는 기하급수적으로 증가했는데, 그 이유는 사망률 감소와 위생 및 공중 보건의 개선 때문이다. 인구 증가 추세는 수천 년에 걸쳐 천천히 증가하여 결국 출생률과 사망률이 거의 일치하게 되는 ‘인구학적 전환’을 이루어냈다.

그러나 2000년 전후를 기점으로 출생률이 사망률보다 낮아지면서 인구 감소와 부양비 상승에 대한 논의가 이루어졌다. 현재 인구 감소를 경험하는 대부분의 나라는 선진국인 반면 인구가 빠르게 증가하는 나라는 대부분 아프리카의 저소득 국가에 해당한다.

인도와 일본이 인구 감소와 증가의 대비되는 추세를 잘 보여주는 예시다. 2020년 인도 인구 피라미드를 보여주는 아래 그래프에서 전형적인 인구가 증가하는 형태를 띈다. 인도의 부양비는 47, 평균 연령은 27.9세로 양호한 편이지만, 피라미드 아래쪽 연령대(0~14세)가 낮다는 것은 인도 또한 인구 감소로 전환하기 시작했음을 뜻한다. 그러나 인구 피라미드에서 보이는 양호한 추세에도 불구하고 인도의 매우 높은 청년 실업률을 해소하기에는 역부족이라는 의견이 지배적이다.

2020년 인도의 연령대별 인구 분포
2020년 인도의 인구 피라미드/사진=Scientific American

반면 일본의 피라미드 구조는 45년 전부터 시작된 강력한 인구 구조 변화를 반영하여 부양비 71%, 평균 연령 48.7세로 뚜렷하게 고령층에 치중되어 있는 모습이다. 유엔에 따르면 일본의 인구는 2020년 1억 2,500만 명에서 2100년 7,500만 명으로 감소할 것이라는 암울한 전망을 내다봤다.

2020년 일본의 연령대별 인구 분포
2020년 일본의 인구 피라미드/사진=Scientific American

한 국가의 인구는 당연히 출생률과 사망률에 의해 결정된다. 선진국의 출생아 수는 국민들의 출산 의지에 따라 자녀 수가 결정되며 사망자 수는 생물학적, 사회적, 환경적 요인 등 복합적인 요인에 의해 결정된다. 또한 미국처럼 이민이 자유로운 나라에서는 이주가 중요한 요인으로 작동한다.

합계출산율은 가임 여성 1명이 평생 동안 낳을 것으로 예상되는 평균 출생아 수를 나타내는 지표로 인구를 예측하는 데 사용된다. 시간이 지나도 안정적인 인구를 유지할 수 있는 수준으로 합계출산율 2.1을 기준으로 잡았다. 따라서 합계출산율이 2.1보다 높은 국가에서는 인구가 증가하고, 2.1보다 낮은 국가에서는 인구가 감소한다. 세계적인 추세를 보면 2020년 니제르는 6.89로 세계에서 가장 높은 합계출산율을 기록한 반면 한국은 0.89로 가장 낮았다.

유엔에 따르면 1970년 중국의 합계출산율은 5.8이었으나, 20년 동안 천천히 하락하여 기준점인 2.1을 찍고 그 이후에도 계속 하락하여 2022년에는 1.18이라는 수준까지 도달했다. 합계출산율 1.18은 선진국에서 조차 악재로 여겨지는 수치이나, 이에 대한 심각성을 인지하여 정부에서는 출산 장려 정책에 힘을 쏟고 있는 것으로 알려졌다.

아래의 그래프는 유엔이 예측한 2100년 중국의 인구 피라미드로 2020년과는 확연히 다른 모습이다. 그러나 유엔은 시간이 지나도 합계출산율이 1.18로 일정할 것으로 가정하였으나, 이는 현실적으로 합리적이지 않다는 비판이 나온다. 7억 7천만 명이라는 숫자는 유엔의 평범한 시나리오에서 나온 것으로 장밋빛 시나리오에서는 11억 5,000만 명, 최악의 시나리오는 4억 9,400만 명이라는 충격적인 수치가 나온다.

유엔이 예측한 2100년 중국 인구 분포
유엔이 예측한 2100년 중국의 인구 피라미드/사진=Scientific American

인구 감소를 주의해야 하는 것은 맞지만, 인구가 행복을 대변하지는 않아

하지만 위의 피라미드는 미래를 보여주는 스냅샷에 불과하다. 전문가들은 2020년 노년층의 비중이 점점 높아져 2050년경에는 정점에 도달할 것이라는 예상을 내놓았다. 또한 혁신적인 의학 발전으로 인해 기대 수명이 100년 이상으로 늘어나지 않는 한, 2130년에는 노년층의 증가세가 사라질 것으로 예상한다.

다시 말해 중국은 2023년부터 2050년까지 27년 동안 고령 인구가 급격하게 증가하며 2050년부터 2130년에 걸친 80년 동안은 꾸준히 줄어들 것이다. 수십 년에 걸쳐 나타난 고령 인구 증가는 과도기적 현상이며 증가하게 될 고령 인구에 대해 철저한 대비가 필요한 상황이다.

2019년 중국 정부는 "인구 고령화에 적극적으로 대응하기 위한 국가 중장기 계획"을 발표했다. 계획에서 가장 주의를 기울인 부분은 국민들이 더 오래 일할 수 있도록 하는 것이라고 밝혔다. 현재 중국의 남성 대부분은 60세에 은퇴하는 반면, 화이트칼라 직종의 여성은 55세, 블루칼라 직종의 여성은 50세에 은퇴하는 것으로 나타났다. 따라서 2019년 계획은 2021년에 중국 정부가 법정 은퇴 연령을 점진적으로 늘리겠다는 발판을 마련했다.

중국의 인구 고령화는 이미 간병 산업의 빠른 발전에 박차를 가하고 있다. 예를 들어 상하이에서는 간병 지원을 원하는 가정과 간병인을 연결해주는 온라인 플랫폼이 만들어졌다. 중국은 이미 고령화를 겪은 다른 나라에서 아이디어를 얻을 수 있다. 일본, 한국, 대만은 고령 인구 급증에 대한 정치적 압력이 강하기 때문에 효과적인 정책과 프로그램을 시행하는 것으로 알려져 있다. 또한 대부분의 유럽 국가는 기준점인 2.1 이하의 합계출산율을 가져 인구를 늘리기 위한 많은 실험을 진행하고 있다.

오늘날 중국의 젊은 여성들은 사회 환경이 불확실하여 혼란스러운 일상을 보내고 있다. 2023년 11월 웨비나에서 미시간 대학교의 윤 저우는 중국 여성들이 출산을 당연시 여기는 가부장적 요구와 권위주의 국가의 산아제한 정책 사이의 희생양이 되고 있다며 비판의 목소리를 내놓았다.

중국 합계출산율 하락의 가장 큰 요인으로는 높아진 생활 수준과 여성의 교육 수준 향상을 꼽는다. 연구에 따르면 교육 수준이 높은 여성일수록 자녀 수가 적은 것으로 밝혀졌다. 이는 결혼을 늦게 하는 가운데 자녀 양육을 위해 직장을 그만두고 싶지 않기 때문이다. 전문가들은 출산 장려 정책으로 보육 시설 대폭 확충과 출산 후에도 고용이 보장되는 환경이 필요하다는 입장을 내놓았다.

전 세계는 인공지능과 로봇공학의 발전으로 불확신한 미래에 놓여있다. 게다가 인구가 감소하는 나라는 정책적으로 큰 도전을 받고 있으며 인구가 증가하는 나라는 이보다 더한 도전으로 골머리를 앓을 것이다. 예를 들어 나이지리아는 향후 40년 동안 인구가 약 2억 2천만 명에서 4억 4천만 명으로 두 배로 증가하여 세계에서 세 번째로 인구가 많은 국가로 자리 매김할 것이다.

논평가들은 인구 감소로 인해 중국이 경제적으로 위축되며 세계에서의 영향력이 줄어들 것으로 예상한다. 그러나 이 지점에서 여론과 정책 논쟁이 잘못된 방향으로 흘러갈 수 있어 주의를 기울여야 한다. 경제 발전의 척도가 국내총생산(GDP)이라면 인구 감소는 GDP 성장을 저해하여 경제 발전을 퇴보시키는 요인으로 해석된다. 하지만 중국의 교육 수준은 향상되고 있으며 다른 어떤 나라보다 더 많은 산업용 로봇을 설치하고 있다는 점에서 중국은 장밋빛 미래를 그리고 있다.

천천히 그리고 정확하게 인구 감소 해결책 찾아가야

흥미롭게도 전 세계에서 "최적의 인구 규모"라는 관점에서 논쟁이 진행된 적이 없다. 현재 인구 수에 대한 구체적인 목표 설정은 국민들에게 출산을 강제할 우려가 있어 조심하는 모습이다. 전 세계적으로 현재 80억 명 이상의 인구가 지속적으로 세계 중산층의 생활 수준으로 살아갈 수 없고 고소득 국가의 기준에서는 더욱 지속 가능하지 않다. 유엔은 2050년 또는 2100년의 전 세계 인구 규모를 대략적으로 파악함으로써 기후변화 논쟁에 의미 있는 기여를 할 수 있다는 점을 언급하며 인구 규모 예측에 대해 강조했다.

그러나 최적의 인구 규모는 고정된 것이 아니다. 기술이 발전하고 천연자원이 개발되고 국가가 사회적으로 진화함에 따라 변하기 마련이다. 예를 들어 핵융합 발전이 실현되고 채식 단백질이 육류 단백질로 대체되는 세상이 오면, 전 세계 인구가 80억 명을 넘어 지속 가능한 시대가 열릴 것이다. 또한 세계 인구를 파악하는 것은 지구 온난화를 악화시키거나 생물 다양성을 감소시키지 않으면서 더 높은 생활 수준을 유지할 수 있는 수단이다.

물론 중국에 대한 최적의 인구 규모를 제안하는 것은 아니다. 연구진이 계산한 경로에 따르면 중국의 합계출산율은 향후 20년간 안정된 이후 상승하기 시작하여 다음 세기 초에 2.1이라는 기준점에 도달할 것이다. 그 결과 총 인구는 약 12억 명으로 유엔의 예측치인 7억 7천만 명과는 대조적인 결과를 보인다. 다른 인구 경로에서도 2100년 중국의 인구 피라미드는 유엔의 우려보다 훨씬 더 나은 모습을 보인다.

출산율이 상승할 경우 2100년 중국의 조정된 인구 예측
출산율이 상승할 경우 2100년 중국의 조정된 인구 피라미드/사진=Scientific American

인구가 감소하는 국가에서 정책을 급하게 정할 필요가 없으며 유럽처럼 많은 실험을 통해 적합한 변화를 찾아가는 자세가 필요하다. 실제로 급진적인 변화 없이 이미 많은 국가들은 적당하고 조화로운 인구를 위한 방향으로 많은 시도를 하고 있다. 예를 들어 많은 국가에서 고용을 장려하기 위해 의무 퇴직 연령을 재평가하고 있으며 연금제도를 재정적으로 지속 가능한 방향으로 바꾸고 있다. 더불어 아이를 더 쉽게 낳을 수 있도록 불임 치료의 접근성을 높이고, 육아 휴직을 연장하고, 보육 시설을 확충하는 노력을 하고 있다. 그 중에서도 가장 중요한 정책 개혁으로 꼽히는 것은 인공지능과 로봇공학이 발전함에 따라 일과 삶의 균형을 지원하는 개혁이다. 모든 성인에게 기본소득을 지급하는 등 급진적인 해결책이 필연적으로 등장할 것으로 예상한다.

인구가 감소하는 국가의 젊은이와 노인이 내리는 결정에 따라 그 국가가 안정적이고 지속 가능한 인구에 도달할 수 있을지 정해진다. 정책은 그 경로를 형성할 뿐 국민들의 행동이 안정적인 인구 감소로 전환하는 국가와 심각한 혼란을 겪는 국가를 가르는 차이가 될 것이다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

[해외 DS] AI 챗봇의 불가피한 환각 문제, 사실 확인 시스템과 맞춤형 AI 모델 개발로 대응해야

[해외 DS] AI 챗봇의 불가피한 환각 문제, 사실 확인 시스템과 맞춤형 AI 모델 개발로 대응해야
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

AI 환각, 모델은 현실과 일치하지 않는 응답을 생성할 수 있어
기술적 문제, 개발 방식, 기대치 차이 등이 원인
사실 확인 시스템 개발 및 전문화된 시스템 구축 등이 방법

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


Chatbot Hallucinations Inevitable ScientificAmerican 20240408
사진=Scientific American

생성형 AI 모델이 현실과 일치하지 않는 응답을 생성하는 경우를 가리키는 용어가 있다. 바로 '환각'이다.

지난여름 뉴욕의 한 로펌에서 변호사가 개인 상해 사건의 서류 초안을 작성하는 데 챗GPT를 사용했다. 이에 연방 판사가 5,000달러의 벌금을 부과했는데, 해당 문서에는 개인 상해 소송의 판례를 확립하기 위해 완전히 조작된 과거 사례 6건 이상이 포함되는 등 허위 사실로 가득 차 있었기 때문이다. 챗GPT만의 문제는 아닌 것이 스탠퍼드대학교와 예일대학교의 연구원들은 최근 세 가지 유명 대규모언어모델(LLM)에 관한 연구를 통해 AI가 생성한 법률 결과물 전반에 걸쳐 유사한 오류가 만연해 있다는 사실을 발견했다.

AI 환각, 기술적 문제 vs 인식의 문제

환각은 보통 AI의 기술적 문제로 취급되어 개발자가 열심히 노력하면 결국 해결할 수 있는 문제로 인식되고 있다. 그러나 많은 머신러닝 전문가들은 환각이 개발되고 학습된 대로, 즉 사용자의 프롬프트에 어떻게든 반응하도록 작동하기 때문에 해결할 수 있는 문제라고 생각하지 않는다. 일부 AI 연구자들에 따르면 진짜 문제는 이러한 모델이 무엇이고 어떻게 사용하기로 했는지에 대한 우리의 집단적 인식에 있다고 한다. 그리고 환각을 완화하기 위해서는 생성형 AI 도구와 챗봇이 사실 확인 시스템의 관리 감독을 받아야 한다고 연구자들은 강조했다.

AI 환각과 관련된 많은 갈등은 마케팅과 과대광고에 뿌리를 두고 있다. 기술 기업들은 인공지능을 무수한 문제를 해결하거나 사람의 업무를 대체할 수 있는 디지털 '만능 해결사'로 묘사해 왔다. 하지만 사실에 입각한 정보를 얻기 위해 챗봇에 의존하는 사람과 기업이 늘어나면서 챗봇의 조작 경향은 더욱 뚜렷해지고 혼란을 일으키고 있다. 예를 들어 의료용 챗봇은 사용자에게 부정확하고 잠재적으로 해로울 수 있는 의료 조언을 제공하고, 언론 매체는 부정확한 금융 정보를 포함한 AI 생성 기사를 게재하며, AI 인터페이스를 갖춘 검색 엔진은 가짜 인용을 만들어 냈다.

물론 AI 챗봇은 잘못된 정보를 생성하기 위해 만들어지지 않았다. 다만, 순수하게 정확도만을 위해 설계된 것이 아닐 뿐이다. 실제로 많은 기술 기업이 약간의 정확도를 포기하는 대신, 어떤 질문에도 인간과 같이 유창한 답변을 내뱉는 챗봇을 만들기 위해 노력했다. 그 결과 정보의 정확성보다는 생성 그 자체에 치우쳐진 챗봇이 시장의 주를 이뤘다. 그렇다면 반대로 정확성을 강조한 모델을 개발하면 문제가 해결될까? 이에 "현실적으로 정확성을 보장할 방법은 없다"고 미국 애리조나주립대학교에서 인공지능을 연구하는 수바라오 캄밤파티(Subbarao Kambhampati) 컴퓨터과학 교수는 꼬집었다. 컴퓨터로 생성된 모든 "창의성은 어느 정도 환각"이라고 그는 덧붙였다.

모델의 구조적 한계와 사실 데이터 확대의 한계

지난 1월 싱가포르 국립대학교의 머신러닝 연구원 3명은 LLM에서 환각이 불가피하다는 증거를 제시했다. 이 증명은 칸토어의 대각선 논법과 같은 학습 이론의 고전적인 결과를 적용하여 LLM이 계산 가능한 모든 함수를 학습할 수 없음을 증명한다. 즉 이들은 모델의 능력을 넘어선 문제가 항상 존재한다는 것을 보여줬다. 이 연구의 저자들은 "모든 LLM에는 학습할 수 없는 현실 세계의 일부가 있어 필연적으로 환각을 일으킬 수밖에 없다"고 강조했다.

하지만 특정 어려운 문제가 항상 컴퓨터를 난처하게 만든다는 주장은 너무 광범위하다. 특정 혼란이 발생하는 이유에 대해서 높은 통찰력을 제공하지 못할뿐더러, 단순한 요청에도 착각이 난무한 점을 미루어 보아 LLM의 환각 문제는 연구자들이 증명한 것보다 더 자주 일어나는 현상이다.

미국 일리노이대학교 어바나샴페인 캠퍼스에서 자연어·음성 처리를 연구하는 딜렉 하카니-투르(Dilek Hakkani-Tür) 컴퓨터과학 교수는 AI 챗봇이 일상적으로 환각을 일으키는 주된 이유 중 하나는 그 근본적인 구조에서 비롯된다고 말했다. LLM은 기본적으로 자동 완성 도구로, 텍스트 문자열과 같은 시퀀스에서 다음에 나올 내용을 예측하도록 학습된다. 모델의 학습 데이터에 특정 주제에 대한 정보가 많이 포함되어 있으면 정확한 결과를 산출할 수 있지만, LLM은 학습 데이터에 포함되지 않은 주제에 대해서도 항상 답을 도출하도록 구축됐다. 하카니-투르 교수는 바로 이 때문에 오류가 발생할 가능성이 높아진다고 설명했다.

사실에 근거한 학습 데이터를 더 많이 추가하는 것이 확실한 해결책처럼 보일 수 있다. 하지만 LLM이 보유할 수 있는 정보의 양에는 현실적·물리적 한계가 있다. 또한 이러한 모델은 이미 컴퓨팅 용량의 한계에서 작동하기 때문에 LLM을 더 크게 만들어 환각을 피하려고 하면 더 느린 모델을 만들게 된다. 운영 비용과 환경 부담의 증가는 덤이다.

유창함과 정확도의 절충, 별도의 사실 확인 모델 필요해

한편 환각의 또 다른 원인은 '캘리브레이션'이라고 미국 조지아 공과대학교의 산토시 벰팔라(Santosh Vempala) 컴퓨터과학 교수는 지적했다. 캘리브레이션이란 학습 데이터의 통계와 일치하거나 보다 사실적으로 사람처럼 들리는 문구를 생성하기 위해 특정 결과물을 다른 결과물보다 선호하도록 LLM을 보정하는 과정이다. 정확도가 이러한 보정 작업과 상충하는 경우가 있기 때문에 보정된 언어 모델은 환각을 일으킬 가능성이 높다. 보정을 줄이면 사실성을 높일 수 있지만, 동시에 LLM으로 생성된 텍스트가 부자연스러워진다. 보정되지 않은 모델은 사람보다 더 자주 단어나 문구를 반복하는 경향이 있기 때문이다. 문제는 사용자가 AI 챗봇이 사실적이면서도 유창할 것으로 기대한다는 점이다.

LLM이 완전히 정확한 결과물을 만들어내지 못할 수도 있다는 사실을 인정한다면 이러한 생성 도구를 언제, 어디서, 어떻게 배포할지 재고해야 한다. 생성형 AI는 훌륭한 아이디어 창출 도구이기는 하지만 문제 해결 도구는 아니다. 현재 업계에서는 사실 확인을 수행하는 다른 자동화된 프로그램이 필요하다는 공감대가 형성되기 시작했다. LLM의 환각률을 추적하는 AI 플랫폼 벡타라(Vectara)가 바로 그 작업을 하고 있다. 아마르 아와달라(Amr Awadallah) 벡타라 대표는 환각을 감지하는 것이 환각을 해결할 수 있는 첫 번째 단계라며, 미래의 환각 감지기는 오류를 수정하는 자동화된 AI 편집기와 결합할 수 있다고 바라봤다.

하카니-투르 교수도 정확도를 높이기 위해 전문 언어 모델과 기업 문서, 검증된 제품 리뷰, 의학 문헌 또는 위키피디아 게시물 등 비교적 신뢰할 수 있는 정보 소스를 결합하는 사실에 기반한 시스템 개발을 연구하고 있다. 그녀는 모든 문제점이 해결되면 이러한 근거 기반 네트워크가 언젠가 의료 접근성 및 교육 형평성 같은 분야에 유용한 도구가 될 수 있기를 바란다며, "언어 모델이 우리의 삶을 더 나은, 더 생산적이고 더 공정하게 만드는 도구로서 강점을 가지고 있다고 생각한다"고 그녀는 전했다.

전문화된 사실 확인 시스템이 LLM 결과물을 검증하는 미래에는 특정 상황에 맞게 설계된 AI 도구가 오늘날의 다목적 모델을 부분적으로 대체할 것이다. 일반 챗봇은 사용자가 묻는 모든 질문에 응답할 수 있지만 정확도를 보장할 수 없어 그 수요는 점차 감소하고, 고객 서비스 챗봇, 뉴스 요약 서비스, 법률 자문 등 각 애플리케이션의 유용성을 구현할 수 있는 맞춤형 아키텍처를 기반으로 설계된 AI 텍스트 생성기의 수요는 확대될 전망이다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

[해외 DS] 인간 심판, AI에 완전히 대체될까?

[해외 DS] 인간 심판, AI에 완전히 대체될까?
Picture

Member for

1 month
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.

수정

AI 판정 시스템은 스포츠 판정의 속도와 정확성을 향상시킬 수 있는 잠재력을 가지고 있어
아직 기술적 한계가 존재해 인간 심판과 AI 시스템의 상호 보완적인 역할이 중요
앞으로 시각적 방해, 처리 지연, 최종 결정자의 인간 오류 등 해결해야

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.


AI Helping Referee ScientificAmerican 20240508
사진=Scientific American

최근 NBA는 선수들이 3점 슛을 시도하는 장면에서 그 선수와 골대 사이의 거리를 실시간으로 보여주기 시작했다. 마치 야구 중계에서 투구 속도를 표시하는 것처럼, 이 기능은 시청자들의 몰입을 한층 더 높이는 요소로 작용하고 있다.

그러나 지난해 12월 덴버 너기츠의 페이튼 왓슨 선수가 3점 슛을 성공시켰을 때, 영상에 표시된 거리는 무려 30피트(약 9미터)였다. 만약 사실이라면, 왓슨 선수는 상대 팀 벤치 뒤까지 물러난 상태에서 슛을 넣은 셈이다. AI 기술이 경기 판정을 더 신뢰할 수 있게 돕고, 새로운 방식으로 팬들을 끌어들일 수 있는 잠재력을 가지고 있지만, 여전히 기술적 한계가 존재한다.

물론 이미 여러 스포츠 리그가 AI를 도입하여 판정을 돕고 있다. 미국 프로농구(NBA), 미국 프로야구(MLB), 남자 프로테니스(ATP), 그리고 몇몇 유럽의 축구 리그들이 그 예시다. 하지만 전문가들은 정확성을 높이기 위해 최종 판정에 인간 심판의 참여가 필수적이라고 강조했다.

인간 심판에서 AI 판정 시스템으로의 전환

오랫동안 주요 스포츠 경기의 심판은 인간이 담당해 왔다. 공이 아웃됐는지, 선수가 오프사이드인지 등은 모두 인간 심판의 판단에 달려있었다. 시간이 흐르면서 인스턴트 리플레이와 같은 기술이 심판들이 정확한 결정을 내릴 수 있도록 도움을 주었지만, 최종 판정은 인간 심판이 내리는, 즉 '인적 오류'가 존재하는 구조는 크게 변하지 않았다.

인공지능이 주목받게 된 이유가 바로 여기에 있다. 2000년대 중반, 테니스는 모션 캡처와 컴퓨터 알고리즘을 활용하여 공이 코트 라인을 벗어났는지를 판정하는 최초의 스포츠가 됐다. 호크아이 이노베이션스가 개발한 3D 공 궤적 추적 시스템은 인간보다 훨씬 정확하여, 2025년까지는 ATP 경기에서 라인 판정을 위한 인간 심판이 완전히 사라질 예정이다.

야구 역시 예외는 아니다. 2019년부터 마이너리그에서 스트라이크와 볼을 결정하기 위해 MLB의 자동 투구 판정 시스템(ABS)을 시험 중이다. 이 시스템은 모션 캡처와 AI 알고리즘을 활용하여 투구가 스트라이크 존에 들어왔는지를 판단하며, 표면적으로는 인간의 눈보다 정확하다고 알려져 있다.

그러나 이 실시간 모션 캡처 애플리케이션도 완벽하지 않다. 종종 정확한 판정을 내리는 데 시간이 많이 소요되어, 정확도를 위해 속도가 희생되는 문제가 있다고 한다. 그 결과 경기의 템포를 따라가지 못해 인간 심판보다 느린 판정을 내려 경기 흐름을 방해한다는 의견도 제기됐다.

AI 심판의 한계, 빠른 판정과 정확성 사이의 줄타기

스포츠 방송 기술 회사인 SMT(SportsMEDIA Technology)의 야구 전문 스포츠 데이터 과학자 메러디스 윌스(Meredith Wills)에 따르면, MLB와 NBA 모두 이러한 실시간 모션 캡처 애플리케이션의 주요 문제점에 직면했다고 한다. 판정의 복잡성에 따라 이러한 AI 도구가 필드나 코트에서 빠르게 진행되는 동작을 항상 따라잡을 수는 없다고 그녀는 지적했다.

로봇 심판 시스템은 때때로 이러한 어려운 계산을 위해 '허우적거리는' 경우가 있다. 그중 일부는 몇 초가 걸릴 수 있는데, 인간 심판은 볼이나 스트라이크를 선언하는 데 보통 1초도 걸리지 않는다. 마이너리그에서는 심판이 경기 진행에 방해가 된다고 판단되면 ABS를 포기하고 직접 경기를 판정할 수 있는 재량권이 주어질 정도로 지연은 흔하고 심각한 문제로 인식되고 있다.

MLB 관계자는 미국 과학전문지 사이언티픽 아메리칸과의 인터뷰에서 지연된 판정은 전체 투구 중 “극히 일부”에 해당하며 느려진 원인을 확인했다고 밝혔지만, 추가적인 설명은 거부했다.

한편 윌스 연구원은 이러한 긴 처리 시간은 모션 캡처 카메라의 시야를 가득 채운 시각적 방해물들 때문일 수 있다고 언급했다. 예를 들어 농구 코트에서는 알고리즘이 공을 식별하고 추적하기 위해 움직이는 10명의 선수와 그들의 팔다리에서 공을 분리해야 한다. 또한 조명 변화나 배경색, 관중의 움직임과 같은 다른 시각적 요소들도 컴퓨터의 판정에 영향을 줄 수 있기 때문에 추적 오류가 발생하거나 처리 시간이 길어질 수밖에 없다고 설명했다.

AI 판정의 이중 난제, 최종 결정자의 오류도 가중될 수 있어

따라서 AI 판정 결과를 검증하기 위해 사람의 개입이 필요한 경우가 많다. 그러나 인간의 개입은 또 다른 오류를 만들어낼 수 있는데, 축구 경기에서 심판이 오프사이드 여부를 판단할 때 활용되는 비디오 보조 심판(Video Assistant Referee, VAR) 시스템의 경우가 이에 해당한다.

축구에서의 오프사이드 판정은 공이 차인 순간에 선수들의 위치를 파악하는 것이 중요하다. 영국 스태퍼드셔대학에서 스포츠 테크를 연구하는 푸야 솔타니(Pooya Soltani) 교수는 2022년에 진행한 연구에서 실제 심판들이 사용하는 리플레이 화면을 일반인들에게 보여줬을 때, 인간의 지각 능력과 영상 기술의 한계 때문에 공이 차인 시점을 평균적으로 약 132밀리초 (8분의 1초) 정도 늦게 인식한다는 결과를 얻었다.

솔타니 교수는 이 지연이 크게 느껴지지 않을 수도 있지만, 경기 흐름이 빠른 스포츠에서는 상당한 오류를 초래할 수 있다며, 득점 취소와 같은 오심이 발생할 수 있다고 강조했다.

NBA가 특정 판정을 돕기 위해 호크아이의 모션 캡처를 사용할 때도 비슷한 문제가 일어날 수 있다. NBA는 이미 이번 시즌부터 골텐딩 판정에 이 기술을 사용하기 시작했으나, 슈터의 손을 떠나 포물선의 정점을 찍고 하강하고 있는 공을 블록 했는지를 최종 결정하는 것은 여전히 사람이라고 한다.

인간 심판의 검토가 불가능한 사각지대도 주의해야

하지만 앞서 언급한 덴버 너기츠의 3점 슛 실시간 중계 사례처럼, 인간에 의한 사후 검토가 불가능한 경우도 있다. 최근 NBA는 자체 앱에서 직접 게임 내 베팅을 할 수 있는 도박 기능을 출시했다. 일각에선 모션 캡처 기술로 얻은 실시간 코트 정보를 활용해 베팅 배당률을 제공할 수도 있다고 분석했는데, AI 기반 분석 결과의 부정확성이 금전적 손실로 이어질 수 있다는 우려도 함께 제기됐다.

NBA 대변인은 새로운 기술이 기회와 도전을 동시에 제공한다고 언급하며, 호크아이의 초기 도입에서 발생한 문제들이 시스템의 큰 장점을 감소시키지는 않는다고 밝혔다. 그는 "이 기술이 심판 판정의 속도와 정확성을 향상시킬 뿐만 아니라 팬들이 경기를 경험하는 방식을 혁신할 수 있을 것이라는 확신을 여전히 가지고 있다"고 덧붙였다.

축적된 데이터로 학습이 진행됨에 따라 이러한 모션 캡처 시스템이 더 정교해지고 기술적 한계는 점차 줄어들거나 사라질 수 있다. 경기장의 시각적 방해 요소를 무시하는 모델의 능력이 향상될 수 있으며, 하드웨어와 소프트웨어의 개선을 통해 데이터 전송 속도를 높이고 처리 지연을 최소화할 수 있다.

그러나 현재로서는 심판 판정에서 인간의 역할이 여전히 중요하다는 것이 업계 관계자들의 중론이다. 이러한 현실을 인식하고 기술이 결정 과정에서 도움을 줄 수 있는 도구로 활용되어야 하며, 완전히 대체되어서는 안 된다는 점이 중요하다고 전문가들은 바라봤다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.

[해외 DS] 학계에 깊숙이 침투한 AI 챗봇

[해외 DS] 학계에 깊숙이 침투한 AI 챗봇
Picture

Member for

1 month
Real name
이효정
Position
연구원
Bio
[email protected]
지식은 전달하는 정보가 아니라, 함께 고민하기 위해 만들어진 언어입니다.

수정

최근 AI 챗봇을 사용한 것으로 보이는 문구 논문에 적나라하게 드러나
챗봇이 자주 사용하는 단어 논문에서도 자주 사용돼
챗봇을 사용하여 논문 작성 시간을 줄일 수 있지만 '환각' 증상으로 인한 가짜 정보 조심해야

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.


chatbot misuse
사진=Scientific American

최근 연구자들이 논문 작성 과정에서 ChatGPT와 AI 챗봇을 오용하고 있는 것으로 알려졌다. 실제로 과학자들이 발표한 일부 논문에서 AI 쉽볼렛(Shibboleth)으로 의심되는 논문이 급격히 증가하고 있는 추세다. 논문 실적이 중요한 학계에서 AI 챗봇은 논문 작성 시간을 단축해주면서 영어가 모국어가 아닌 학자들에게 많은 도움을 준다. 하지만 AI 챗봇이 가진 근본적인 문제인 '환각' 증세로 인해 실제 사실과 다른 답변을 내주고 이를 그대로 논문에 작성하여 심각한 문제로 떠오르고 있다.

ChatGPT와 같은 챗봇이 추천한 문구 발각되어

엘스비어(Elsevier)에서 발행하는 학술지인 서피스 앤 인터페이스(Surfaces and Interfaces)의 논문에서 AI로부터 도입부를 추천 받은 문구가 실수로 포함된 것이 밝혀져 논란이 되고 있다. 과학 무결성 컨설턴트인 엘리자베스 빅은 "이는 빙산의 일각에 불과할 것"이라며 과학계에서 챗봇 사용이 만연하게 깔려있음을 암시했다. 하지만 AI 챗봇을 사용하여 적발된 경우는 소수이며 대부분은 AI의 개입을 명확하게 밝혀내기 어렵다. 기존에 사용되는 AI 텍스트 감지기는 논문에서 AI 챗봇을 사용했는지 감지하기에는 역부족하기 때문이다.

그러나 최근 연구자들은 AI가 생성한 문장에서 자주 등장하는 몇 가지 핵심 단어와 구문을 파악한 것으로 알려졌다. 유니버시티 칼리지 런던의 사서이자 연구원인 앤드류 그레이는 AI가 생성한 문장을 오래 보면 그 문장 스타일에 대해 감을 잡을 수 있어 AI가 생성한 문장 특징에 대해 언급했다.

대규모 언어 모델은 텍스트를 생성하도록 설계되었지만, 생성된 내용이 사실과 다를 수 있다는 점을 주의해야 한다. 컴퓨터 과학자들이 ‘환각’이라고 부르는 대규모 언어 모델들의 단점은 사실 여부를 확인하기 보다는 텍스트를 만들어내는 것에 우선순위를 두어 생겨난 문제다. 심지어 과학 논문에서 AI 챗봇은 존재하지 않는 인용 참조를 생성하는 오류를 범하기도 한다. 따라서 과학자들이 챗봇을 지나치게 신뢰하면 AI 챗봇이 만들어낸 가짜 정보를 자신의 연구에 포함시키는 실수를 저지를 위험이 있어 AI 챗봇을 사용할 때 항상 주의를 기울여야 한다.

챗봇이 좋아하는 단어, 학계도 좋아하나?

그레이는 데이터 분석 플랫폼인 디멘션스(Dimensions)를 이용하여 과학 논문에서 사용된 AI 유행어를 찾아냈다. 또한 ‘복잡한’, ‘꼼꼼한’, ‘칭찬할 만한’ 등 챗봇이 자주 사용하는 단어를 검색하여 챗봇을 사용한 논문들을 발각했다. 그레이의 분석에 따르면 지난해 전 세계에서 발표된 모든 과학 논문의 1%가 넘는 최소 6만 편의 논문이 대규모 언어 모델을 사용했다는 의심을 받고 있다. 그러나 이는 모든 사람에게 공개되는 버전이 아닌 사전 인쇄 서버 아카이브(arXiv)의 데이터를 사용한 것으로 아직 평가하기에는 이르다는 의견이 나온다. 다른 연구에서는 과학의 특정 분야에 초점을 맞춘 연구에서 챗봇에 대한 의존도가 훨씬 더 높은 것으로 나타났다. 게다가 한 조사에 따르면 최근 컴퓨터 과학 논문의 최대 17.5%가 인공지능을 사용한 흔적이 있는 것으로 밝혀졌다.

추가로 사이언티픽 아메리칸은 자체 감지 시스템을 만들어 위 결과를 뒷받침했다. 이 감지 시스템은 디멘션스와 구글 스칼라(Google Scholar), 스코퍼스(Scopus), 펍메드(PubMed), 오픈알렉스(OpenAlex)를 비롯한 여러 과학 출판물 데이터베이스를 사용하여 만든 시스템이다. 이 시스템은 "마지막 지식 업데이트 기준"과 같이 AI 챗봇이 자주 사용하는 문구의 사용 빈도를 측정하여 논문 작성에 챗봇이 관여했음을 밝혀냈다. 4개의 주요 논문 분석 플랫폼에서 추적한 결과, 위 문구는 2020년에 단 한 번만 나타났으나 2022년에는 무려 136회나 나타났다. 하지만 이 접근 방식에는 몇 가지 한계를 갖는데, AI 모델 자체에 대한 논문을 AI가 생성한 콘텐츠라고 잘못 판단하는 오류를 범한다. 또한 사용된 데이터베이스에는 과학 저널의 동료 심사를 거친 논문 이외의 자료도 포함되어 있는 한계점이 있다.

그레이의 접근 방식과 마찬가지로 이 시스템에서도 챗봇임을 암시하는 미묘한 흔적을 발견했다. 자세히 말해 ChatGPT가 출시되기 직전과 직후에 과학 논문에서 ChatGPT가 선호하는 구문이나 단어가 발견된 횟수를 살펴보았다. 그에 따라 논문에서 사용되는 어휘의 변화를 추적하는 방식으로 연구를 진행했다. 연구 결과에 따르면 과학적 글쓰기 어휘에 변화가 생겼으며 이는 점점 더 많이 등장하는 챗봇의 글쓰기 틱(아무 생각 없이 글을 쓰는 것)으로 인해 발생한 것이다. 물론 그레이는 언어가 시간이 지남에 따라 일부 단어가 변화할 수 있다는 점도 고려했다. 하지만 이 중 얼마나 많은 부분이 언어의 자연스러운 변화고, 얼마나 많은 부분이 챗봇에 의한 것인지 구분하기 어렵다는 입장을 보였다.

사이언티픽 아메리칸은 챗봇이 논문 작성에 관여하는 징후를 찾기 위해 ‘파헤치다‘라는 단어를 파헤쳤다. 이 단어는 자체 감지 시스템이 지적했듯이 챗봇이 유행한 이후 학계에서 비정상적으로 많이 사용하게 된 단어다. 펍메드의 생의학과 생명과학 분야에서 3,700만여 건 논문의 초록과 인용에서 이 단어의 사용량을 계산한 결과, 2020년에 349회 사용되던 '파헤치다'는 2023년에 2,847회 등장했으며 1분기를 겨우 지난 2024년에는 이미 2,630회 사용되었다.

사이언티픽 아메리칸의 분석에 따르면, 감지 시스템이 발견한 챗봇이 생성한 다른 단어도 비슷한 증가세를 잡아냈다. 예를 들어 '칭찬할 만한'은 2020년 스코퍼스에 등재된 논문에서 240회, 디멘션스에 등재된 논문에서 10,977회 등장했다. 이 수치는 2023년에 각각 829회(245% 증가), 20,536회(87% 증가)로 폭발적으로 증가했다. 또한 '꼼꼼한'은 모순적이게도 2020년과 2023년 사이에 스코퍼스에서 두 배 증가했다.

챗봇이 생성한 것은 단어 그 이상

"출판하지 않으면 사라진다"는 속설이 학계에서 통용되는 현실로 챗봇을 사용하여 시간을 절약하거나 영어가 필수인 학술지에서 영어 구사력을 높이는 것은 어찌보면 당연한 일이며 저자에게 제2 또는 제3의 언어가 될 희망을 시사한다. 그러나 AI 기술을 문법이나 구문 도우미로 사용하는 것은 과학적 과정의 다른 부분에 잘못 적용될 여지가 있는 양날의 검이다. 챗봇을 공동 저자처럼 사용하여 논문을 작성할 시 주요 수치가 챗봇에 의해 인위적으로 생성되거나 가상의 동료 평가로 이어질 우려가 나온다.

이는 가상의 시나리오가 아니라 우리가 앞으로 마주할 미래다. 실제로 챗봇은 도표와 삽화를 허구로 제작하는 데 사용됐으며, 기괴하게 생긴 설치류를 만들어낼 뿐만 아니라 실험에서 인간을 대체하는 데도 사용됐다. 또한 2023년과 2024년 AI 컨퍼런스에서 연구를 발표한 과학자들에게 피드백을 제공한 사전 인쇄물 연구에 따르면 AI 챗봇의 사용은 동료 심사 과정 자체에도 스며들었다. 윤리적 학술 연구를 장려하는 영국 비영리 단체인 출판윤리위원회의 위원인 매트 호지킨슨을 비롯한 전문가들은 AI가 내린 판단이 학술 논문에 포함되는 걸 우려하고 있다. 그는 챗봇은 분석에 능숙하지 못하며 바로 여기에 진짜 위험이 있을 수 있다는 점을 경고했다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이효정
Position
연구원
Bio
[email protected]
지식은 전달하는 정보가 아니라, 함께 고민하기 위해 만들어진 언어입니다.

[해외 DS] 전장 곳곳 누비는 킬러 로봇, 통제 없는 AI 무기 사용에 대한 윤리적 갈등 심화

[해외 DS] 전장 곳곳 누비는 킬러 로봇, 통제 없는 AI 무기 사용에 대한 윤리적 갈등 심화
Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

수정

인공지능 무기는 사람이 직접 조종하지 않고 목표를 공격할 수 있어
윤리적 문제, 책임 소재 불분명, 검증의 어려움 등 논란이 많아
오는 9월 유엔 총회에서 AI 무기 문제를 논의할 예정
2026년까지 인간 감독 없는 무기 사용 금지 조약 체결이 가능할 것으로 예상돼

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 글로벌AI협회 연구소(GIAI R&D)에서 콘텐츠 제휴가 진행 중입니다.


Lethal AI ScientificAmerican 20240503
사진=Scientific American

우크라이나의 드론이 국경에서 1,000km 이상 떨어진 러시아 영토 내부로 침투하여 석유 및 가스 시설을 파괴하는 영상이 공개되었다. 전문가들은 이 드론이 인공지능을 활용해 목표 지점에 도달했을 것으로 추정하고 있다. 이러한 무기는 일반적으로 인간의 직접적인 개입 없이도 작동한다.

AI를 탑재한 드론을 포함해, 치명적인 자율 무기(LAWS)의 개발이 가속화되고 있다. 예를 들어, 미국 국방부는 '레플리케이터 프로그램'이라는 소형 무장 자율 운송체 개발 프로젝트에 10억 달러를 투자했다. 자율적으로 조종하고 사격이 가능한 실험용 잠수함, 전차, 함정이 이미 제작되었다. 시중에서 판매되는 드론들도 AI 이미지 인식 기술을 이용하여 표적을 추적할 수 있다. LAWS는 AI 없이도 작동 가능하지만, AI는 이들의 속도, 정확성, 방어 회피 능력을 강화한다. 일부 전문가들은 곧 저렴한 비용으로 AI 드론 군단을 조직하여 특정 개인의 얼굴을 인식하고 제거할 수 있는 시대가 도래할 수 있다고 우려하고 있다.

AI 무기 논쟁, 윤리적 문제와 유엔의 대응

전쟁은 인공지능의 활용이 비교적 간단한 분야다. 미국 UC버클리대 컴퓨터과학 교수이자 AI 무기 반대 운동가인 스튜어트 러셀(Stuart Russell)에 의하면 사람을 식별해 살해하는 시스템을 기술적으로 구현하는 것은 자율주행차를 개발하는 것보다 훨씬 수월하며, 실제로 대학원 수준의 프로젝트로도 구현 가능하다고 한다. 러셀 교수는 2017년 AI 무기의 위험성을 알리는 '슬로터봇'이라는 바이럴 영상 제작에 참여한 바 있다.

전장에 AI가 등장하면서 연구자, 법률 전문가, 윤리학자들 사이에서 논쟁이 심화되고 있다. 일부는 AI가 지원하는 무기가 인간이 직접 통제하는 무기보다 정확도가 높아 민간인 사상자나 주거 지역 피해와 같은 부수적인 피해와 사망 및 불구가 된 군인의 수를 줄일 수 있으며, 취약한 국가와 집단이 스스로를 방어하는 데 도움을 줄 수 있다고 주장한다. 그러나 다른 이들은 자율 무기가 치명적인 실수를 저지를 수도 있다고 반박했다. 무엇보다도 많은 사람들이 결정권을 알고리즘에 맡기는 것이 윤리적 문제를 야기한다고 지적하고 있다.

지난해 12월, 유엔 총회는 국제사회에 위협이 될 수 있는 치명적 자율무기 시스템(LAWS)에 대응하기 위한 결의안을 152개국의 압도적 지지로 채택했다. 이 결의안은 오는 9월 유엔 총회의 의제에 LAWS에 대한 논의를 포함하는 것을 골자로 하고 있다. 안토니우 구테흐스 유엔 사무총장은 지난해 7월, 2026년까지 인간의 감독 없이 작동하는 무기 사용을 금지하는 것을 목표로 설정했다고 발표했다. 이와 관련하여, 하버드대 로스쿨의 인권 변호사이자 휴먼라이츠워치의 무기부서 선임 연구원인 보니 도처티(Bonnie Docherty)는 지난 10여 년 동안 별다른 진전이 없었던 이 주제가 유엔 의제로 채택된 것은 매우 의미 있는 진전이라고 평가하며, "외교는 느리지만, 이는 중요한 한 걸음이다"고 언급했다.

자율 무기 시스템의 정의, 국가별 입장 차이와 협상 방향

무기 사용의 통제와 규제는 수 세기에 걸쳐 이루어져 왔다. 중세 시대의 기사들은 서로의 말을 창으로 공격하지 않기로 합의했으며, 1675년에는 프랑스와 신성 로마제국이 독약 총알의 사용을 금지하기로 동의했다. 현대에는 무기에 대한 주요 국제적 제약이 1983년에 체결된 유엔 특정 재래식무기 금지협약(CCW)을 통해 이루어지고 있다. 이 협약은 예를 들어 실명을 유발하는 레이저 무기의 사용을 금지하는 데 사용됐었다.

자율 무기의 역사도 짧지 않다. 수십 년에 걸쳐 다양한 형태로 존재해 온 자율 무기에는 열 추적 미사일부터, 자율성의 정의에 따라, 미국 남북전쟁 시절의 압력 작동 지뢰까지 포함된다. 그러나 현재 AI 알고리즘의 발전과 적용으로 인해 자율 무기의 기능이 크게 향상되고 있어 문제가 되고 있다.

CCW는 2013년부터 인공지능을 탑재한 무기에 대해 공식적인 조사를 진행해 왔다. 하지만 규제를 통과시키려면 국제적인 합의가 필요하다. 관련 기술을 적극적으로 개발 중인 여러 국가가 금지에 반대하기 때문에 진행 속도는 더딜 수밖에 없었다. 이와 같은 상황을 고려하여, 미국은 지난 3월 법적 구속력이 있는 금지 조치보다는 모범 사례에 대한 자발적 지침을 중시하는 '책임 있는 군사용 인공지능 및 자율성에 관한 정치 선언'을 발표하는 회의를 개최했다.

미국의 선언은 분명 국제 사회의 관심과 참여를 유도하는 데 큰 역할을 했을 것이다. 그러나 더 긴급하고 중요한 문제는 자율 무기 시스템(LAWS)이 실제로 무엇인지에 대한 일관된 합의가 없다는 점에 있다. 2022년의 분석에 따르면, 북대서양조약기구(NATO)와 같은 기구가 제시한 자율 무기 시스템의 정의는 최소 12가지나 된다. 러셀 교수는 이러한 정의들이 너무나도 광범위하여 AI에 대한 명확한 합의는 물론이고 이해조차 제한적이라고 지적했다.

예를 들어 영국은 LAWS가 "더 높은 수준의 의도와 방향을 이해할 수 있다"고 말하는 반면, 중국은 이러한 무기가 "인간의 예상을 뛰어넘는 방식으로 자율적으로 배우고, 기능과 성능을 확장할 수 있다"고 이야기한다. 반면 이스라엘은 "기계가 스스로 발전하고, 제작되며, 작동하는 것은 공상과학 영화에서나 볼 수 있는 상상에 불과하다"고 명시했다. 독일은 "자아 인식"을 자율 무기에 필요한 속성으로 포함했는데, 대부분의 연구자는 현재 AI로는 이러한 특성을 가지는 게 불가능하다고 말하며, 설령 가능하더라도 상당한 시간이 걸릴 것이라고 꼬집었다.

보다 포괄적이고 구체적이며 현실적인 법의 정의가 마련되어야 하겠지만, 일부 전문가들은 이를 조금 미뤄둘 수 있다고 주장한다. 도처티 교수는 보통 군축법 분야에서 정의를 내리는 문제는 협상의 마지막 단계에서 다루는 경우가 많다고 설명했다. 기본적인 수준의 정의 정도만 있으면 협상 과정을 시작할 만하며, 동시에 이는 반대하는 국가들의 초기 반발을 누그러뜨리는 데도 도움이 될 수 있다고 한다.

AI 무기의 전략적 이점과 불확실성

덴마크 남부대학(SDU)의 전쟁연구센터가 지난해 발표한 분석에 따르면, 현재 군에서 사용 가능한 AI 기반 자율 무기는 아직 상대적으로 원시적인 수준이라고 한다. 이러한 무기들은 속도가 느리고 조작이 까다로운 드론이며, 본체와 목표물을 동시에 파괴할 수 있는 정도의 폭발물만 장착하고 있다.

하지만 AI 드론과 같은 '배회 폭탄'(loitering munition)은 최대 50km까지 폭발물을 운반해 차량을 파괴하거나 개별 병사를 사살할 수 있다. 이 무기들은 내장된 센서를 통해 광학, 적외선, 무선 주파수를 감지하여 잠재적인 목표를 찾고, AI는 이 센서 데이터를 탱크, 장갑차, 레이더 시스템, 심지어 인간에 이르기까지 미리 정의된 목표 프로필과 비교해 목표물을 식별할 수 있다.

또한 전문가들은 자율 폭탄이 원격 조종 드론에 비해 가지는 주요 이점 중 하나는 적이 전자 통신을 방해하는 장비를 사용하더라도 작동한다는 것이라고 강조했다. 아울러 자율 조작이기 때문에 원격 조종자가 적에게 추적되어 공격받을 위험도 없다.

사실 군에서 이러한 데이터를 공개하지 않기 때문에 AI 무기가 전장에서 얼마나 잘 작동하는지 정확히 파악하기는 어렵다. 일례로 지난해 9월 영국 의회 조사에서 AI 무기에 대해 직접적인 질문을 받은 영국 전략사령부의 부사령관인 톰 코핑거-심즈는 구체적인 언급을 피했다. 그는 단지 영국군이 자율 시스템과 비자율 시스템을 비교 평가하는 벤치마킹 연구를 진행 중이라고만 밝혔다. "옛날 방식처럼 10명의 이미지 분석가가 같은 대상을 살펴보는 것과 비교했을 때, 이것(AI)이 투자한 비용만큼의 가치를 제공하는지 확인하는 것은 불가피하다"고 그는 설명했다.

비록 실제 전투 데이터가 부족하지만, 연구자들은 AI가 뛰어난 처리 및 의사결정 능력으로 상당한 이점을 제공할 수 있다고 주장한다. 예를 들어, 매년 실시되는 이미지 인식 테스트에서 알고리즘은 거의 10년 동안 전문가들의 인지 능력을 능가해 왔다. 또한, 최근 연구에 따르면 AI는 과학 논문에서 중복 이미지를 인간 전문가보다 더 신속하고 광범위하게 탐지할 수 있다고 한다. 게다가 2020년에는 AI 모델이 가상 공중전에서 베테랑 F-16 전투기 조종사를 이겼고, 2022년에는 중국 군사 연구진이 AI 드론이 인간 조종사가 원격으로 조종하는 항공기를 제압한 것으로 보고했다.

워싱턴 DC 국제전략문제연구소(CSIS)의 보안 분석가인 잭 캘런본(Zak Kallenborn)은 드론 AI는 특정 기동 방법, 적기와의 거리, 공격 각도 등에 대해 매우 복잡한 결정을 내릴 수 있다고 강조했다. 그러나 캘런본은 특히 양측 모두 AI 무기에 접근할 수 있는 상황이라면, 이 무기들이 어떤 전략적 이점을 제공하는지는 아직 확실하지 않다고 지적했다. 그는 "문제의 대부분은 기술 자체가 아니라 군대가 그 기술을 어떻게 사용하는지에 달려있다"고 덧붙였다.

책임 소재의 모호성과 인간 개입의 필요성

자율 무기의 윤리성을 평가하는 데 자주 사용되는 핵심 기준 중 하나는 신뢰성, 즉 예상치 못한 사고의 가능성이다. 2007년 영국군은 자율 유도 미사일인 브림스톤이 아프가니스탄에서 버스에 탄 학생들을 무장 세력이 탄 트럭으로 오인할까 우려해 급히 설계를 변경한 적이 있다.

캘런본은 AI 무기가 적외선이나 강력한 레이더 신호를 쉽게 식별할 수 있기 때문에, 어린이가 고성능 레이더를 배낭에 넣고 다니지 않는 이상, AI 무기가 민간인에게 해를 끼칠 가능성은 매우 낮다고 말했다. 그러나 시각적 이미지 인식은 더 많은 문제를 안고 있다며, 카메라와 같은 센서에만 의존하는 시스템은 오류가 발생할 가능성이 훨씬 높다고 설명했다. AI가 이미지 인식에서 우수하지만 완벽하지 않으며, 연구에 따르면 이미지에 아주 미세한 변화만 주어도 신경망 모델이 이미지를 잘못 분류할 수 있다고 한다. 예를 들어, 항공기를 개로 잘못 인식하는 일도 발생한다고 그는 언급했다.

윤리학자들이 주목하는 또 다른 기준은 무기의 사용 용도다. 공격용이냐 방어용이냐에 따라 의견이 극명하게 갈린다. 방어형 무기는 사람이 아닌 무기 자체를 목표로 하며, 신호를 잘못 인식할 가능성이 작아 윤리학자들이 상대적으로 더 용인하는 경향이 있다. 인간의 개입 여부도 중요한 기준 중 하나다. 유일하게 연구원들과 군 관계자들 사이에서 공통적으로 제안하는 원칙 중 하나는 자율 무기 시스템에 인간의 개입이 필수로 있어야 한다는 것이다. 하지만 인간이 어디에서 어떻게 개입해야 하는지는 여전히 논쟁의 여지가 있다. 많은 사람은 일반적으로 인간이 공격을 승인하기 전에 목표물을 맨눈으로 확인해야 하며, 상황이 바뀌는 경우 (예: 민간인이 전투 지역에 진입할 경우) 공격을 중단할 수 있어야 한다고 입을 모았다.

이에 일부 시스템은 상황에 따라 완전 자율 모드와 인간 지원 모드 사이를 전환할 수 있도록 지원한다. 그러나 전문가들은 이것만으로는 부족하다고 지적하는데, 인간에게 자율 기능을 비활성화하라고 요구하는 것은 진정한 의미에서 통제가 아니라는 것이다. 하지만 완전 자율 무기 역시 책임 소재를 더욱 모호하게 만든다. 도처티 교수는 "당연히 무기 자체에 책임을 물을 수 없기 때문에, 자율 무기의 활용이 책임의 사각지대에 빠질 것을 매우 우려한다"고 말했다. 또한 무기가 자율적으로 작동하는 상황에서 조작자에게 책임을 묻는 것은 법적·윤리적으로 매우 어려울 것이라고 덧붙였다.

자율 무기에 관한 논의에서 최소한 한 가지 사항에는 모든 이들이 동의하는 것으로 보인다. 미국과 중국을 포함하여 일반적으로 통제를 반대하는 국가들도 AI를 포함한 자율 시스템이 핵무기 발사 결정에 관여해서는 안 된다는 점을 인정하고 있다. 그러나 러시아는 인간 개입 없이 서방에 대한 선제 핵 공격을 수행할 수 있는 '페리미터(Perimetr)'라는 냉전 시대의 프로그램을 부활시켰다고 알려져 있다. 이 문제로 인해 미국과 중국은 여러 자율 무기 회담에서 러시아에 전략 변경을 요구하며 압박을 가하고 있다.

AI 무기 규제, 검증과 감시 어려워

안타깝게도 캘런본의 보고에 따르면 자율 무기의 사용에 대한 금지 조치는 검사와 감시를 통한 집행이 어렵다고 한다. 이는 일반적으로 다른 규제 대상 무기들에 적용되는 '신뢰하되 검증하라'는 방식이 자율 무기에는 적용되지 않음을 의미한다. 예컨대 핵무기는 핵물질에 대한 현장 사찰과 감사 시스템이 잘 마련되어 있지만, AI는 상황에 따라 쉽게 숨기거나 변경될 수 있다.

단지 몇 줄의 코드를 변경함으로써 기계가 스스로 폭파를 결정하도록 만들 수 있는 것이다. 코드를 삭제했다가 무기 통제 검사관이 떠난 후 다시 추가하는 것도 가능하다. 이러한 사실은 무기 시스템과 군비 통제에서 '검증'이라는 개념을 재고해야 할 필요성을 시사한다. 이에 캘런본은 검사를 생산 시점이 아닌 사후에 실시해야 할 수도 있다고 제안했다.

이러한 문제들은 9월 유엔 총회에서 논의될 주요 안건이 될 예정이다. 또한 대화를 촉진하기 위해 오스트리아는 4월 말에 사전 컨퍼런스를 개최할 계획이다. 도처티 교수의 말에 따르면, 9월에 많은 국가들이 조치를 취하기로 결의하면 유엔은 이 문제를 구체화하기 위한 실무 그룹을 구성할 가능성이 높다고 한다.

2017년 유엔 핵무기 금지 조약 협상에서 중요한 역할을 한 도처티 교수는 조약이 3년 이내에 체결될 수 있다고 전망했다. "경험에 비추어 볼 때, 협상이 시작되면 상대적으로 빠르게 진행된다"고 그녀는 내다봤다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

[해외 DS] 해외 정부는 어떻게 유권자의 마음을 '해킹'했을까

[해외 DS] 해외 정부는 어떻게 유권자의 마음을 '해킹'했을까
Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

수정

소셜 미디어를 이용한 유권자 마음 '해킹' 성행하고 있어
사이버 영향력 작전에 휘둘리지 않으려면 관찰-지향-결정-행동 구조를 이해해야
2024년 전 세계 인구의 49%가 선거에 참여하는 만큼 사이버 영향력 작전과 선거 간섭에 철저히 대응해야

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.


votes getty images
사진=Scientific American

2024년은 역사상 가장 많은 사람들이 선거에 참여하는 연도다. 선거는 국제법상 국가 '내부'의 문제로 다른 나라의 간섭을 받으면 안 된다. 그러나 최근 온라인 조작을 통한 국가 간의 '선거 간섭'이 증가하고 있는 추세다. 특히 사이버 영향력 작전(Cyber-Enabled Influence Operations)은 소셜 미디어를 통해 허위 정보와 가짜 뉴스를 내포해 심각한 문제로 떠오르고 있다.

정보를 이용한 국가 간의 간섭 심화되어

2016년 미국 대선에서 러시아의 선거 개입이 드러난 이후 인플루언서 작전이 대중에게 널리 알려졌으며 사이버 작전에 대한 관심도 계속 커지고 있다. 따라서 연구자, 정책 입안자, 소셜 미디어 기업은 사이버 영향력 작전에 대응하기 위해 다양한 방식을 고민하고 있다. 또한 전문가들은 사이버 영향력 작전에 휘둘리지 않기 위해서는 사이버 영향력 작전의 '작동 방식'을 이해하는 것이 가장 중요하다고 강조했다.

역사적으로 정보는 나라를 통치하는 수단으로 사용되어 왔다. 손자병법의 저자인 손무는 2000여 년 전에 "최고의 병법이란 싸우지 않고 이기는 것"이라며 정보를 이용한 병법을 강조했다. 실제로 1980년대 소련은 미국에서 에이즈가 발생했다는 거짓 정보를 퍼뜨리기 위해 인펙션/덴버 작전(Infektion/Operation Denver)을 수행했다. 사이버 세계가 등장한 이후 정보를 이용한 작전은 범위, 규모, 속도 모든 측면에서 빠르게 확장하고 있다.

사이버 작전의 대상도 점차 변해가는 추세다. 기존에는 '기계'를 대상으로 했으나, 최근에는 키보드 뒤의 '인간'을 대상으로 한다. 사이버 작전은 대중의 사고와 인식을 변화시키고 궁극적으로는 행동을 변화시키고자 한다. 행동 변화의 대표적인 예시로는 적대적인 국가에서 정치 집회를 조직하는 것이다. 이처럼 현대 사이버 영향력 작전은 무력 충돌 없이 벌어지는 국제 경쟁의 연속이다. 예를 들어 사이버 영향력 작전은 양극화를 조장하는 정보를 대중에게 내포해 여론을 조작한다. 기존에는 네트워크 시스템을 해킹하거나 통신을 방해하는 공격적인 사이버 작전을 펼쳤으나, 최근 사이버 작전은 사람 마음을 '해킹'하는 데 중점을 두고 있다. 사람 마음을 해킹하는 작전은 외국 세력이 다른 나라의 정치에 개입하고자 할 때 유용하기 때문이다.

사이버 영향력 작전 핵심 원리, 관찰-지향-결정-행동 구조

그럼 사이버 영향력 작전은 어떤 원리로 작동할까? 이를 이해하기 위해서는 군사적 개념인 관찰-지향-결정-행동(Observation-Orientation-Decision-Action) 구조를 알아야 한다. 이 모델은 한 사회의 개인이 환경으로부터 정보를 얻고 그 정보로 전략적 선택을 내리는 과정을 말한다. 공중전에서 전략적 선택은 조종사의 생존과 군사적 승리로 이어지고, 일상 생활에서 전략적 선택은 우리의 이익을 대변하는 정치인을 선택하는 것이다. 여기서 관찰-지향-결정-행동 구조의 '관찰'에 정보를 추가하면 '행동'에 지대한 영향을 미칠 수 있다. 따라서 사이버 영향력 작전은 관찰 단계에서 대중에게 메시지를 전달하여 그들의 행동을 변화시킨다.

OODA loop
관찰-지향-결정-행동 구조/사진=Scientific American

사이버 영향력 작전은 소셜 미디어를 활용해 영향력을 행사한다. 사이버 영향력 행사는 식별-모방-증폭 프레임워크를 통해 이해할 수 있다. 첫 번째로 '식별' 단계에서는 소셜 미디어 마이크로 타깃팅(Microtargeting)을 통해 타깃층과 분열을 조장하는 이슈를 파악한다. 두 번째는 '외부인'이라는 허위 신분을 만들고 타깃층의 구성원인 것처럼 위장하여 신뢰도를 높인다. 마지막으로 사이버 영향력은 맞춤형 메시지를 통해 콘텐츠와 대상 그룹 수를 늘리고, 다양한 플랫폼에 게시글을 올려 영향력을 증폭시킨다.

실제로 2016년 러시아에서 미국 대중을 표적으로 삼기 위해 악명 높은 '트롤 공장'이 운영하는 광고를 구매했다. 이 광고에서 트롤은 허위 신원을 설정하고 대상 집단일 것 같은 언어를 사용해 위장했다. 그런 다음 타깃층의 공감을 불러일으키는 메시지를 보내며 그룹 내 소속감을 만들어 영향력을 행사했다. 설계된 메시지는 허위 정보 뿐만 아니라 오히려 사실에 근거한 정보도 사용했다. 따라서 허위 정보, 가짜 뉴스 대신 '사이버 영향력 작전'이라는 용어를 사용하여 실체를 명확히 해야 한다.

최근 입대한 군인이 9/11 테러를 TV로 본 생생한 경험을 이야기하며 이 사건을 계기로 군에 입대하게 되었다는 내용의 게시물이 있다. 이 게시물은 미국 전역 퇴역 군인 페이스북 페이지가 공유했으나, 조작되었을 가능성이 높다는 평가를 받고 있다. 이처럼 디지털 미디어 플랫폼에서는 '가짜' 게시글이 '진짜' 게시글과 마찬가지로 정서적 영향을 미칠 수 있다. 또한 '가짜' 게시물은 애국심을 끌어올릴 뿐만 아니라 이외의 목적으로도 활용될 여지가 커 주의를 기울여야 한다.

마이크로 타깃팅을 통한 마음 '해킹', 사이버 영향력 작전과 선거 간섭에 잘 대응해야

러시아 인터넷 연구소는 2016년 미국 대선에 개입하기 위해 특수 메시지를 제작하여 페이스북에서 사이버 영향력 작전을 진행했다. 페이스북의 마이크로 타깃팅 기능을 사용하여 그룹에 따라 각기 다른 메시지를 만들었다. 러시아가 구매한 대부분의 페이스북 광고는 허위 정보 없이 인종, 정의, 경찰 등 주제에 초점을 맞춘 메시지로 아프리카계 미국인을 대상으로 삼았다. 그 결과 1억 2600만 명의 미국인은 자신의 견해와 투표에 영향을 받은 것으로 알려졌다. 심지어 러시아는 미국 외에도 독일과 영국을 표적으로 삼은 것이 드러났다.

올바른 전략적 결정을 내리려면 개인이 주변 환경을 '정확하게' 관찰해야 한다. 관찰된 현실을 분열이라는 조작된 렌즈를 통해 보면 관리 '가능한' 사회적 의견 불일치가 관리 '불가능한' 분열로 바뀔 수 있다. 예를 들어 미국의 양극화는 대부분의 사람들이 생각하는 것만큼 정치적으로 양극화되어 있지 않다. 이처럼 '가짜 뉴스' 없이도 기관에 대한 신뢰를 훼손할 수 있다.

식별-모방-증폭 프레임워크에서 강조하듯이 누가 합법적으로 토론에 참여하고 여론에 영향을 미칠 수 있는 지에 대한 질문은 매우 중요하다. 또한 관찰되고 있는 '현실'이 무엇인지도 중요한 질문이다. 기술을 통해 외부인(외국의 허위 신분)이 특정 사회의 구성원인 것처럼 위장할 수 있게 되면 사이버 영향력 작전은 더욱 유효하게 되어 조작의 위험에 빠지기 마련이다.

2024년에는 전 세계 인구의 약 49%가 선거에 참여할 것으로 예상되는 만큼 사이버 영향력 작전과 선거 간섭에 휘둘리지 말아야 한다. 식별-모방-증폭 프레임워크를 이해하는 것은 시작에 불과하다. 외국의 사이버 영향력 행사는 진실을 교묘하게 활용하여 여론을 움직일 것이며 이것이 국내 정치에 어떤 결과를 불러일으키는지 깊이 고민해야 하는 문제다. 또한 사이버 공간의 특징인 접근성과 익명성은 사이버 영향력 작전을 용이하게 만든다. 따라서 민주주의 국가는 익명성을 보장하면서 합법적인 사용자에게만 접근 가능하게 해야 한다. 이는 물론 어려운 과제이면서도 시급히 해결해야 할 과제다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

[해외 DS] 스탠퍼드대 'AI 인덱스 2024' 발표, 대규모 기반 모델의 개발 열풍으로 2023년 8배나 급증한 생성형 AI 투자

[해외 DS] 스탠퍼드대 'AI 인덱스 2024' 발표, 대규모 기반 모델의 개발 열풍으로 2023년 8배나 급증한 생성형 AI 투자
Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

수정

지난해 생성형 AI 252억 달러 유치, 기존과는 차원이 다른 투자 규모 기록해  
주로 기반 모델 학습 비용 증가와 고성능 컴퓨팅 자원에 대한 수요 증가에 대응하기 위해 사용돼
미국 주요 분야에서 압도적인 우위를 점하고 있지만, 중국 일부 영역에서 빠르게 추격하고 있어

미국 스탠퍼드대학의 인간중심 인공지능연구소(HAI) 2024 AI 인덱스 보고서에 의하면, 지난해 생성형 AI 기업들의 펀딩이 8배 증가하여, 총 252억 달러에 달했다고 한다. 오픈AI와 코히어 등 주요 AI 기업들이 대규모 투자 유치에 성공한 까닭이다.

작년의 주요 투자 사례로는 마이크로소프트의 100억 달러 규모의 오픈AI 계약, 코히어의 2억 7천만 달러 투자 유치, 미스트랄의 4억 1천5백만 달러 투자 유치 등이 있다. 또한 이 보고서에 따르면 2023년 전체 AI 관련 민간 투자의 4분의 1 이상을 생성형 AI가 차지한 것으로 나타났다.

Standford HAI 1 20240429
사진=Standford HAI

그러나 AI에 대한 기업들의 지출이 지난해 20% 감소한 1,892억 달러였다고 보고서는 지적했다. 2022년 대비 31.2% 줄어든 인수합병 감소가 그 원인으로 꼽혔는데, 이러한 감소에도 불구하고 포춘 500대 기업의 실적발표 중 80%가 AI를 언급한 바 있다.

미국 AI 투자 우위 확실, 반도체는 중국 추격 속도 빨라져

투자는 미국 기업들이 주도했다. 중국이 78억 달러를 투자한 것과 비교할 때, 미국은 거의 9배 많은 672억 달러를 투자하였다. 아울러 2022년 대비 2023년에는 중국과 EU의 AI에 대한 민간 투자는 감소한 반면, 미국은 22.1% 증가했다.

Standford HAI 2 20240429
출처=Standford HAI

안면 인식을 제외한 모든 AI 기술 부문에서 가장 많은 지출을 한 국가 역시 미국이었지만, 중국은 안면 인식 분야에 1억 3천만 달러를 투자해 미국의 9천만 달러를 크게 앞서며 압도적인 1위를 차지했다.

반도체 부문 지출 또한 미국이 7억 9,000만 달러를 기록하면서 1위를 차지했지만, 중국이 6억 3,000만 달러로 미국 뒤를 바짝 쫓고 있다. 특히 중국은 미국의 대중 반도체 수출 통제 규제 강화에 맞서 반도체 지출을 크게 늘리고 있는 것으로 보인다.

미국의 AI 투자는 급여에도 영향을 미쳤다. HAI의 보고서는 개발자 전용 질의응답 사이트 '스택오버플로'(Stack Overflow)의 설문조사 수치를 인용했는데, 이 조사에 따르면 AI 직무의 연봉이 다른 나라에 비해 미국에서 상당히 높은 것으로 나타났다.

예를 들어 지난해 미국 하드웨어 엔지니어의 평균 연봉은 14만 달러지만, 전 세계 평균 연봉은 8만 6,000달러였다. 클라우드 인프라 엔지니어의 글로벌 평균은 10만 5,000달러인 반면, 미국에서는 18만 5,000달러를 기록했다.

한편 글로벌 관점에서 2023년에 가장 많은 투자를 유치한 분야는 AI 인프라, 연구 및 거버넌스로 183억 달러였다. 이 중 상당액은 오픈AI와 엔트로픽과 같은 기업들이 'GPT-4 터보'와 '클로드 3' 같은 대규모 애플리케이션을 개발하는 데 사용됐다고 한다.

자연어 처리와 고객 지원에 81억 달러를 지출한 것이 두 번째로 큰 비용 분야로, 많은 기업들이 고객 센터 자동화와 같은 반복적인 작업을 효율적으로 관리할 수 있는 솔루션에 관심을 기울이고 있다.

자금의 주 사용처, 대규모 기반 모델 구축

AI 인덱스 보고서에 따르면 오픈AI와 같은 회사가 수백만 달러의 자금을 조달해 새로운 모델을 훈련하는 데 막대한 비용을 지출하고 있다고 한다.

특히 고급 AI 모델 학습 비용이 지난해부터 많이 증가했는데, 스탠퍼드의 연구원들은 이 증가가 대규모 기반 모델(foundation model) 구축에 대한 투자 때문이라고 밝혔다.

예를 들어 오픈AI는 GPT-4 모델을 훈련하는 데 약 7,800만 달러, 구글의 주력 모델인 제미나이는 약 1억 9,100만 달러가 필요했다.

Standford HAI 3 20240429
출처=Standford HAI

이전 모델들의 개발 비용과 비교하면 충격적인 수치다. 2017년에 출시된 트랜스포머 모델은 훈련 비용이 약 900달러, 2019년 출시된 페이스북의 RoBERTa 대형 시스템은 약 160,000달러였다.

물론 모델 개발자는 모델 훈련 비용에 대한 구체적인 수치를 거의 공개하지 않는다. 이에 따라 HAI는 미국 AI 연구기관 에포크(Epoch)와의 협력을 통해 훈련 비용의 추정치를 산출했으며, 이는 관련 기술 문서와 보도 자료에 나타난 정보를 기반으로 훈련 기간, 사용된 하드웨어의 종류, 품질 및 사용 정도를 분석하여 얻은 결과라고 전했다.

학습 비용이 증가했을 뿐만 아니라, 컴퓨팅 자원에 대한 수요도 덩달아 상승했다. 2017년 구글의 트랜스포머 모델은 훈련에 약 7,400페타플롭이 필요했지만, 7년 후 제미나이 울트라는 500억 페타플롭이 필요했다.

Standford HAI 4 20240429
출처=Standford HAI

이렇게 자본과 전력 집약적인 시스템의 발전은 학계에 새로운 문제를 야기하고 있다. 제미나이 울트라와 같은 시스템을 운영하는 데 드는 막대한 비용으로 인해 학계에서 접근이 점점 더 어려워지고 있기 때문이다.

“선도적인 AI 모델에 대한 산업 지배력 증가는 작년 AI 지수 보고서에서 처음 강조됐다. 올해에는 그 격차가 다소 좁혀지긴 했지만, 이러한 추세는 여전히 지속되고 있다"고 보고서는 명시했다.

텍스트 넘어 이미지·동영상까지, 멀티모달 AI 시대 도래

구글은 2019년부터 40개의 모델을 발표해 가장 많은 기반 모델을 공개한 기업이 되었다. 오픈AI는 20개로 2위를 차지했고, 비서구권 기관 중에서는 중국의 칭화대학교가 7개의 AI 모델을 공개하며 가장 많았다.

또한 지난해 공개된 대규모 AI 시스템의 대부분은 미국에서 109개로 가장 많았다. 중국 기관이 2위를 차지했지만 20개에 불과했다. 스탠퍼드대 보고서는 2019년을 기점으로 미국이 AI 모델 생산을 선도하고 있다고 한다.

마지막으로 보고서에서 강조된 한 가지 중요한 성장 추세는 텍스트뿐만 아니라 이미지나 동영상을 처리할 수 있는 멀티모달 AI 모델·시스템의 수가 증가하고 있다는 점이다.

이에 HAI의 연구 프로그램 책임자 바네사 팔리(Vanessa Parli)는 "올해에는 다양한 분야에서 활약할 수 있는 모델들이 더욱 많아질 것으로 예상된다"고 말했다. "이 모델들은 텍스트를 입력받아 오디오를 생성하거나, 이미지에 대한 설명을 만들어낼 수 있다. 개인적으로 가장 흥미로운 AI 연구 분야는 이러한 대규모 언어 모델을 로봇이나 자율 에이전트와 결합해, 로봇이 현실 세계에서 더욱 효율적으로 작동하도록 하는 데 있어 중대한 발전을 이루는 것이다"고 그녀는 덧붙였다.

Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.