입력
수정
AI 에이전트, LLM 다음 기술로 꼽혀 기업 넘어 개인 비서 준비하는 AI 에이전트 AI 에이전트 규제 시급, 경쟁 시작되면 늦어
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.
빅테크 기업들이 챗봇을 넘어 인공지능(AI) 에이전트 개발에 박차를 가하는 모습이다. AI 에이전트는 인간이 더 의미 있는 일을 하는 데 동조할 것이며, 이에 따라 기업의 생산성은 향상될 것으로 예상된다. 한편 일각에서는 개발 속도에 집중한 나머지 에이전트가 등장함으로써 생기는 부작용을 간과하면 안 된다고 주의를 줬다.
차세대 기술 ‘AI 에이전트’
인간은 매일 선택하며 살아간다. 철학자들은 주체적으로 행동하는 능력이 인간을 단순한 생명체나 기계와 구별되는 점이라고 오랫동안 얘기해 왔다. 그러나 최소한의 인간 감독으로 의사 결정을 내리고 목표를 달성하는 '인공지능(AI) 에이전트'가 있는 현재, 이러한 구분은 점차 희미해져 가고 있다.
AI 개발자들은 맞춤형 비서인 AI 에이전트를 차세대 물결이라고 예상했다. 에이전트는 챗봇과 마찬가지로 대형언어모델(LLM)을 활용하며 휴대폰과 태블릿에서 사용할 수 있다. 그러나 에이전트는 챗봇보다 자율적이다. 챗봇은 텍스트나 이미지를 생성하기 위해 사용자가 계속 지시를 해야 하지만, 에이전트는 자율적으로 외부 앱과 상호 연동해 개인이나 조직을 대신해 업무를 수행한다.
이에 빅테크 기업들은 AI 에이전트 개발에 박차를 가하는 모습이다. 오픈AI(OpenAI)는 에이전트를 인공 일반 지능(AGI)을 구축하기 위한 5단계 중 세 번째로 단계로 꼽았으며, 내년 1월 '오퍼레이터(Operator)'라는 에이전트를 출시할 예정이라고 밝혔다. 또한 마크 저커버그 메타 최고경영자(CEO)는 AI 에이전트가 인간보다 더 많아질 것으로 예상했다.
지난 5월 구글은 일상생활에 도움 되는 범용 AI 에이전트라며 '프로젝트 아스트라(Project Astra)'의 프로토타입을 공개했다. 구글이 공개한 기술 데모 동영상에서 아스트라는 스마트폰을 통해 사용자와 대화하고 카메라를 통해 주변 환경을 분석했다.
일부 전문가들은 에이전트로 인해 기업의 생산성이 크게 향상될 것으로 내다봤다. 단순 반복 업무를 에이전트가 대신하게 돼 사람이 더 의미 있는 일을 할 것이기 때문이다. 이아손 가브리엘(Iason Gabriel) 구글 딥마인드 수석 연구원은 "에이전트는 우리를 일상적인 업무에서 해방해 개인적 성장, 데이터에 기반한 의사 결정 등 진정 중요한 일에 집중할 수 있게 해준다"라며 에이전트를 높이 평가했다.
AI 에이전트, 기업 비서를 넘어 개인 비서까지
그러나 일부 전문가들은 현재 시장에 나온 에이전트가 대부분 코드 작성이나 경비 보고서 제출 등 단조로운 작업에 국한되어 있는 점을 지적했다. 이는 기술적 한계와 실수하면 손실이 큰 영역에서 에이전트를 신뢰하기 어렵다는 이유에서다. 클라우드 소프트웨어 회사인 세일즈포스(Salesforce)의 수석 과학자 실비오 사바레즈(Silvio Savarese)는 "에이전트는 사소하고 반복적인 작업을 수행하는 곳에 배치돼야 한다"라며 명확하게 정의된 업무에서만 사용할 수 있다고 강조했다.
한편 일각에서는 에이전트가 시간이 지날수록 더 정교한 작업을 수행하게 될 것이고 주장한다. 가브리엘은 "새로운 과학 지식을 발견하는 데 유용한 에이전트를 구상하고 있다"라며 이는 머지않은 미래에 구현될 것으로 예측했다. 그 증거로 지난 8월 논문저장 사이트인 아카이브(arXiv)에 게재된 논문을 제시했다. 논문에서는 새로운 연구 아이디어를 공식화하고 실험을 통해 이를 검증할 수 있는 'AI 과학자' 에이전트의 개요를 설명하며, 과학적 방법을 효과적으로 자동화했다.
또한 사바레즈는 개인 맞춤형 AI 에이전트가 등장할 것으로 추측했다. 현재는 대부분 기업을 대상으로 판매하고 있지만, 개인 데이터가 점차 쌓이면서 개인에 대한 이해도가 높아지면 맞춤형 AI 에이전트가 등장하는 것은 시간문제라고 답했다. 이를테면 여름휴가 계획을 세우는 상황에서 에이전트는 창가 좌석 선호도, 수영장이 있는 호텔 선호도 등을 기억해 여행을 계획할 것이다. 심지어는 예상치 못한 상황에서도 당황하지 않고 대안을 제시할 것이다. 이미 아마존은 발 빠르게 온라인 쇼핑 내역을 기반으로 제품을 추천하는 에이전트를 개발 중인 것으로 알려져 있다.
AI 에이전트, 이익보다는 안전을 우선시해야
에이전트가 등장함에 따라 이에 맞는 법을 제정할 필요성이 대두되고 있다. 이제 에이전트가 개인과 조직을 대신해 재무 결정을 내리기 시작하면서 여러 가지 까다로운 법적·경제적 문제가 제기될 것으로 예상되기 때문이다. 질리언 해드필드(Gillian Hadfield) 존스 홉킨스대(The Johns Hopkins University) AI 거버넌스 전문가는 "현행법은 에이전트가 만연했을 때 시장이 제대로 작동할 체계를 만들지 못했다"라며 우려를 표했다. 예를 들어 에이전트가 조직을 대신해 계약에 서명하고 나중에 계약 조건을 위반하는 경우 조직이 책임을 져야 할지, 알고리즘이 책임을 져야 할지 불분명하다고 충고했다. 더 나아가 에이전트에게도 기업처럼 법적 인격을 부여해야 하는지도 생각해 봐야 할 문제라고 덧붙였다.
또한 전문가들은 인간의 윤리적 규범에 부합하는 에이전트를 설계해야 한다고 강조했다. 요슈아 벤지오(Yoshua Bengio) 컴퓨터 과학자 "대기업의 우선순위가 인류의 우선순위와 상충하는 경향이 있다"라며 수익 창출과 대중의 안전을 보호하는 것 사이에는 실질적인 이해 상충이 존재한다고 풀어서 설명했다. 이를 보여주는 사례로 2010년대에 페이스북(현 메타)의 알고리즘이 미얀마의 소수민족인 로힝야족에 대한 혐오 콘텐츠를 미얀마 사용자들에게 보여준 일이 있다. 이에 따라 페이스북은 수천 명이 사망한 인종 청소 캠페인에 동참했다는 거센 비난을 받고 있다. 이러한 비극이 일어난 이유는 알고리즘이 학습을 통해 선동적인 콘텐츠가 사용자들을 불러 모은다는 사실을 알게 됐기 때문이다.
정부, AI 에이전트 경쟁 시작하기 전에 손 써야
AI 에이전트의 문제점을 인식한 벤지오와 러셀은 과거의 실수를 반복하지 않기 위해 AI 규제가 필요하다고 강력하게 주장했다. 두 과학자는 2023년 3월에 발표된 공개서한에 서명했으며, 가드레일 구축을 위해 AI 연구를 6개월간 중단할 것을 요구했다. 또한 벤지오는 과학 기술의 발전은 천천히 확장돼야 하며 상업적 이익은 안전을 위해 뒷전으로 밀려나야 한다는 원칙을 촉구했다.
사실 이러한 원칙은 이미 미국의 다른 산업에서는 일반화돼 있다. 제약 회사는 엄격한 임상시험을 거쳐 식품의약국(FDA)의 승인을 받기 전에는 신약을 출시할 수 없다. 또한 비행기 제조업체는 연방항공청의 인증 없이는 새 여객기를 출시할 수 없다. 현재 바이든 대통령의 AI 관련 행정명령을 비롯한 일부 초기 규제 조치가 취해졌지만, AI 개발과 배포를 감독하는 포괄적인 연방 법체계는 존재하지 않는 상황이다.
벤지오는 "AI 에이전트 경쟁이 일어나면 걷잡을 수 없이 빠르게 진행될 것"이라며 신속한 법 제정이 필요하다고 목소리를 높였다. 정부에서 에이전트가 위험할 수도 있다는 사실을 깨닫고 난 뒤는 이미 늦은 상황이라며, 에이전트를 소셜 미디어에 빗대어 말했다. 2010년대에 빠르게 성장한 소셜 미디어는 정부 감독을 빠르게 앞질러 현재는 손 쓸 수 없이 커져 버린 상황이다.
원문의 저자는 웹 라이트(Webb Wright) 과학 저널리스트입니다. 영어 원문은 AI Agents with More Autonomy Than Chatbots Are Coming. Some Safety Experts Are Worried | Scientific American에 게재돼 있습니다.