Skip to main content
"오픈AI도 한계인가" 차세대 AI 모델 오라이온, 성능 향상 지지부진
Picture

Member for

1 month 3 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.

수정

'오라이온' 성능 개선 속도에 의문 품은 오픈AI 직원들
AGI 모델 '아라키스' 개발 실패 이어 재차 한계 봉착
전문가들 "기존 LLM으로는 기술 도약 어렵다"
openAI_warning_20240524-1

오픈 AI가 내년 초 출시할 차세대 인공지능(AI) 모델 '오라이온'의 성능 향상에 난항을 겪고 있다는 소식이 전해졌다. 오라이온이 기존 'GPT-4'와 비교했을 때 유의미한 성능 차이를 보이지 못하고 있다는 것이다. 오픈AI의 AI 기술 발전이 본격적인 한계에 부딪힌 가운데, 전문가들은 단순 대형언어모델(LLM) 스케일 업을 넘어 새로운 접근 방식을 취해야 한다는 평을 내놓고 있다.

"오라이온, 성능 GPT4와 비슷"

9일(현지시간) 디 인포메이션은 "오픈AI가 GPT 모델 개선 속도 둔화에 따라 전략을 변경했다"고 보도했다. 오픈AI가 모델 성능 향상을 위해 사전 훈련이 아닌 사후 강화 학습이나 추론 기능 강화에 초점을 맞출 것이라는 전언이다. 소식통에 따르면 샘 올트먼 오픈AI CEO(최고경영자)는 오라이온은 훈련이 아직 완료되지 않았지만, 지능과 작업 수행 능력은 이미 GPT-4와 동등하다고 말했다.

그러나 일부 오픈AI 직원은 오라이온의 성능이 이전 모델보다는 우수하지만, GPT-3에서 GPT-4로 넘어가던 때와 비교하면 성능 향상 폭이 훨씬 작다고 지적했다. 일부 오픈AI 연구원의 경우 특정 작업에서 오라이온과 이전 모델이 유의미한 성능 차이를 보이지 않는다고 귀띔하기도 했다. 오라이온은 언어 작업에서는 GPT-4보다 뛰어난 모습을 보였지만, 코딩과 같은 작업에서는 GPT-4의 성능을 따라잡지 못할 수 있다는 것이다. 디 인포메이션은 GPT 모델의 개선 속도가 느려지며 AI 업계에서는 사전 학습이 아닌 모델 개선 방법을 모색하고 있으며, 이 가운데 새로운 확장 법칙이 생겨날 가능성이 있다고 전했다.

'아라키스'의 실패

오픈AI는 과거에도 AI 모델의 성능 개선에 도전했다가 실패한 전례가 있다. 외신 등에 따르면 오픈AI는 2022년 말부터 '아라키스(Arrakis)'라는 이름의 범용 인공지능(AGI, 인간과 유사한 지능과 스스로 학습할 수 있는 능력을 갖춘 AI) 모델 개발을 진행했으나, 올여름 프로젝트를 폐기했다. 아라키스는 기존 LLM의 획기적인 성능 향상 및 운영 비용 감축을 목표로 한 모델이다.

오픈AI 내·외부 관계자 등에 따르면 오픈AI는 아라키스 프로젝트를 통해 △텍스트, 이미지, 동영상 등의 자유로운 입출력이 가능한 '멀티모달' 기능 △'GPT-4'를 넘어 다양한 분야의 인간 전문가와 유사한 수준의 성능 △GPT-4보다 훨씬 낮은 환각(Hallucination) 확률 △뛰어난 '자율 에이전트' 기능 등 월등히 향상된 성능을 갖춘 AGI 모델을 구축하려 한 것으로 전해진다.

이에 더해 오픈AI는 비용 절감을 위해 아라키스에 'MOE(Mixture of Expert)'를 도입했다. MOE를 통해 아라키스의 추론 비용을 GPT-4와 흡사한 수준으로 유지한다는 계획이었다. MOE는 LLM을 생물, 물리, 수학 등 각 분야를 담당하는 작은 전문 모델(Expert)로 분류한 뒤 질문에 따라 전문 모델을 연결하거나 섞는 방식으로, 거대 모델 대비 비용과 시간이 훨씬 적게 들어간다는 장점이 있다. 하지만 이 같은 노력에도 불구, 오픈AI는 아라키스의 성능이 기대에 미치지 못한다는 결론을 내린 것으로 전해졌다. 프로젝트가 폐기된 구체적인 이유는 명확히 알려지지 않았다.

AI_te_20241111 (2)

'스케일링 법칙' 더 이상 안 통할 것

오픈AI가 AI 기술 도약에 난항을 겪는 가운데, 전문가들은 AI 기술 발전을 위해서는 단순히 LLM의 데이터와 연산 규모를 극대화하는 것을 넘어 새로운 접근 방식을 취해야 한다는 분석을 내놓고 있다. 지금까지 LLM 개발의 원칙으로 통했던 '스케일링 법칙'이 사실상 한계에 달했다는 것이다. 스케일링 법칙은 LLM에 더 많은 학습 데이터를 제공하고 추가 컴퓨팅을 제공하면 성능이 계속 향상될 것이라는 논리다.

이와 관련해 얀 르쿤 뉴욕대 교수는 지난 5월 파이낸셜타임스와의 인터뷰에서 “LLM은 절대로 AGI에 도달할 수 없다”고 지적하기도 했다. LLM은 논리 이해가 매우 제한적이며 물리 세계를 이해하지 못하고, 지속적 기억력이 없으며 계획을 세울 수 없다는 것이 이유다. 마이크로소프트(MS) 창업자 빌 게이츠도 스케일링 법칙의 한계에 주목하고 나섰다. 빌 게이츠는 AI 연구에서 학습 데이터와 컴퓨팅 능력의 규모를 키우는 방식으로는 도약을 이룰 수 없다고 단언하며, 메타인지가 AI의 다음 개척지라고 주장했다. 메타인지는 자신의 인지 상태에 대한 자각을 뜻하는 개념으로, 단편적 지식이나 판단 능력이 아닌 자신의 인지 여부와 감정 상태 전체를 객관화할 수 있는 능력을 의미한다.

게이츠는 지난 6월 한 팟캐스트에 출연해서도 기존 LLM의 전반적인 인지 전략에는 아직 정교함이 부족하며, 연구자들이 메타인지 전략을 사용해 인공지능 모델이 더 똑똑하게 생각하도록 가르쳐야 한다고 강조했다. AI에도 문제에서 한발 물러서서 그 문제 자체에 대해 질문하는 ‘메타인지’ 능력이 필요하다는 것이다. 게이츠는 또 “메타인지 연구는 LLM의 가장 골치 아픈 문제인 신뢰성과 정확성을 해결하는 열쇠가 될 수 있다”며 "현재의 AI 모델이 비디오 데이터와 합성 데이터를 다루게 되면 두 차례 확장의 기회를 맞겠지만, 한계가 명확할 것"이라고 말했다.

Picture

Member for

1 month 3 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.