입력
수정
제대로 된 이해 없이 유행에 휩쓸려 AI 상품 대거 출시
빅테크 기업의 노력에도 완치되지 않는 '환각' 증상
AI의 힘을 제대로 발휘할 수 있는 영역은?
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.
2022년 오픈AI의 챗GPT가 등장한 이후 생성형 AI는 폭발적인 인기를 얻었고 이제는 없어서는 안 될 존재가 됐다. 생성형 AI는 코드를 작성하거나 회의 자료를 요약하는 등 업무 효율을 높여주는 필수 도구로도 자리매김했다. 다만 전문가들 사이에서는 사람들이 AI를 신격화해 사회적 비효율이 발생하는 것을 우려하는 목소리가 나온다.
쏟아져나오는 생성형 AI, 그 끝은?
챗GPT의 등장은 AI 붐을 알리는 신호탄 역할을 했다. 글로벌 빅테크 기업들은 너나 할 것 없이 생성형 AI를 만드는 데 총력을 기울였고, 그 결과 구글의 제미나이(Gemini), 메타의 라마(LLaMA) 등 다수의 생성형 AI가 시장에 쏟아져 나왔다. 여기서 그치지 않고 빅테크 기업들은 시장을 선점하기 위해 경쟁을 펼치며 생성형 AI의 성능을 높여 갔다.
생성형 AI의 높은 수준과 쉬운 접근성으로 사람들의 기대도 점점 부풀어 올랐다. 기대에 대한 화답으로 기업들은 시장에 생성형 AI와 관련된 상품을 대거 출시했다. 그러나 최근 시장 반응은 시큰둥한 모습이다. 전문가들은 원인으로 생성형 AI를 제대로 이해하지 못한 채 유행에 휩쓸린 점을 꼽는다. 또한 창의적인 상품의 출시는 긍정적이나, 과도한 시도는 사회적으로 비효율을 낳는다고 지적한다.
생성형 AI의 한계, 환각 증상
컴퓨터 과학자인 자넬 셰인(Janelle Shane) 광학 연구원도 "사람들이 생성형 AI가 내뱉는 헛소리에 돈과 시간을 낭비하고 있다"고 보고 있다. 생성형 AI는 일관성 있게 정확한 정보를 찾아주는 것처럼 포장돼 있지만, 실상은 그렇지 않다는 것이다. 실제로 생성형 AI는 단어와 단어 간의 연결을 매끄럽게 만들어 그럴듯해 보이게 답할 뿐, 자료의 사실 여부를 따지며 정확한 정보를 제공하는 방식은 아니다. 이렇다 보니 거짓된 정보를 마치 사실인 것처럼 대답하는 환각(Hallucination) 증상이 일어날 수밖에 없다.
빅테크 기업들도 이 같은 환각 증상을 해결하고자 많은 노력을 기울였다. 오픈AI의 인간 피드백을 통한 강화 학습(Reinforcement learning from human feedback, RLHF)이 대표적이다. RLHF는 더욱 '인간다운 문장'을 만들기 위해 학습 과정에 인간이 개입한다. 학습 과정에서 챗GPT가 제시한 대답 중 인간이 선호하는 문장을 고르는 식으로 미세 조정이 들어가는 것이다. 이를테면 A 문장과 B 문장을 보고 A 문장이 인간이 봤을 때 자연스럽다는 정보를 추가하는 방식이다.
다만 이러한 미세 조정은 환각 증상을 잠시 지연시킬 뿐, 근본적인 문제 해결책은 될 수 없다는 게 중론이다. AI 모델이 애초부터 정확한 정보를 판단하고자 설계된 모델이 아니기 때문이다. AI는 여타 다른 통계학 모델과 같이 상관관계를 계산할 수 있을 뿐이지, 인과관계를 판단할 수는 없다. 생성형 AI가 이전 글과 유사한 단어를 찾아낼 수는 있지만, 이전 글이 사실인지 아닌지 여부를 판단할 수는 없다는 얘기다.
적재적소에 활용됐을 때 빛을 발하는 AI
이렇듯 AI가 가진 한계는 명확하다. 하지만 적절한 곳에 활용됐을 때는 엄청난 시너지를 보여준다. AI의 가장 큰 장점은 단순 반복 업무를 빠르게 수행한다는 점이다. 간단한 코드 작성이나 글 요약을 잘하는 이유도 이 때문이다. 또한 인간이 일일이 실험해 봐야 확인할 수 있는 것들도 AI가 대신해, 시간을 획기적으로 줄이는 것이 가능하다. 예컨대 신약 개발 연구에서 다양한 약물 조합을 AI에게 맡기면, AI는 수많은 조합을 시뮬레이션해 보고 그중 유망한 것으로 예상되는 조합을 연구자에게 제시할 수 있다. 연구자는 AI가 추천한 조합을 바탕으로 테스트해 실제로 효과가 있는지만 확인하면 된다. 이는 기존에 모든 조합을 테스트했을 때와 비교하면 엄청난 차이다.
생성형 AI에 대해서도 AI의 특징을 대입할 수 있다. 단순 반복 업무를 잘하는 특성상, 생성형 AI가 일반적인 수준에서 답을 내놓을 것으로 유추할 수 있다. 즉 AI에게 수준 높은 대답을 기대하기는 어려운 것이다. 하지만 이 또한 회의 내용 정리, 보고서 정리 등 상황에 맞게 활용할 여지는 충분히 남아 있다. 아울러 AI는 약간의 부정확성이 허용되는 상황에도 활용될 수 있다. 음성 메시지 변환 작업을 예로 들면, AI는 음성 메시지를 텍스트로 변환하는 과정에서 오타 등 약간의 부정확함이 있을 수는 있지만, 변환된 메시지를 읽고 해석하는 데는 큰 문제가 없다. 결국 유행에 휩쓸려 AI 특성과도 맞지 않은 곳에 활용하기보다는 그 특징을 제대로 이해하고 적재적소에 AI가 활용됐을 때 비로소 그 빛을 볼 수 있다는 의미다.
원문의 저자는 사라 르윈 프레이저(Sarah Lewin Frasier) 사이언티픽 아메리칸의 부편집장입니다. 영어 원문은 Please Don’t Ask AI If Something Is Poisonous | Scientific American에 게재돼 있습니다.