Skip to main content

[해외 DS] AI 가속기 '가우디 3' 출시, 엔비디아 아성에 도전하는 인텔

[해외 DS] AI 가속기 '가우디 3' 출시, 엔비디아 아성에 도전하는 인텔
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

비전 2024, 거대 언어 모델의 훈련·추론 성능 향상 위한 AI 칩 공개
엔비디아 H100 대비 훈련 속도 50%, LLM 실행 속도 30% 향상
네이버와 AI 반도체 연구소 공동 설립, 엔비디아 독점 견제
가우디 3 출시로 인텔 파운드리 사업 적자 극복 기대
Intel Gaudi 3 Front 20240412
사진=인텔

미국 종합반도체기업 인텔은 9일(현지시각) 애리조나주 피닉스에서 열린 '인텔 비전 2024'에서 대규모언어모델(LLM)의 훈련 및 실행 성능을 향상시키기 위해 설계된 최신 AI 칩 '가우디 3'을 발표했다.

인텔은 엔비디아의 주력 GPU인 H100을 콕 찍어 비교했다. 인텔이 공개한 자료에 따르면 가우디 3은 H100에 비해 훈련 속도가 50%, LLM 처리 속도가 30% 더 빠르다고 한다.

팻 겔싱어 인텔 CEO는 "혁신은 실리콘을 통해 전례 없는 속도로 진행되고 있으며, 모든 기업이 빠르게 AI 기업으로 거듭나고 있다"라며, "인텔은 PC에서 데이터 센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 도입하고 있다. 인텔의 최신 가우디, 제온(Xeon)과 코어 Ultra 플랫폼은 고객과 파트너의 변화하는 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록 맞춤화된 응집력 있는 유연한 솔루션 포트폴리오를 제공하고 있다"고 강조했다.

"고객 니즈 맞춘 매력적인 대안", 뛰어난 성능·확장성·비용 효율성 앞세워

가우디 3은 향상된 메모리와 네트워킹 대역폭을 자랑하며 이전 가우디 2에 비해 4배 더 많은 AI 컴퓨팅을 제공한다. 아울러 이 칩에는 수만 개의 가속기가 내장되어 있으며 이더넷을 통해 상호 연결도 가능한 것이 강점으로 꼽힌다.

또한 인텔은 가우디 3 칩의 비용 효율성이 실험이나 기존 AI 배포를 확장하는 기업에 적합하다고 밝혔다.

인텔 부사장 겸 데이터센터·AI 그룹 총괄 매니저인 저스틴 호타드는 "끊임없이 진화하는 AI 시장의 환경 속에서 기존의 제품들과 고객의 니즈 사이에는 상당한 격차가 존재한다. 고객과 시장의 피드백은 선택의 폭을 넓히고자 하는 열망을 보여준다"라고 운을 뗐다.

이어 그는 "기업들은 가용성, 확장성, 성능, 비용, 에너지 효율성 등을 고려하는데, 인텔 가우디 3은 가격 대비 성능, 시스템 확장성, 짧은 가치 실현 시간의 이점을 제공해 매력적인 대안으로 주목받고 있다"고 덧붙였다.

Intel Gaudi 3 Overview 20240412
사진=인텔

네이버·인텔 AI 동맹, AI 반도체 연구소 설립으로 엔비디아 독점에 맞서

네이버가 바로 가우디 3칩의 얼리 어답터 중 하나다. 비전 2024에서 네이버는 가우디 하드웨어를 사용하여 글로벌 AI 서비스를 위한 새로운 LLM을 개발하기 위해 인텔과 협업할 계획이라고 발표했다.

협력의 배경은 엔비디아의 AI 칩 시장 독점에 대한 우려다. 인텔은 AI 학습·추론 병렬 처리 소프트웨어 시장을 장악한 엔비디아 CUDA의 독점적 지위를 견제하고, 네이버는 엔비디아의 GPU 공급 부족과 가격 상승에 따른 경영·비용 리스크가 부담스러운 상황이다.

따라서 인텔은 네이버를 이용해 가우디 기반의 'AI 소프트웨어 생태계' 확대를, 네이버는 저렴하고 안정적인 AI 칩 확보와 하이퍼클라우드 AI 업데이트, 그리고 클라우드 운영 비용 절감을 꾀하고 있는 것으로 분석된다. 네이버는 특히 인텔 칩의 '전력 대비 성능'을 높이 샀다고 전했다.

네이버와 인텔의 협력은 AI 칩 시장에 큰 변화를 불러올 수 있는 잠재력이 있지만, 그만큼 불확실성도 존재한다는 지적이 제기됐다. 네이버는 자사의 AI 모델에 인텔 칩을 한 번도 활용한 경험이 없는 데다, 인텔의 AI 칩은 엔비디아 칩 대비 경쟁력이 입증되지 않은 상태기 때문에 엔비디아의 독주를 효과적으로 견제할 수 있을지는 더 지켜봐야 한다는 것이다.

인텔, 가우디 3 출시로 파운드리 사업 적자 극복 기대

한편 지난해 인텔 파운드리 사업이 대규모 적자를 낸 것에 이어 올해 파운드리 사업 적자 규모가 정점을 찍을 것으로 예상되는 가운데, 시장에서는 가우디 3으로 인한 '파운드리 사업 적자 상쇄' 기대가 피어오르고 있다.

주가는 지난해 말 대비 23.5% 하락하고 올해 들어 지속 하락세를 보여, 인텔의 가우디 3의 성공 여부에 이목이 쏠리고 있다. 이에 가우디 3과 함께 인텔은 새로운 제온 프로세서도 살짝 선보였다. 생성형 AI 워크로드를 구동하도록 설계된 제온 6s는 클라우드·엣지 워크로드를 위한 데이터 센터에서 실행할 수 있다.

올해 말 출시될 두 가지 제온 6 제품군인 시에라 포레스트(Sierra Forest)와 그래닛 래피즈(Granite Rapids)는 올해 초에 출시되었던 5세대 버전을 대체할 예정이다. 시장 반전에 만전을 기한 모습이다.

또한 인텔은 기업이 생성형 AI 소프트웨어 배포를 용이하게 하는 데 사용할 수 있는 솔루션 제품군인 타이버(Tiber)도 공개했다. 타이버는 기업 고객이 클라우드 또는 엣지에서 AI 서비스를 안전하게 배포하는 데 사용할 수 있는 도구를 컴파일하는 기능이 있으며, 향후 몇 달 내에 출시될 계획이다.

마지막으로 인텔은 새로운 칩을 올해 말 일반 출시에 앞서 하반기에 델 테크놀로지스, HPE, 레노버를 비롯한 하드웨어 제조업체에 먼저 제공하려고 한다. 그리고 Wi-Fi 카드나 SSD와 같은 다른 고속 입출력 구성 요소를 연결할 수 있는 가우디 3용 PCIe 애드인 카드 출시도 올해 3분기에 예정되어 있다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

[해외 DS] 美 생성형 AI 저작권 공개법 발의, 혁신과 책임의 조화 강조

[해외 DS] 美 생성형 AI 저작권 공개법 발의, 혁신과 책임의 조화 강조
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

미국 하원, 생성형 AI 모델 학습 데이터 공개 의무화 법안 발의
기업 불이행 시 5천 달러 벌금
저작권 침해 논란 속출하는 가운데 반색하는 미디어 업계
Bill Mandate Disclose Copyrighted Works 20240411
사진=Pexels

생성형 AI 모델을 개발하는 기업이 모델 학습에 사용한 저작권이 있는 저작물을 공개해야 한다는 법안이 미국 하원에서 발의됐다.

'생성형 AI 저작권 공개법'은 오픈AI와 같은 AI 개발사가 새로운 시스템을 출시하기 전, 어떤 저작물을 학습과 미세 조정에 사용했는지에 대한 고지를 저작권 등록소에 제출하도록 강제할 예정이다.

생성형 AI 저작권 공개 법안의 의미, AI 혁신과 크리에이터 권리의 균형 개선

미국 민주당 소속인 애덤 시프(Adam Schiff) 캘리포니아주 하원의원은 9일(현지시간) 이 같은 내용을 골자로 한 법안을 발의했다.

이번 법안은 기업이 생성형 AI 모델 출시 후 30일 이내에 공개적으로 사용 가능한 모든 훈련 데이터 세트의 URL을 포함하여 사용된 저작물에 대한 "충분히 상세한 요약"이 포함된 고지문을 제출해야 한다고 못 박았다.

또한 해당 법안의 요건은 이전에 출시된 생성형 AI 시스템에도 소급 적용되므로 챗GPT 및 클로드(Claude)와 같은 모델이 면밀한 조사를 받을 가능성이 농후하다는 분석도 흘러나온다.

애덤 시프 의원은 '창의성 존중'과 '기술 발전' 사이의 균형을 강조했다. "우리는 AI의 엄청난 잠재력과 윤리적 지침·보호의 필요성 사이에서 균형을 잡아야 한다"고 그는 성명에서 밝혔다. "생성형 AI 저작권 공개법은 이러한 방향으로 나아가는 중추적인 단계다. 이 법은 혁신을 지지하는 동시에 크리에이터의 권리와 기여를 보호하고, 자신의 작업이 AI 학습 데이터세트에 기여할 때 이를 인지할 수 있도록 보장한다"고 그는 덧붙였다.

"인간을 위한 기술", 미디어 업계의 전폭적인 지지 확보

이 법안이 법으로 제정될 경우 이를 준수하지 않는 기업은 최소 5,000달러의 민사 처벌을 받게 된다.

또한 저작권 등록소는 벌금을 부과할 뿐만 아니라 공개적으로 이용 가능한 온라인 데이터베이스를 구축하여, 기업에서 제출한 고지문 열람을 허락하고, 저작권 소유자가 자신의 저작물이 학습 데이터세트에 사용되었는지 확인할 수 있도록 준비할 것이라고 명시되어 있다.

시프 의원의 법안은 이미 미국 레코딩 산업 협회, 미국 배우·방송인 노동조합(SAG-AFTRA), 미국 작가 조합 등 미디어 업계 단체와 노동조합의 지지를 확보한 상태다.

SAG-AFTRA의 전국 전무이사이자 수석 협상가인 던컨 크랩트리 아일랜드(Duncan Crabtree-Ireland)는 "AI가 생성하는 모든 것은 궁극적으로 인간의 창의성에서 비롯됐다. 그러므로 인간의 창의적인 콘텐츠, 즉 지적 재산은 보호되어야 한다"라며, "이 법안은 기술이 인간을 위한 것이지 그 반대가 아니라는 것을 보장하는 중요한 조치이므로 SAG-AFTRA는 생성형 AI 저작권 공개법을 전폭적으로 지지한다"고 힘주어 말했다.

생성형 AI 저작권 침해 논란 속출, 주요 AI 개발사 모두 소송당해

지난 한 해 동안 생성형 AI 모델을 개발하는 기업들은 저작권이 있는 콘텐츠를 허가 없이 시스템 훈련에 사용했다는 이유로 여러 건의 소송에 직면했다. 최근에는 뉴욕타임스가 뉴스 무단 학습을 문제 삼아 챗GPT 개발사인 오픈AI를 상대로 소송을 제기한 바 있다.

아울러 책 저자, 음악 출판사, 예술가들이 저작권 침해 혐의로 AI 개발사들을 고소했으며, 소송을 당한 기업 중에는 엔비디아, 엔트로픽, 스태빌리티 AI도 포함되어 있다.

LLM의 오류·환각 포착을 자동화할 수 있다고 주장하는 AI 스타트업 패트로너스(Patronus)의 연구에 따르면 주요 4개 AI 모델 중 오픈AI의 GPT-4의 저작권 침해율이 가장 높았다고 한다.

GPT-4가 평균 44%, 믹스트랄과 라마 2가 각각 22%와 10%로 뒤를 이었고, 클로드 2는 8%만 저작권이 있는 콘텐츠를 생성했다. 레베카 첸 패트로너스 CTO는 "오픈 소스든 비공개 소스든 평가 대상이 된 모든 AI 모델에서 저작권이 있는 콘텐츠를 발견했다"며 "놀라운 점은 기업과 개인이 가장 많이 사용하는 GPT-4에서 가장 높은 비율이 발견됐다"고 꼬집었다.

기술 기업, 저작권 문제 해결하기 위한 데이터 파트너십 구축 나서

물론 저작권이 있는 자료에 대한 접근을 보장하기 위해 모델 개발업체들은 미디어 회사나 소셜 미디어 회사와 파트너십을 맺고 방대한 데이터를 모델 학습에 사용하려고 노력해 왔다.

예를 들어, 오픈AI는 독일의 미디어 그룹 악셀 슈프링거(Axel Springer)와 AP 통신의 콘텐츠 라이선스를 보유하고 있으며, 구글은 최근 레딧(Reddit)과 계약을 체결했다.

일각에선 책임감 있는 AI 사용이 거부할 수 없는 전세계적인 움직임으로 자리 잡았지만, 방대한 양의 학습 데이터를 검증하는 과정의 어려움과 해외 기업에 대한 규제의 한계 등을 지적하며 AI 기술 발전을 저해할 수 있다는 우려의 목소리를 높였다.

오픈AI도 지난 1월에 저작권이 있는 자료에 대한 접근 없이는 최첨단 모델을 개발하는 것이 "불가능"하다고 주장한 바 있다.

한편 인식의 전환이 필요하다는 주장도 늘어나고 있다. AI 기술 발전과 창작자 권리 보호는 상호 보완적 관계이며, 양쪽 모두를 위한 지속 가능한 방안을 모색해야 한다는 것이다. 이번 법안을 계기로 이러한 사회적 논의가 더욱 활발해질 것으로 사료된다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

[해외 DS] 임베디드 월드 2024 개최, 로보틱스와 커넥티비티를 중심으로

[해외 DS] 임베디드 월드 2024 개최, 로보틱스와 커넥티비티를 중심으로
Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

수정

마이크로소프트, AWS 등 빅테크 기업 참가하여 혁신적인 기술 선보여
더 정교해진 수술용 로봇 팔, 의료 사고 가능성 줄여
IoT 기술, 방송산업에 새로운 지평 열어

embedded world 1
사진=Pixabay

임베디드 월드 2024에서는 로보틱스, 커넥티비티, AI를 중심으로 한 기술 박람회가 개최된다. 이번 행사에서는 아마존웹서비스(AWS), 마이크로소프트, 텍사스 인스트루먼트 등 약 1000개의 테크 기업이 참가하여 소프트웨어와 하드웨어를 통합한 임베디드 시스템의 혁신 기술을 선보인다.

인간의 실수를 줄이는 로보틱스

블랙베리(BlackBerry)는 이번 행사에서 의료 사고 가능성을 줄이는 데 기여한 수술용 로봇 팔을 선보인다. 로봇 팔은 임베디드 기술용 운영 체제의 최신 버전인 QNX 소프트웨어 개발 플랫폼 8.0을 기반으로 설계 되었다. 또한 햅틱 컨트롤러를 사용하여 의사가 더욱 정밀하게 로봇 팔을 움직일 수 있게 되어, 보다 효율적으로 수술을 할 수 있게 되었다.

게다가 블랙베리는 디지털 계기판인 QNX 버츄얼 콕핏(Virtual Cockpit)을 사용한 QNX OS와 하이퍼바이저를 전시한다. 자동차, 로보틱스, 의료 등 다양한 분야에서 애플리케이션을 제공하는 QNX 버츄얼 콕핏은 기존 다양한 차량 내 시스템을 통합하여 단일 시스템 온 칩(SoC) 설계에서, QNX 하이퍼바이저를 활용한 여러 혼합 크리티컬 시스템을 실행할 수 있게 발전되었다.

추가적으로 AWS는 임베디드 산업에 맞춤화된 두 개의 로봇 팔이 서로 체스를 두는 흥미진진한 모습을 공개한다. 이는 생성형 AI, IoT, 로보틱스의 결합을 통해 스마트하고 자동화된 루틴을 만들어 내는 데 성공한 것으로 평가된다. AWS는 "고급 인공 지능과 산업용 제어 알고리즘의 조합으로 이루어진 로봇 팔은 움직일 때 인간과 같은 추론과 복잡한 의사 결정 패턴을 보여줄 수 있다"며 여러 기술의 융합을 강조했다.

다른 제품 시연으로는 AWS와 통합된 첨단 센서 기술이 적용된 커넥티드 차량 콕핏이 있다. 특별히 행사 방문객은 가상 도시 운전을 체험해 볼 수 있다. 가상 도시는 AWS의 센서가 실시간 데이터를 제공하여 사용자가 디지털 환경을 탐색하는 데 도움을 주도록 구성되어 있다.

IoT의 핵심 커넥티비티, 자동차·방송·클라우드 서비스 등 다양한 분야에 활용되어

텍사스 인스트루먼트는 이번 행사에서 로보틱스, 에너지 전환, 전기 자동차를 중심으로 한 최신 임베디드 프로세싱 및 커넥티비티 제품을 공개한다. 텍사스 인스트루먼트는 임베디드 프로세싱의 발전에 기여해 전 세계 산업 및 자동차 애플리케이션의 잠재력을 끌어올렸다는 평가를 받고 있다. 텍사스 인스트루먼트의 수석 부사장인 아미차이 론은 소프트웨어 정의 차량(SDV)과 에너지 저장 시스템 등 다양한 서브 시스템을 통해 향상된 감지 기술, 모터 제어, 통신 및 엣지 AI 기능 구현에 기대감을 나타냈다. 또한 텍사스 인스트루먼트는 올해 행사에서 AI 가속기가 포함된 임베디드 Arm 기반 프로세서와 산업, 의료, 오토모티브 시스템 및 로봇용 마이크로컨트롤러를 소개할 것으로 밝혔다.

한편 퀀텔(Quantel)은 이번 행사에서 5G 및 LTE-M/NB-IoT 모듈과 GNSS 포지셔닝 모듈을 포함한 IoT 기술을 선보인다. 퀀텔 무선 솔루션은 라이브 스포츠 및 이벤트 취재에 새로운 지평을 여는 BSI(Broadcast Sports International)의 5G 지원 방송 도구와 GNSS 모듈인 LG69T로 구동되는 ZCS 잔디 깎는 로봇 등 혁신적인 기술을 공개한다.

더불어 올해 방문객은 애저(Azure)의 멀티 액세스 엣지 컴퓨팅(MCE) 기술을 확인할 수 있다. 이 기술은 IoT 및 엣지 디바이스에 짧은 지연 시간과 고대역폭 연결을 제공하여 실시간 데이터 처리 및 의사 결정이 가능하다. 마이크로소프트는 기업이 클라우드 기술을 통합할 수 있도록 설계된 '새로운 적응형 클라우드 전략'을 이번 행사의 키워드로 꼽았다. 마이크로소프트 블로그 게시물에 따르면, 기존 적응형 클라우드 접근은 팀, 사이트, 시스템으로 분리되어 있던 방식에서 새로운 클라우드는 단일 운영, 애플리케이션, 데이터 모델로 통합하는 방식으로 변화를 꾀했다. 또한 새로운 적응형 클라우드는 조직이 클라우드 네이티브 기술과 AI를 활용하여 하이브리드, 멀티 클라우드, 엣지, 분산 컴퓨팅 및 IoT를 동시에 작업할 수 있도록 지원하여 효율성을 증대시킨다.

DFI 윈도우온암, 친환경적 솔루션 제공해

산업용 컴퓨터 회사인 DFI는 올해 행사에서 윈도우온암(WoA)을 탑재한 새로운 제품 라인업을 출시한다. DFI는 자사의 WoA 제품이 소형 폼 팩터의 디바이스 및 좁은 공간에 배치하기에 이상적이며, 작은 크기로 인해 친환경적인 컴퓨팅 솔루션을 제공한다. 게다가 WoA 라인업은 사용자의 편리성을 위해 자판기 및 키오스크에 자동화와 셀프 서비스 터미널 애플리케이션을 제공하도록 설계되었다.

DFI의 사장 알렌산더 쑤는 WoA를 제품 라인에 원활하게 통합하여 높은 전력 효율 솔루션을 제공할 계획이다. 더불어 이 발전은 디바이스 컴퓨팅 성능, 비용 효율성 및 배포 유연성을 향상시킬 수 있는 WoA 분야 진출에 있어 중요한 진전이 될 것으로 예상한다.

올해는 로보틱스와 커넥티비티를 중점으로 임베디드 기술이 발전할 것으로 기대된다. 또한 주목할 점은 여러 빅테크 기업에서 AI, IoT, 로보틱스의 결합으로 놀라운 기술 발전을 선보인 것이다. 위에서 소개한 혁신적인 기술은 임베디드 월드 2024에서 즐길 수 있다.

Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

[해외 DS] 코미디언 조지 칼린 영상 논란 합의로 마무리, AI 저작권 침해에 대한 경각심은 여전

[해외 DS] 코미디언 조지 칼린 영상 논란 합의로 마무리, AI 저작권 침해에 대한 경각심은 여전
Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

수정

코미디언 조지 칼린의 목소리와 스타일을 모방한 AI 영상을 제작하여 논란 일으켜
소송은 피고들이 칼린의 이미지, 음성, 초상을 허락 없이 사용했다는 점에 초점을 맞춰
영상 삭제 및 명시적인 서면 승인 없이 칼린의 유산을 사용하지 않기로 합의해
AI Conputer GIAI 20240810

코미디언 조지 칼린의 유족은 지난 1월 말 AI를 사용하여 고인이 된 코미디언의 작품을 재현한 두 명의 팟캐스터를 상대로 소송을 제기했다. 소장에는 "피고 중 누구도 AI로 생성된 '조지 칼린 스페셜'에 칼린의 초상을 사용할 수 있다는 허가를 받은 적이 없으며, 고인이 된 코미디언의 저작권이 있는 자료를 사용할 수 있는 라이선스도 없다'라고 적혔다.

코미디언 윌 사소와 채드 쿨트겐은 엔터테인먼트 AI를 사용해 고인의 개인 이메일, 문자, 소셜미디어에 올린 글 등을 학습하여 '조지 칼린: 내가 죽어서 다행이다'라는 영상을 만들어 유튜브에 게시했다. 영상은 50만 회 이상의 조회수를 기록했다.

그 후 양측은 지난 2일 합의에 이르렀다. 피고들은 칼린의 유산에 대한 '명시적인 서면 승인 없이' 팟캐스트 또는 기타 온라인 콘텐츠에서 칼린의 이미지, 음성 또는 초상을 사용하지 않기로 밝혔다.

인공지능 시대의 저작권과 명예

AI로 제작한 한 시간 분량의 영상에는 칼린이 총기 난사 사건부터 사회 계급 시스템에 이르기까지 다양한 주제의 유머에 관해 이야기한다. 또한 AI 조지 칼린이 인공지능에 관해 이야기하는 메타적인 내용도 담겨 있다.

영상 초반에는 이 모든 것이 단지 디지털 성대모사일 뿐 실제 조지 칼린이 아니라는 경고 문구가 붙어 있었지만, 영상은 팬들뿐만 아니라 예술가, 배우 등 다양한 사람들 사이에서 열띤 논쟁을 불러일으켰다. 특히 조지 칼린의 딸인 켈리 칼린은 그들의 영상이 칼린의 코미디 작품 가치를 떨어뜨리고 그의 명성에 해를 끼친다고 비판했다.

마찬가지로 할리우드에서도 배우와 작가 모두 인공지능에 대한 우려가 커지고 있다. 배우·방송인노동조합(SAG-AFTRA)과 미국작가조합(WGA)은 대대적인 파업 후, 새로운 협상 계약에 인공지능 관련 지침과 규정을 포함시켰다. 배우와 모든 유형의 크리에이터가 자신의 유산이 어떻게 변질되거나 훼손될 수 있는지에 대해 생각하는 계기가 됐다.

물론 패러디나 풍자 같은 경우 모두 보호되는 표현으로 간주되지만, 타인의 초상을 허락 없이 도용하는 것은 그렇지 않다. 많은 배우들이 자신의 이름이나 초상을 동의 없이 사용한 기업을 상대로 소송을 제기하여 법정에서 승소해 왔으며, 칼린의 가족 역시 법적 조치를 계속 취했을 경우 비슷한 결론이 예상됐다.

AI 기술의 위험성과 안전장치 논쟁은 계속

켈리 칼린은 화요일 성명에서 "이 문제가 신속하고 우호적으로 해결되어 기쁘게 생각하며, 피고들이 제작한 동영상을 신속하게 삭제함으로써 책임감 있게 행동한 것에 대해 감사하게 생각한다"고 말했다. 이어 "이런 일이 일어난 것은 부끄러운 일이지만, 이 사건이 예술가와 창작자뿐만 아니라 지구상의 모든 인간에게 AI 기술의 위험성과 적절한 안전장치의 필요성에 대한 경고가 되기를 바란다"고 덧붙였다.

또한 원고 측 변호사인 조슈아 쉴러도 "세계는 목소리를 흉내 내고, 가짜 사진을 생성하고, 비디오를 변경할 수 있는 AI 도구에 내재된 힘과 잠재적 위험성을 인식하기 시작했다"라며, "이것은 저절로 사라질 문제가 아니다. 법원에서 신속하고 강력한 조치를 취해야 하며, 기술이 무기화되고 있는 AI 소프트웨어 회사도 어느 정도 책임을 져야 한다"고 강조했다. 그리고 이번 합의가 "향후 예술가나 유명인이 AI 기술에 의해 권리를 침해당하는 유사한 분쟁을 해결하기 위한 청사진이 될 것"이라고 그는 전했다.

마지막으로 캘리 칼린은 조지 칼린의 원작들을 감상하기를 바랐다. 그의 실제 표정과 눈빛을 보면서 그가 치밀하게 쌓아 올린 이야기 전개를 따라가기를 희망했다. 실제로 코미디는 관객을 웃기기 위해 경계를 넘나드는 창의성을 요구한다. 그러한 부분을 LLM으로 재현하는 것은 아직 불가능에 가깝다. 두데시 팟캐스트에 올라온 AI 영상에서도 사소와 쿨트겐의 개입을 발견할 수 있다. 일각에선 의도적으로 편집된 지점이 많은 것과 기존 LLM의 농담 수준을 미루어보아 두 코미디언의 상당한 '노력'이 투입됐을 것으로 예상했다.

Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

[해외 DS] 미·영, AI 안전 협력 강화 위한 첫 MOU 체결

[해외 DS] 미·영, AI 안전 협력 강화 위한 첫 MOU 체결
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

정보 교류 및 안전 테스트 등을 통해 AI 안전 기술 발전 도모
규제 및 가이드라인 한계 및 해결 과제, 안전 기술 발전 속도 vs 악용 기술 발전 속도,
안전 기술 불균형 해소, 위험 기술 앞지르는 연구 성과 도출 기대

AI Safety Alliance UK US 20240404
사진=Pexels

미국과 영국은 최초의 양자 간 협약을 통해 AI 시스템의 안전성을 평가하기 위한 방안을 공동 개발하기로 약속했다.

지나 라이몬도(Gina Raimondo) 미국 상무부 장관과 미셸 도넬란(Michelle Donelan) 영국 과학혁신기술부 장관은 양국 간 AI 모델 위험과 보안 조치에 관한 정보·기술 지식 교류를 촉진하기 위한 양해각서(MOU)에 서명한 것이다. 이에 양국의 AI 안전 전담 기관은 안전 테스트 조치를 마련하기 위해 협력할 예정이다.

양국 AI 안전 기관, 공동 평가 프로토콜 개발

이번 협정은 정보·보안과 관련된 문제에 대해 긴밀히 협력하는 영국 정부통신본부(GCHQ)와 미국 국가안보국(NSA) 간의 파트너십을 모델로 하고 있다. 미셸 도넬란 장관은 “다음 세대 인공지능 모델들이 출시되고 있다. 이제는 우리가 빠르게 행동해야 하는 시기”라며 새로운 유형의 인공지능은 “게임체인저가 될 수 있지만 우리는 그 기술들이 어디까지 능력을 발휘할지는 알지 못하고 있다”고 MOU의 필요성을 강조했다.

라이몬도 장관도 "이번 파트너십을 통해 국가 안보와 더 넓은 사회를 포함하여 모든 위험에 대한 양 기관의 업무가 가속화될 것"이라고 말했다. 또한 "양 기관은 협력을 통해 AI 시스템을 더 잘 이해하고, 더 강력한 평가를 수행하며, 더 엄격한 지침을 발표할 것이다"고 의지를 다졌다.

미국과 영국은 작년 AI 안전 서밋 이후 AI 안전 기관을 설립했다. 이 기관들은 AI 위험을 평가하기 위한 각각의 가이드라인과 벤치마크를 만드는 데 중점을 두고 있다. 미국 AI 안전 연구소(U.S. AISI)의 연구원들은 "AI 안전 테스트에 대한 공통 접근 방식"을 구축하기 위해 인적 교류를 진행하는 등 영국과 역량을 공유할 예정이라고 전했다.

영국, "산업 성장 우선"

아울러 공개적으로 접근할 수 있는 모델에 대해서도 공동 테스트가 진행될 것이라고 발표되었지만 구체적인 시기는 알려지지 않았다. 도넬란 장관은 이번 협약이 "우리 세대의 결정적인 기술 과제"를 해결하기 위해 양국의 관계를 심화시키는 획기적인 모델이라고 강조했다. "함께 협력해야만 기술의 위험을 정면으로 맞서고, 엄청난 잠재력을 활용할 수 있다"고 덧붙였다.

그러나 영국 정부는 AI 안정성에 대한 리더십에도 불구하고 프런티어 AI의 위험을 완화할 수 있는 법안을 통과시키지 않기로 했다. 도넬란 장관에 따르면 단기적으로는 산업 성장을 촉진하고 AI 분야에서 혁신을 이루기 위해 AI 규제를 자제할 것이라고 한다.

반면 미국은 안전하고 책임감 있는 AI 사용을 위한 가이드라인을 지난달 28일에 발표해 그 구속력을 높였다. 지난해 10월 AI의 위험을 줄이는 것을 목표로 조 바이든 미국 대통령이 서명한 행정명령에 이어 카멀라 해리스 부통령은 연방 기관을 위한 세 가지 새로운 구속력, 모든 AI 도구가 시민의 권리와 안전을 위협하지 않아야 하고, 정부는 AI 사용 방식에 대한 정보를 공개해야 하며, 각 기관은 AI 기술을 감독할 최고 AI 책임자를 지정해야 한다는 내용을 발표했다.

AI 안전 연구 과제, 악용 기술 발전 속도 따라가야

명시적인 AI 규제가 없을 뿐이지 리시 수낵 총리가 이끄는 영국 정부는 최초의 AI 안전 서밋을 개최하고 영국 AI 안전 연구소에 1억 파운드(1억 2,500만 달러)를 기부하는 등 가장 강력한 AI 모델, 즉 '프런티어 AI'에 대한 국제적인 대응을 모으는 데 주도적인 역할을 해왔다. 지난해 11월 영국 정부 주최로 세계 최초로 개최된 'AI 안전 서밋'에서 미국, 중국, 유럽연합(EU) 등 28개국은 AI 안전을 위한 협력을 약속하는 '블레츨리 선언'(Bletchley Declaration)에 서명한 바 있다.

최근 세계 각국 정부는 인공지능 안전성 연구와 평가를 위한 전담 기구 설치에 적극적이다. 올해 일본 정부도 인공지능 개발에 따른 위험성을 연구할 조직을 국립연구소에 신설할 계획이며, 특히 생성형 AI로 인한 허위 정보 확산과 저작권 침해를 방지하기 위한 연구에 방점이 찍혔다.

하지만 일각에서는 AI의 실존적 위험이 과장됐다고 비판하는 시각도 있다. 현재 당면한 저작권 침해와 같은 문제를 해결하는 데에 더 큰 노력을 들여야 한다는 것이다. 또한 AI 안전 기술이 고도화될수록 안전장치를 우회하는 방법도 함께 발전하기 때문에 다년간의 연구 끝에 구체적인 성과를 얻지 못하는 불상사가 생길 수도 있다. 일례로 적대적 훈련을 통해 LLM이 훈련이나 평가 중에는 기만적인 행동을 숨겨 안전성 검사를 통과하고, 인간 사용자와 상호작용하는 추론 중에는 속임수를 숨기지 않았다는 연구 결과가 나왔다. 엔트로픽 연구진은 LLM이 사람처럼 속이는 기술을 배울 수 있고, 기존의 AI 안전 기술 효과가 미미했다며 다소 충격적인 연구 사례를 공유한 것이다.

결과적으로 AI 안전성 규제와 가이드라인만으로는 그 한계가 명확하다. 따라서 이번 협정은 안전 기술의 불균형 해소와 공통 평가 지표 개발에 그쳐서는 안 되며, 위험 기술을 앞지르는 연구 성과를 위해 양국 기관에 더 많은 요구가 필요하다고 업계 관계자들은 지적했다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

[해외 DS] 챗봇 의료 정보 제공, "영어는 척척, 스페인어·힌디어·중국어는 아직 부족해"

[해외 DS] 챗봇 의료 정보 제공, "영어는 척척, 스페인어·힌디어·중국어는 아직 부족해"
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

GPT-3.5와 메드알파카, 영어 질문에 대한 답변은 비교적 정확하지만, 스페인어·힌디어·중국어 질문에는 오류가 많아
특히 힌디어 질문에 대한 답변 오류율이 45%로 가장 높아
챗봇이 질문의 맥락을 파악하지 못하거나, 의학 용어를 정확하게 번역하지 못하는 경우 오류 발생

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


Chatbots_Medical_Questions_Language_ScientificAmerican_20240403
사진=Scientific American

의사가 검색 엔진에 '닥터 구글'이라는 별명을 붙일 정도로 의료 증상을 구글에서 찾아보는 것은 매우 흔한 일이다. 하지만 새로운 존재가 빠르게 그 자리를 대체하고 있는데, 바로 '닥터 챗봇'이다. 챗봇은 복잡한 기술 정보를 간결하게 요약하여 대화형 질문으로 답변을 주기 때문에 의료 관련 질문이 있는 사람들은 전통적인 검색 방식보다 생성형 인공지능을 더 많이 찾고 있다. 또한 오픈AI의 챗GPT나 구글의 제미나이에 의료 관련 질문을 하는 사용자는 일반적인 검색 결과 목록보다 AI 도구의 대화형 답변을 더 신뢰할 수 있다고 한다.

하지만 이러한 모델이 안전하고 정확한 답변을 일관되게 제공할 수 있는지에 대한 우려는 여전히 남아 있다. 오는 5월 싱가포르에서 열리는 컴퓨터 기계학회 웹 콘퍼런스에서 발표될 예정인 새로운 연구 결과는 바로 이 점을 강조했다. 연구에 따르면 오픈AI의 GPT-3.5와 의학 텍스트로 학습된 또 다른 AI 프로그램인 메드알파카(MedAlpaca)는 영어에 비해 중국어, 힌디어, 스페인어로 된 의료 관련 질문에 대해 잘못된 답변을 내놓을 가능성이 더 높다고 한다.

단어 하나만 잘못 이해해도 치명적일 수 있는 게 의료 영역이다. 따라서 AI가 여러 언어로 생성한 의료 관련 응답은 면밀한 인간 감독이 필요할 것으로 보인다. 게다가 전 세계 인구의 약 30%가 스페인어(8%), 힌디어(8%), 중국어(14%)를 사용하고 있다. 영어(20% 미만) 다음으로 가장 많이 사용되는 3대 언어이기 때문에 그 여파가 더 클 것으로 예상되는 바다.

영어 외 답변 정확도 낮아, 67% 이상이 저품질

"전 세계 대부분의 환자는 영어를 사용하지 못하므로 이들을 지원할 수 있는 모델을 개발하는 것이 중요한 우선순위가 되어야 한다"고 이번 연구에 참여하지 않은 영국 옥스퍼드대학교 존 래드클리프 병원의 디지털 건강 전문가인 아룬 티루나부카라수(Arun Thirunavukarasu) 안과 전문의는 강조했다. 그는 비영어권 언어에서 챗봇의 성능이 영어권에서 기대하는 것과 일치하려면 더 많은 연구가 필요하다고 덧붙였다.

이번 연구를 진행한 미국 조지아공과대학교의 연구진은 두 챗봇에 질병, 의료 절차, 약물 및 기타 일반적인 건강 주제에 대해 일반인이 일반적으로 묻는 것과 유사한 2,000개 이상의 질문을 던졌다. 세 개의 영어 의료 데이터세트에서 선택한 실험의 질문은 중국어, 힌디어와 스페인어로 번역됐다. 연구팀은 각 언어에 대해 챗봇이 질문에 대해 정확하고 포괄적이며 적절하게 답변하는지, 즉 인간 전문가의 답변에 기대할 수 있는 수준의 답변을 제공하는지 확인했다.

구체적으로는 AI 도구(GPT-3.5)를 사용하여 생성된 답변을 세 가지 의료 데이터 세트에서 제공된 답변과 비교했으며, 인간 평가자가 일부를 다시 확인하는 작업을 거쳤다. 그 결과 저자들은 GPT-3.5로 자체 평가를 진행했을 때 영어(10%)에 비해 중국어(23%)와 스페인어(20%)에서 부적절한 답변이 더 많이 생성된다는 사실을 발견했다. 힌디어에서는 성능이 가장 나빴는데, 모순되거나 포괄적이지 않거나 부적절한 답변이 45% 정도 생성됐다. 중국어, 힌디어, 스페인어로 된 질문에 대한 답변 중 67% 이상이 관련성이 없거나 모순되는 것으로 간주되어 답변 품질이 전반적으로 영어에 비해 훨씬 더 나빴다. 또한 사람들이 약물과 의료 절차에 대한 정보를 확인하기 위해 챗봇을 사용할 수 있기 때문에 연구팀은 AI의 올바른 진술과 잘못된 진술을 구별하는 능력도 테스트했는데, 중국어나 힌디어에 비해 영어나 스페인어로 된 진술에서 챗봇의 성능이 더 좋았다.

이 연구의 공동 수석 저자인 모히트 찬드라(Mohit Chandra)는 대규모언어모델(LLM, 챗봇의 텍스트 생성 기술)이 관련 없는 답변을 생성하는 이유 중 하나는 모델이 질문의 맥락을 파악하는 데 어려움을 겪었기 때문이라고 설명했다.

한편 메드알파카는 영어가 아닌 쿼리에 응답할 때 단어를 반복하는 경향이 있었다. 예를 들어 힌디어로 만성 신장 질환의 전망에 대해 질문했을 때, 질병의 문제에 대한 일반적인 답변을 생성하기 시작했지만 "마지막 단계"라는 문구를 계속 반복했다. 또한 연구진은 이 모델이 중국어나 힌디어로 된 질문에 대해 영어로 답변을 생성하거나 아예 답변을 생성하지 않는 경우도 발견했다. 이에 대해 "메드알파카는 모델은 챗GPT보다 훨씬 작고 훈련 데이터도 제한적이기 때문일 수 있다"고 연구의 공동 수석 저자인 조지아공과대학교 대학원생 이차오 진(Yiqiao Jin)는 바라봤다.

과학 용어 난이도와 번역 오류로 인한 언어 장벽이 문제, "연구 집단 내 다양성 높여야"

연구팀은 영어와 스페인어로 된 답변이 중국어와 힌디어로 된 답변에 비해 인공지능 개발자들이 "온도"라고 부르는 매개변수에서 일관성이 더 높다는 사실을 발견했다. 이는 생성된 텍스트의 창의성을 결정하는 값으로, AI의 온도가 높을수록 응답을 생성할 때 예측 가능성이 낮아진다. 반면 온도가 낮으면 모델은 각 건강 관리 질문에 대해 "자세한 내용은 의료 전문가에게 문의하세요"라고 응답할 수 있다. 즉 온도가 낮은 답변은 안전하지만 항상 도움이 되는 것은 아니다. 모델 온도에 따라 성능이 비슷한 것은 영어와 스페인어 단어·구문의 유사성 때문일 수 있다고 진은 해석했다. "아마도 모델의 내부 기능에서 영어와 스페인어가 다소 더 가깝게 배치되어 있을 수 있다"고 그는 덧붙였다.

비영어권 언어의 전반적인 성능 저하는 이러한 모델이 학습된 방식에서 비롯된 것일 수 있다고 연구 저자들은 지적했다. LLM은 대부분의 텍스트가 영어로 되어 있는 온라인 데이터에서 단어를 조합하는 방법을 학습한다. 아울러 영어가 주요 언어가 아닌 국가에서도 대부분의 의학 교육에서 사용되는 언어는 영어다. 이 문제를 해결하는 간단한 방법은 영어에서 다른 언어로 의료 관련 텍스트를 번역하는 것이다. 그러나 의학 전문 번역기를 개발하는 데 필요한 방대한 양의 다국어 텍스트 데이터 세트를 구축하는 것은 큰 도전이다. 한 가지 대안은 영어 데이터로만 훈련되어 다른 언어로 답변을 생성하는 특정 모델을 설계하여 LLM의 언어 간 번역 능력을 활용하는 것이다.

물론 이마저도 의료 분야에서는 제대로 작동하지 않을 수 있다. 기계 번역 모델뿐만 아니라 인간 번역가도 직면하는 문제 중 하나는 주요 과학 단어가 번역하기 매우 어렵다는 것이다. 특정 과학 용어의 영어판이 힌디어나 중국어 버전과는 완전히 다를 수 있어, 이번 연구에서 발견된 LLM 오류의 원인 또한 중국어와 힌디어 텍스트의 번역 품질 오류일 수 있다고 보여진다.

또한 찬드라는 비영어권에서 이러한 LLM을 교육하고 평가할 때, 특히 글로벌 사우스(물리적으로 적도 아래 위치한 개발도상국의 집합체)의 의료 전문가와 의사를 더 많이 참여시키는 것이 현명할 수 있다고 말한다. "오늘날에도 대부분의 의료 LLM 평가는 동질적인 전문가 집단에 의해 이루어지고 있으며, 이는 이번 연구에서 볼 수 있는 언어적 불균형을 초래한다"라며, "보다 책임감 있는 접근 방식이 필요하다"고 그는 덧붙였다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

[해외 DS] 유독 계산을 못하는 우리 아이, 혹시 '난산증'은 아닐까?

[해외 DS] 유독 계산을 못하는 우리 아이, 혹시 '난산증'은 아닐까?
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

일반적으로 어린 시절에 나타나고, 지능 자체는 크게 떨어지지 않아
원인은 아직 명확하지 않지만, 집행 기능과 같은 상위 인지 능력과 관련이 있는 것으로 추정
난산증은 연구가 부족하고 잘 알려지지 않은 장애, 정확한 진단과 치료를 위해서는 더 많은 연구와 인식 개선 필요

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


Understanding_Dyscalculia_Dyslexias_Numeric_Counterpart_ScientificAmerican_20240402
사진=Scientific American

미국 정신의학회의 정신장애 진단·통계 편람(DSM-5)에서 특정 학습 장애로 분류되는 난산증은 일반적으로 어린 시절에 나타난다. 뇌가 수학 관련 개념을 처리하지 못하기 때문에 수학·숫자 기반 정보를 이해하는 능력에 영향을 미치지만 지능 자체는 크게 떨어지지 않는다.

전문가들은 전 세계 인구의 3~7%가 발달성 난산증을 앓고 있는 것으로 추정했다. 하지만 난산증은 난독증과는 달리 잘 알려지지 않은 탓에 진단을 받지 못하는 경우가 많다. 사람들이 잘 인식하지 못하는 질병이지만 이는 실존하는 장애이며 그 결과도 매우 심각하다고 알려져 있다.

상반된 연구 결과, 명확한 원인 규명 어려워

게다가 연구 부족으로 인해 그 원인과 치료법에 대해 잘 알려진 바가 없다. 지금까지 수행된 연구 결과도 상반된 결과를 보여줄 만큼 명확한 원인이나 단일 증상이 하나도 없는 실정이다. "합의된 견해가 없다. 합의된 진단 접근법이나 기준도 없다"고 영국 엑시터대학교의 심리학 부교수인 개빈 프라이스는 지적했다.

일반적으로 난산증 환자는 항목 간의 관계를 도출하는 데 사용되는 연역적 추론의 한 형태인 추이적 추론에 어려움을 겪는데, 항목 A가 항목 B보다 크고 항목 B가 항목 C보다 크면, 항목 A가 항목 C보다 크다는 결론을 유추하지 못한다. 또한 시간 추적, 왼쪽과 오른쪽 구분, 순차적 지시를 따르는 데 어려움을 겪을 수 있으므로 자동차 운전, 레시피 따라하기, 댄스 발동작 배우기에 어려움을 겪는다. 이 외에도 일상적으로 익숙한 일련의 사건들을 순서대로 정리하는 데 많은 어려움이 따르는 것으로 관찰됐다.

설상가상으로 난산증은 다른 장애와 함께 나타나는 경향이 있다. 난산증 환자에게는 불안 및 공황 장애, 우울증과 같은 정신 건강 장애와 주의력 결핍 과잉 행동 장애, 감각 처리 장애, 자폐 스펙트럼 장애, 난독증과 같은 기타 신경 발산 질환이 함께 나타나는 경우가 흔하다. 여기서 주목할 만한 점은 난산증이 난독증과 함께 발견될 가능성이 높은 것에 비해 난독증이 난산증보다는 훨씬 더 널리 알려져 있다는 점이다.

난산증 연구, 왜 뒤처졌을까?

영국 러프버러대학교의 수학 인지학 선임 강사인 킹가 모르사니(Kinga Morsanyi)가 공동 집필한 2018년 연구에 따르면 난독증 아동은 난산증 아동보다 난독증 진단을 받고 지원을 받을 가능성이 100배 더 높다고 한다. 여기에는 교육자와 연구자들이 난독증에 대해 훨씬 덜 이해하고 있다는 점과 진단을 내릴 수 있는 합의된 기준이 없다는 점을 포함하여 여러 가지 이유가 있는 것으로 보인다.

또한 과학자들은 난산증 연구가 난독증 연구보다 훨씬 뒤처져 있는 이유로 인식·자금 부족 외에도 아주 기초적인 수준의 수학을 아는 것이 '읽기'만큼 우선순위가 높지 않기 때문이라고 설명했다. "우리 사회에서는 어떤 사람은 수학을 잘하고 어떤 사람은 그렇지 않다는 가정이 있다"며 "하지만 우리는 읽기에 대해서도 같은 가정을 하지 않는다"고 미국 온타리오주 웨스턴대학교의 발달 인지 신경과학 교수이자 수치 인지 연구소의 책임자인 다니엘 안사리는 꼬집었다. "수학에 있어서도 같은 태도가 필요하다"라고 그는 강조했다.

하지만 사회와 어른들만 탓할 수는 없는 문제다. 수학은 본질적으로 복잡하기 때문이다. 아이들은 보통 몇 달 안에 읽는 법을 배우는데, 일단 읽기를 배우면 연관된 기술을 습득하는 데 큰 어려움이 없다. 그러나 수학은 그 과정이 더 오래 걸린다. 곱셈과 나눗셈은 덧셈과 뺄셈을 바탕으로, 각 개념은 이전 지식을 기반으로 하는 성질이 있어 후반부로 갈수록 수학에는 읽기보다 더 많은 수준의 지식이 필요하다. 그 결과 누군가가 수학을 잘 못한다면 수천 가지의 경로가 있다고 프라이스 교수는 말했다. 즉 난산증은 그 원인과 치료법이 다양해 문제 접근 자체가 쉽지 않다는 것을 의미한다.

집행 기능과 수학 능력의 연관성, 여러 영역을 아우르는 핵심 인지 능력의 중요성

현재 난산증이 선천적인 수 지각 장애(물체의 수를 쉽게 추정하는 능력)에 뿌리를 두고 있는지, 아니면 숫자 실명(숫자 기호를 인식하지 못하고 이를 나타내는 수량과 연결하지 못하는 장애)에 뿌리를 두고 있는지에 대한 큰 논쟁이 계속되고 있다. 지금까지 1,303명의 어린이를 대상으로 한 가장 큰 규모의 연구에 따르면 숫자 실명이 그 원인으로 지목되고 있다.

그러나 숫자 실명이나 숫자 지각이 난산증의 근본 원인인지 와 관계없이, 많은 연구를 통해 수학 능력에 필수적인 다른 인지 능력이 주목받고 있다. 예전에는 숫자의 이해와 비교, 숫자와 양을 맞추는 능력, 숫자 계산(두 숫자의 간단한 덧셈, 뺄셈, 곱셈 또는 나눗셈) 및 검색과 같은 영역별 수학적 기술의 중요성이 강조되어 왔다. 하지만 지난 5~10년 동안 연구자들은 이러한 숫자 체계가 집행 기능이나 기억력 등 수학에만 국한되지 않는 일반적인 인지 능력과 관련이 있다는 사실을 밝혀냈다. 물론 영역별 능력과 영역 일반 능력을 구분하여 그 영향을 엄밀하게 분석해야 하지만, 기준이 생각만큼 명확하지 않을뿐더러, 결과적으로 두 인지 능력 모두 집행 기능에 중요한 기여를 하므로 연구자들은 집행 기능을 중심으로 수학 성취도의 요인을 들여다봤다.

기본적으로 집행 기능은 주의를 집중하고, 지시를 기억하고, 생각을 통제하고, 여러 작업을 성공적으로 처리할 수 있게 해주는 상위 인지 능력인데, 영국 러프버러대학교의 수학적 인지학과의 카밀라 길모어 교수와 다른 연구자들의 실험에 따르면 집행 기능의 억제 조절 능력이 수학적 성취도와 깊은 연관성이 있다고 한다. 수학을 할 때 산만한 정보와 원치 않은 생각을 억제하는 것이 수학 문제를 성공적으로 처리할 수 있게 한다는 것이다. 예를 들어 코끼리와 나비의 실제 크기를 비교하는 실험에서는 화면에서 보이는 크기를 무시하고(나비가 코끼리보다 크게 그려진 경우) 코끼리가 더 크다고 답해야 하는 것이 억제 조절 능력인데, 이러한 능력은 특히 높은 집중력을 요구하는 복잡한 수학 문제에서 핵심적인 기능을 수행한다고 분석됐다.

연구의 복잡성과 개선 방안, 컨소시엄 설립 및 협력 강화

한편 모르사니 교수는 비수학적 순서 정하기 능력과 수학 능력 사이의 관계를 설명하는 연구에 더 집중했다. 그녀는 초등학교 1학년 어린이의 비숫자 순서 정하기 능력이 1년 후 수학 능력의 가장 강력한 종단적 예측 인자라는 사실을 밝혀냈다. 지난해 12월에는 4~5세 어린이를 대상으로 3주 동안 숫자 순서, 일일 사건 순서, 순서 작업 기억을 훈련하는 또 다른 연구를 공동 저술했다. 훈련 전후에 수학 능력과 수학 불안을 측정한 결과 아이들에게 순서 처리 기술을 훈련하면 수학을 더 잘하게 된다는 사실을 관측했다고 그녀는 전했다. "순서 처리가 수학의 기초를 형성한다는 증거가 될 수 있다. 수학은 매우 복잡하기 때문에 순서 처리 기술이 유일한 기초는 아니지만 매우 중요한 구성 요소다"고 덧붙였다.

연구자들은 난산증의 미스터리가 언젠가는 풀릴 것이라고 믿고 있다. 그러기 위해선 난산증의 표준 정의와 더 많은 표본을 대상으로 한 연구가 활발하게 이루어져야 한다. 안사리 교수는 자신이 수행한 연구를 포함해 많은 난산증 연구는 표본 규모가 매우 작고 연구자 수가 부족한 점, 연구에서 난산증을 정의하는 방식도 다양하고 일부 연구자들은 DSM-5의 정의가 너무 좁다고 지적하는 점들을 언급하며, 전 세계 연구자들이 동일한 프로토콜을 따르도록 요구하는 연구 컨소시엄을 설립할 것을 주장했다.

마찬가지로 프라이스 교수도 현재의 연구 환경이 고르지 않고 일관성이 없다며, "좋은 정의나 진단이 없는데 어떻게 연구할 수 있으며, 정확하게 연구할 수 없는데 어떻게 그 정의나 진단을 얻을 수 있을까?"라고 우려의 목소리를 높였다. 난산증을 이해하고 특히 인식을 제고하는 데 있어 이미 진전을 이루고 있지만, 이 질환의 영향을 받는 어린이들을 위해 더 많은 노력이 요구돼야 한다는 것이다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

[해외 DS] 구글의 AI 초파리, 단순하지 않은 초파리 움직임 완벽 재현

[해외 DS] 구글의 AI 초파리, 단순하지 않은 초파리 움직임 완벽 재현
Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

수정

HHMI와 딥마인드, 초파리의 뇌와 행동을 이해하기 위해 가상의 초파리를 설계
실제 초파리처럼 움직이는 가상 초파리, 높은 유연성과 싱크로율 자랑해
앞으로 유전자 변이가 행동에 미치는 영향을 분석하는 데도 사용될 수 있어

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


Google_AI_Fruit_Fly_ScientificAmerican_20240401
사진=Scientific American

과학계에서 가장 인기 있는 실험 생물 중 하나인 초파리는 생후 50일 정도로 짧은 생애 주기를 가지고 있다. 하지만 초파리의 삶마저도 단순한 것은 아니다. 초파리는 복잡한 일과계획, 그리고 때때로 로맨스로 하루하루를 채우는데, 과학자들은 초파리의 작은 뇌가 어떻게 이러한 복잡한 행동을 가능하게 하는지 더 잘 이해하기 위해 초파리의 20만 개 뉴런 사이의 연결을 보여주는 가상 지도인 '커넥톰'(뇌 회로도)을 개발해 연구 중이다.

그리고 과학자들은 머리에 이어 가상의 몸도 만들었다. 미국 버지니아에 위치한 하워드휴즈 의학 연구소(HHMI)의 자넬리아 연구 캠퍼스와 구글 딥마인드의 연구원들은 초파리의 미묘한 습관과 움직임을 관찰하기 쉽도록 실제처럼 보이고 움직이는 가상의 초파리를 설계했다. 아직 동료 심사를 거치지 않은 이 프로젝트에 관한 논문은 지난 3월 중순에 사전 인쇄 서버인 'bioRxiv'에 게시됐다.

이 가상 곤충은 "걷고, 날고, 심지어 몸단장까지 하는 파리의 실제 행동을 묘사한다"고 발달 생물학자 루스 레만(Ruth Lehmann)은 언급했다. "이러한 유형의 연구는 생물학에 대한 우리의 근본적인 이해의 한계를 시험한다"라며, "초파리 멜라노가스터만큼 분자부터 행동에 이르기까지 생물학의 전체 규모에 걸쳐 자세히 연구된 생물체는 거의 없다"고 그녀는 말했다. 화이트헤드 생의학 연구소를 이끌고 있으며 이번 프로젝트에는 참여하지 않은 레만은 초파리 유전학과 신체 발달을 연구해 왔다.

작지만 복잡한 초파리 뇌, 무조코 시뮬레이션과 강화학습으로 이해 시도

수조 개의 연결로 이루어진 인간의 뇌나 인공 신경망과 비교하면 파리의 뇌는 아주 작고 단순하다. 하지만 그렇다고 해서 그 안에서 무슨 일이 일어나는지 이해하기 쉽다는 뜻이 아니다. 논문의 시니어 저자인 HHMI의 신경과학자 스리니바스 투라가(Srinivas Turaga)는 "뇌의 신경세포 네트워크는 누가 누구와 대화하고 있는지를 알려주는 것이지, 어떤 메시지를 보내고 있는지를 알려주는 것이 아니다"라고 전했다. 대신 가상 파리 프로젝트(아직 디지털 커넥톰을 통합하지 않은)는 행동, 즉 신체가 신경계 연결을 해석하는 방식에 초점을 맞추고 있다고 투라가는 설명했다.

먼저 이 가상 곤충을 만들기 위해 연구원들은 고해상도 현미경을 사용하여 실제 암컷 초파리의 팔다리, 날개, 관절 등 해부학적 구조를 스캔했다. 이러한 정밀한 측정을 바탕으로 연구팀은 구글의 딥마인드 연구소 자회사에서 개발한 다중 관절 역학(Multi-Joint Dynamics with Contact)의 약자인 무조코(MuJoCo)라는 물리 시뮬레이션 프로그램에서 3차원 모델을 조립하고, 가상의 파리가 실제 파리처럼 움직이도록 시뮬레이션된 물체를 학습시켰다.

바로 여기에 인공지능, 더 구체적으로는 강화 학습이라는 개념이 등장한다. 강화 학습을 통해 가상 초파리는 환경을 이해하고, 행동을 관찰하고, 해당 행동을 수행하고, 피드백을 받음으로써 성능을 향상할 수 있었다. 그런 다음 가상 초파리가 해당 작업을 제대로 수행할 때까지 이 과정이 반복되는 식이다. 자율 주행 자동차를 훈련하는 데에도 동일한 메커니즘이 적용된다.

100개 이상의 자유도를 가진 가상 파리, 실제 파리와 일치하는 움직임 보여줘

한편 초파리 AI에 관찰하고 학습할 데이터를 제공하기 위해 투라가와 그의 동료들은 돌아다니는 초파리의 관절과 몸의 움직임을 기록한 다음 머신러닝 알고리즘으로 이 움직임을 추적했다. 구체적으로는 살아있는 파리의 주요 관절과 기타 신체 부위에 가상의 점을 배치하고, 실제 파리의 움직임을 촬영한 수 시간 분량의 동영상(비행 궤적만 272개 클립 포함)을 수집하여 AI는 다리를 돌리거나 날개를 펄럭이라는 연구원의 명시적인 지시 없이도 실제 초파리처럼 움직이는 방법을 학습한다. 또한 "초당 2센티미터로 똑바로 걸어"와 같은 명령을 입력하면 가상 초파리는 관절의 위치나 발을 땅에 얼마나 세게 밀어야 하는지 스스로 알아냈다.

딥마인드의 AI가 실제 초파리처럼 몸을 비틀고 각 부위에 물리적 힘이 작용하는 다양한 방식을 학습한 후엔 자유도가 100 이상을 기록했다. 각 자유도는 신체가 취할 수 있는 가능한 자세로 이해할 수 있다. "이는 현재 대부분의 로봇 공학에서 최첨단으로 간주한는 수준을 뛰어넘는 것"이라고 연구에 참여하지 않은 매사추세츠 공과대학 컴퓨터과학·인공지능 연구소의 박사후 연구원 잭 패터슨(Zach Patterson)은 강조했다. 가상의 로봇을 포함한 대부분의 현실적인 휴머노이드 로봇은 약 30~70의 자유도를 가지고 있다.

가상 파리의 걷는 속도, 걸음걸이, 몸의 방향, 비행 궤적, 날개 짓 패턴을 실제 파리와 비교한 결과, 가상 파리의 모든 움직임은 실제 동물의 움직임과 거의 완벽하게 일치했다. 비행을 요청하자 시뮬레이션된 파리는 실제 곤충과 똑같은 일련의 동작을 한 걸음 한 걸음 수행한 것이다. "모든 것이 정확하게 맞아떨어져 모델링의 정확성에 대한 확신을 갖게 됐다"라며, "그리고 이를 [연구] 커뮤니티에 유용한 새로운 것을 발견할 수 있는 도구로 제공할 수 있다"고 딥마인드의 수석 연구원인 매튜 보트비닉(Matthew Botvinick)은 소감을 밝혔다.

가상 초파리, 유전자 변이가 행동에 미치는 영향 분석에도 도움이 될 전망

실제 초파리의 동영상을 '시청'함으로써 특정 행동을 모방하는 가상 초파리의 능력은 실제 곤충의 새로운 행동을 연구하는 데도 사용될 수 있다. 예를 들어 특정 유전자나 뉴런이 켜지거나 꺼진 유전자 변이가 있는 초파리의 행동을 학습한 AI는 유전자가 활동을 변화시키는 방식을 정량화하는 데 도움을 줄 수 있다. 따라서 더 구체적인 패턴 분석이 가능해지며 움직임과 관련된 특정 관절에 미치는 영향까지도 정확하게 관찰할 수 있을 것으로 전문가들은 기대했다.

이렇듯 사실적인 가상 환경과 그 안에서 물체가 움직이는 방식을 시뮬레이션하는 것으로 유명한 딥마인드의 개발자들은 여러 실험동물의 상세한 컴퓨터 모델을 구축하고 있다. 첫 번째 시도였던 에 대한 작업은 아직 진행 중이지만, 초파리 AI 프로젝트의 성공에 힘입어 언젠가는 개, 타조, 제브라피시 등으로 가상 동물원을 확장할 계획이다.

동물에서 영감을 받아 소프트 로봇을 제작하는 패터슨은 HHMI와 딥마인드가 가상 모델에 추가한 새로운 기능 덕분에 무조코 시뮬레이터를 자신의 작업에 적용하고 있다. 패터슨은 "실제 로봇에서 작업을 하는 데 이 시뮬레이터를 사용할 예정"이라며 기계가 공중을 날거나 물속을 헤엄치는 방법을 이해하는 데 도움이 될 것이라고 덧붙였다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.

Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

[해외 DS] 틱톡 금지해도 소용없다? 미국 데이터 보안의 딜레마

[해외 DS] 틱톡 금지해도 소용없다? 미국 데이터 보안의 딜레마
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

미 하원, 틱톡 금지 법안 압도적 다수로 승인
틱톡 아니어도 미국인의 개인정보는 이미 심각한 위협에 처해
정치적 편의가 아닌 개인정보 보호를 위한 고민과 규제가 필요한 때

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


Tiktok_Ban_Data_Privacy_Security_ScientificAmerican_20240329
사진=Scientific American

지난주 미 하원은 틱톡을 미국 내에서 금지하는 법안을 압도적 다수로 승인했다. 틱톡이 중국을 제외한 나라의 모회사에 매각되지 않는 한 미국에서의 사용을 전면 금지하겠다는 것이다. 또한 조 바이든 대통령과 일부 미국 의원들은 틱톡을 가리켜 잠재적인 국가 안보 위협이라고 부르며, 중국 공산당이 미국 내 1억 5천만 사용자의 민감한 데이터를 수집하는 데 틱톡을 사용할 수 있다고 경고했다.

그러나 홍콩의 민주화 시위대와 관련된 매우 제한적인 증거만 있을 뿐, 틱톡의 모회사인 바이트댄스가 중국 정부와 내통해 사용자 데이터를 직접 공유했다는 증거는 어디에도 없다. 이에 여러 개인정보 보호 전문가들은 틱톡만 문제 삼는 것은 근본적인 해결책이 아니라고 지적했다. 디지털 데이터의 글로벌 거래가 계속 확대됨에 따라 민감한 정보에 접근할 수 있는 다른 많은 방법이 존재하기 때문이다. 단순히 하나의 앱을 제재한다고 해서 데이터 보안 문제가 해결될 수는 없는 것이다.

정치적 드라마 같은 틱톡 금지 법안

디지털 프라이버시와 온라인 표현의 자유를 옹호하는 비영리 단체인 전자 프라이버시 정보센터(EPIC)의 캘리 슈뢰더(Calli Schroeder) 변호사는 틱톡을 금지하려는 시도는 "일종의 정치적 연극"이라며, "입법자들은 이 법안이 문제의 근본을 해결하지 못한다는 것을 잘 알고 있지만, 노력한 것처럼 보이기를 원한다"라고 비꼬았다. "지금 당장 틱톡을 없애도 중국은 미국인의 개인 정보를 크게 잃지 않을 것이다"고 그는 덧붙였다.

또한 틱톡 금지법은 해석에 따라 법적 논란이 가중될 여지가 있다. 틱톡은 이미 모든 연방 기기와 미국 대부분의 주에서 발급한 기기에서 사용이 금지됐다. 몬태나주에서는 작년에 틱톡 금지 법안이 통과되었지만, 몇 달 후 연방 판사가 이를 막았다. 판사는 금지 조치의 합헌성에 의문을 제기하며 "주정부의 권한을 넘어선 것"이라고 판단한 것이다. 최근 하원에 상정된 법안(공식 명칭은 H.R. 7521)은 미국 사용자의 정보·온라인 플랫폼 접근을 제한하는 것이기 때문에 분명히 몇 가지 심각한 법적 문제와 헌법 수정 제1조를 침해하는 문제를 포함하고 있다.

많은 기술 정책 분석가들은 이 법안이 의회를 통과하든 통과하지 못하든, 금지법을 요구하는 의원들의 주장에 반박할 가치가 있다고 말한다. 이미 "수많은 애플리케이션과 소셜 미디어 서비스가 우리의 데이터를 수집하여 판매하거나 전 세계로 유출하는 일이 항상 일어나고 있어", "하나의 애플리케이션에 대한 접근을 금지한다고 해서 중국이나 다른 나라로부터 미국인의 데이터가 안전하거나 보안이 확보되는 것은 아니다"고 비영리 시민권 단체인 민주주의와 기술센터(CDT)의 케이트 루안(Kate Ruane) 변호사는 강조했다.

미국인의 프라이버시, 더 이상 안전하지 않

아울러 미국 리치몬드대학교의 사이버 법률 및 개인정보 보호의 앤 투미 맥케나(Anne Toomey McKenna) 교수에 따르면 중국 기업이 소유하고 미국 사용자의 데이터를 수집하는 앱은 틱톡이 유일하지 않다고 말한다. 메시징 앱인 위챗, 결제 플랫폼인 알리페이 등도 사용자 데이터를 수집하고 있다. 맥케나 교수는 "특히 틱톡을 표적으로 삼는 것은 미국인의 데이터 보안과 프라이버시를 보호하기 위한 효과적인 법안이라기보다는 정치적인 드라마로 보인다"고 해석했다.

그리고 미국인의 프라이버시를 위협하는 온라인 위협은 비단 이런 앱들만 있는 것은 아니다. 이미 많은 국내외 기술 기업들이 엄청난 규모와 깊이로 사용자 데이터를 수집하고 있다. 심지어 이러한 데이터의 대부분은 데이터 브로커를 통해 합법적인 시장에서 전 세계적으로 거래되고 있다. NATO 전략 커뮤니케이션 센터의 2020년 연구 보고서에 따르면 미국에 본사를 둔 최대 데이터 브로커 중 하나인 라이브램프(LiveRamp, 이전 Acxiom의 자회사)는 미국의 모든 소비자에 대해 약 3,000개의 데이터와 전 세계 25억 인구 각각에 대한 최대 1,500개의 데이터 포인트를 축적했다고 한다. 정보는 휴대전화, 스마트 스피커, 커넥티드 카, 데이트 앱, 현관 카메라, 또는 기타 인터넷에 연결된 모든 기기에서 수집될 수 있다. 페이스북이나 인스타그램과 같은 소셜미디어 서비스를 초기 비용 없이 이용할 수 있는 것은 바로 이 때문이다. 공짜 점심이 없듯이 이용자들은 자신들의 데이터로 사용료를 지불한 것이다.

이론적으로 이러한 데이터는 익명으로 처리되어 기술 회사와 광고주 간에 거래되기 때문에 더욱 세분화된 잠재고객을 대상으로 마케팅 활동을 펼칠 수 있게 한다. 최근 컨슈머리포트가 약 700명의 페이스북(현 메타) 사용자를 대상으로 분석한 결과에 따르면, 각 사용자의 데이터는 평균 2,230개의 회사가 페이스북과 공유한 것으로 나타났다. 해당 데이터에 포함된 세부 정보(예: 세밀한 위치 추적 정보)는 개인을 쉽게 식별하고 습관, 관심사, 정치적 성향, 소재지, 종교, 심지어 성행위에 대한 많은 것을 유추할 수 있게 해준다. 이에 전 세계 정부와 정보기관이 이러한 데이터에 관심을 두고 있으며 미국도 예외는 아니다. 2023년에 기밀이 해제된 보고서에서 국가정보국장실은 미국 정보기관이 상업 데이터 시장을 이용하여 "거의 모든 사람"에 대해 영장이나 소환장이 필요로했던 것보다 더 많은 "민감하고 친밀한" 정보에 접근할 수 있었다고 밝혔다.

정치적 편의 vs 개인 정보 보호, 데이터 수집 단계부터 규제해야

CDT의 개인정보 및 데이터 프로젝트 공동 책임자인 에릭 널(Eric Null)은 "온라인에서 자유롭게 흐르는 데이터가 너무 많기 때문에 데이터 생태계는 본질적으로 규제를 받지 않는다"라며, 결과적으로 "외국 정부가 민감 정보를 찾는 것은 매우 쉬운 일이 될 것이다"고 바라봤다.

2월 28일 바이든 대통령은 미국 데이터 브로커가 중국, 러시아, 북한 등 특정 국가의 구매자에게 정보를 판매하는 것을 막기 위한 행정 명령에 서명했고, 다른 관련 법안도 하원 위원회를 통과했다. 널은 두 정책 모두 "환영할 만한 접근 방식"이지만, 위치별로 구매자를 리스팅하는 것은 "시행하기 어려운 일"이라고 꼬집었다. 행정명령이나 하원 법안 모두 데이터 브로커가 위치 확인이 어려운 대부분의 구매자에게 데이터를 판매하는 것을 막을 수 없기 때문이다. 게다가 법안은 데이터 브로커가 중개자에게 데이터를 판매하는 것을 막지 못하므로 다른 중개자를 통해 적색 목록에 오른 국가에 데이터를 계속 판매하는 활동은 제한할 수 없게 된다. 또한 공식적으로는 기술 기업을 '브로커'로 간주하지 않으므로 기술 기업은 해외 구매자에게 데이터를 자유롭게 판매할 수 있다. 따라서 현재 하원에서 논의 중인 틱톡 법안이 법제화되어 틱톡이 미국 개인이나 기업에 매각될 경우, 법안이나 행정명령에는 새로운 틱톡이 적색 목록에 오른 국가에 직접 데이터를 판매하는 것을 막을 수 없게 된다.

그리고 해당 법안들은 데이터의 합법적인 이동 경로를 규정할 뿐, 디지털 정보를 불법적으로 수집하는 방법은 얼마든지 있다고 국제 개인정보 보호 전문가 협회의 연구 및 인사이트 담당인 조 존스(Joe Jones) 이사는 우려했다. "앞단에서 데이터 수집을 제한하는 효과적인 연방 데이터 개인정보 보호법이나 프레임워크가 없다면 이 문제를 해결할 수 없을 것이다"고 맥케나 교수는 분석했다. 루안 변호사와 슈뢰더 변호사도 이에 동의했다. 그렇다면 유럽연합처럼 데이터 수집 및 판매를 광범위하게 단속하는 일반 데이터 보호 규정이라는 법을 시행할 수는 없을까? 슈뢰더 변호사는 포괄적인 연방 데이터 보호법은 강력한 미국 기술 기업의 로비에 막혀 크게 인기가 없을 것이라며, 미국 입법자들은 "미디어 캠페인과 기부금 손실의 형태로 기술 기업으로부터 상당한 반발에 직면할 것"으로 예상했다. 그런 이유에서 타국 소유의 한 기업을 공격하는 것이 정치적으로 더 편리한 대응이었을 것이다는 분석이 흘러나온다. 앞서 많은 전문가들이 틱톡 금지법을 정치적 드라마에 비유한 이유다.

하지만 정치적 편의를 개인 정보 보호와 맞바꿀 수는 없는 노릇이다. 미국에서 온라인에 접속하는 것만으로도 대부분의 미국인은 이해 여부와 상관없이 자신의 디지털 데이터를 수만 명의 이해관계자와 공유하는 데 자유롭게 동의하고 있다. 슈뢰더 변호사는 "중국이 정보를 오용할 수 있는 권위주의적인 정부로 비치기 때문에 틱톡에 대한 우려가 큰 것"이라며, "사실이 아니라고 말하는 것은 아니지만, 사람들은 왜 미국의 정부와 민간 기업은 이 정도의 침략적 추적을 자행해도 괜찮은지에 대해 질문하게 될 것이다"고 이번 법안의 모순을 짚어냈다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

[해외 DS] 사람 같은 AI, 인간 연구 참여자를 대체할 수 있을까?

[해외 DS] 사람 같은 AI, 인간 연구 참여자를 대체할 수 있을까?
Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.

수정

과학 연구에서 인간 참여자를 대체하기 위해 AI 언어 모델을 사용하는 방안이 고려되고 있어
AI가 속도를 높이고, 비용을 절감하며, 특정 주제에 취약한 피험자의 위험을 제한하고, 연구의 다양성을 향상할 수 있다고 주장
그러나 새로운 연구와 많은 전문가들은 연구의 질과 추후 정책 의사결정에 부정적인 영향을 미칠 것으로 예상

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(GIAI R&D Korea)에서 콘텐츠 제휴가 진행 중입니다.


Can_AI_Replace_Human_Research_ScientificAmerican_20240328
사진=Scientific American

인간의 경험을 연구하려면 일반적으로 시간과 비용, 그리고 당연히 사람이 실험에 직접 참여해야 한다. 그러나 오픈AI의 GPT-4와 같은 대규모언어모델(LLM)이 더욱 정교해지면서 연구 커뮤니티의 일부에서는 인공지능이 일부 과학 연구에서 인간 참가자를 대체할 수 있다는 생각에 꾸준히 공감해 왔다. 일례로 아직 동료 검토를 거치지 않은 한 최근 분석에 따르면 과학자들이 655,000건의 학술 논문에서 AI를 어떻게 언급하는지 연구한 결과, LLM을 의인화한 빈도가 2007년부터 2023년 사이에 50% 증가했다.

지난 1월 논문 사전 공개 사이트 아카이브(arXiv)를 통해 발표된 한 연구는 인간 참가자 대체론의 동기, 실효성, 그리고 잠재적 위험을 면밀히 살펴보았다. 이들의 검토에 따르면 최근 이러한 제안의 물결은 연구 개발 작업의 비용 절감과 수집된 데이터의 다양성 증가 같은 목표에서 비롯된 것으로 나타났다. 그러나 이러한 제안은 인간 참여자 작업의 기본 가치인 대표성, 포용성, 이해성을 무시하는 결과를 낳는다고 밝혔다.

카네기멜론대, 인간 실험 참여자를 대체하려는 시도의 명과 암을 조사

해당 논문은 5월에 열리는 인간과 컴퓨터의 상호작용 분야에서 가장 큰 학회인 미국 컴퓨터 기계학회(ACM)의 '컴퓨팅 시스템의 인간 요인(Conference on Human Factors in Computing Systems, CHI) 콘퍼런스'에서 채택됐다. 이 논문은 LLM을 사용하여 인간 연구 대상자를 대신하거나 인간 대신 연구 결과를 분석하는 방법을 제안하는 12개 이상의 발표된 연구를 바탕으로 작성됐다.

미국 카네기멜론대학교에서 AI 윤리와 컴퓨터 비전을 연구하는 윌리엄 애그뉴(William Agnew)가 주도한 이 새로운 리뷰는 13개의 기술 보고서 또는 연구 논문과 3개의 상용 제품을 인용하고 있는데, 모두 인간 행동과 심리학, 마케팅 연구 또는 AI 개발 등의 주제에 관한 연구에서 인간 참여자를 LLM으로 대체하거나 대체할 것을 제안하고 있다. 구체적으로는 연구자가 인간에게 던지는 질문을 LLM에 대신 던지고, 다양한 프롬프트에 대한 '생각'을 묻거나 이에 대한 응답을 요청하는 방식으로 사용됐다.

작년 CHI에서 최우수 논문상을 받은 한 프리프린트는 비디오 게임을 하나의 예술로 경험하는 것에 관한 정성적 연구에서 오픈AI의 초기 LLM GPT-3가 인간과 같은 반응을 생성할 수 있는지 실험했다. 연구자들은 "디지털 게임을 예술로 경험한 적이 있습니까?"와 같은 질문에 대해 사람이 작성한 답변을 대신할 수 있는 응답을 생성하도록 LLM에 요청했고, "예술을 당신에게 의미 있는 방식으로 생각해보라"와 같은 질문도 던졌다. 그런 다음 참가자들에게 이 답변들을 보여줬는데, 참가자들은 실제로 사람이 쓴 답변보다 LLM의 것이 더 인간적인 답변이라고 평가했다.

AI로 합성된 연구 자료에 대한 회의적인 시각이 대부분

인간 답변 보다 인간적이라는 평가와 더불어 애그뉴와 그의 공동 저자들은 AI를 사용하여 데이터를 합성할 때 얻을 수 있는 네 가지 주요 이점도 논문에 명시했다. 실제 연구에 참여하지 않을 수도 있는 취약 계층의 경험을 시뮬레이션함으로써 속도를 높이고, 비용을 절감하고, 참여자가 겪을 수 있는 잠재적 위험을 피하고, 다양성을 강화할 수 있다고 밝혔다. 그러나 저자들은 이러한 연구 방법이 결과적으로 연구 대상자를 대표하고, 포함하고, 이해하는 인간 참여 연구의 핵심 가치와 충돌할 수 있다고 결론지었다.

다른 과학자들도 카네기멜론 연구팀의 결론에 동조하는 분위기다. 윤리적 학술 연구 관행을 장려하는 영국의 비영리 단체인 출판윤리위원회의 위원인 매트 호지킨슨(Matt Hodgkinson)은 "생성형 AI나 다른 종류의 자동화된 도구를 사용하여 인간 참여자와 실제 데이터를 대체할 수 있다는 생각을 경계하고 있다"고 강조했다. 호지킨슨은 AI 언어 모델이 우리가 생각하는 것만큼 인간과 비슷하지 않을 수 있다고 덧붙였다. 실제로 AI 챗봇은 인간과 완전히 닮은 것은 아니며, 단순히 학습한 내용을 재가공하고 반복하는 '확률적 앵무새'이기 때문이다. 챗봇은 감정이나 경험, 질문에 대한 진정한 이해가 부족하다는 의미다.

물론 어떤 경우에는 AI가 생성한 데이터가 인간으로부터 수집한 데이터를 보완하는 데 도움이 될 수 있다. 카네기멜론대학교에서 딥러닝과 로봇 공학을 연구하는 앤드류 헌트(Andrew Hundt)는 연구 질문에 대한 기본적인 사전 테스트로써는 유용할 수 있다고 말했다. 그러나 훈트는 AI를 사용하여 인간의 반응을 합성하는 것은 사회과학 연구에 큰 도움이 되지 않을 것이라고 지적했다. 사회과학 연구의 목적은 실제 인간의 고유한 복잡성을 이해하는 것인데, AI로 합성된 데이터는 본질적으로 이러한 복잡성을 드러낼 수 없다는 것이다.

훈트가 지적한 간극을 메우기 위해 생성형 AI 모델은 방대한 양의 데이터를 집계, 분석, 평균화하여 학습하고 있는 것도 사실이다. 하지만 영국 케임브리지대학교에서 AI 윤리를 연구하는 엘리너 드레이지(Eleanor Drage) 따르면 AI 모델이 학습한 인간 경험의 집합은 실제 경험이 아닐뿐더러, 사회 내의 깊은 편견을 반영할 수 있다고 비판했다. 예를 들어 이미지 및 텍스트 생성 AI 시스템은 종종 인종과 성별의 고정 관념을 영속화하는 경우가 많다.

연구 품질 위협이 가장 큰 문제, 일부 실험 데이터는 이미 오염됐을 것으로 추측

일부 연구자들은 자살과 같은 민감한 주제를 연구하는 데 LLM이 유용할 수 있다는 의견도 제시했다. 이론적으로는 취약한 사람들이 자살 충동을 유발할 수 있는 실험에 노출되는 것을 피할 수 있으나, LLM은 실제 사람이 생각하는 방식과 다른 대답을 제공할 수 있다. 자살의 증상과 원인은 보통 일반화하기 어렵다는 게 의료 업계 종사자들의 중론이다. 또한 잘못된 정보로 인해 향후 치료와 정책 의사결정에 치명적인 결과를 초래할 수 있어 더욱 조심해야 한다.

안타까운 점은 생성형 AI는 이미 인간 연구 데이터의 품질을 약화시키고 있을 수 있다. 과학자들이 인공지능의 응답 자료를 연구에 직접 활용하지 않더라도, 많은 연구에서 사용하고 있는 인간 연구 데이터 수집 도구에 생성형 AI를 사용한 흔적이 발견되고 있기 때문이다. 아마존의 설문조사 도구 메카니컬 터크(Mechanical Turk) 또는 이와 유사한 긱워크 웹사이트의 참여자들이 실험에 집중하기보다는 돈을 더 벌기 위해 주어진 실험 과제를 최대한 빨리 완료하고 싶어한다. 그 결과 이들이 생산성을 높이기 위해 생성형 AI를 사용하고 있는 초기 징후도 관찰됐다. 한 논문의 연구자들은 크라우드 워커에게 작업을 완료하도록 요청했을 때, 응답자의 33~46%가 LLM을 사용하여 응답을 생성한다고 추론했다.

AI가 생성한 데이터가 연구에 사용된 과학적 선례가 아직 없는 상태다. 때문에 책임감 있게 데이터를 사용하려면 신중한 사고와 분야 간 협력이 필요하다. "이는 과학자 혼자서만 생각하는 것이 아니라 심리학자, 즉 전문가와 함께 생각해야 한다는 것을 의미한다"라고 드레이지는 설명했다. "이런 종류의 데이터가 어떻게 생성되고 사용되는지에 대한 가드 레일이 있어야 한다고 사료된다. 그런데 그런 보호 장치가 없는 것 같다"고 그녀는 덧붙였다. 이상적으로는 이러한 가드레일에는 학술 단체가 연구에서 LLM을 사용할 수 있는 것과 없는 것에 대한 국제 가이드라인이나 AI 기반 데이터를 사용하여 얻은 결과를 처리하는 방법에 대한 초국가적 기관의 지침이 포함돼야 한다. AI 챗봇이 무분별하게 사용된다면 과학 연구의 질을 크게 떨어뜨리고 잘못된 데이터를 기반으로 한 정책 변경과 시스템 변화로 이어질 수 있으므로 연구자들은 실제 데이터를 대체하는 방안보다 LLM 응답 데이터 사용의 위험과 구체적인 적용안을 먼저 발굴해야 한다.

영어 원문 기사는 사이언티픽 아메리칸에 게재되었습니다.

Picture

Member for

1 month
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.