Skip to main content

[해외 DS] 필리핀 軍, '골칫거리' 이미지 생성 AI 앱 사용 금지해

[해외 DS] 필리핀 軍, '골칫거리' 이미지 생성 AI 앱 사용 금지해
Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

수정

AI 기술을 이용한 軍 사칭, 군대 신뢰도 낮출 수 있어
인기 앱, 군사 정보 공개해 군대에서 '골칫거리'로 떠올라
AI 앱에 대한 직접적인 규제보다는 AI 콘텐츠 제작의 '위험성'을 인지시켜야
pexels chaikong2511 104764
사진=Pexels

작년 10월 필리핀 국방부는 군인과 국방부 공무원이 이미지 생성 AI 앱 사용을 금지하는 각서를 발표했다. 이미지 생성 AI 앱은 많은 필리핀 국민이 소셜 미디어용 대체 프로필 이미지를 만드는 데 레미니(Remini)와 포토랩(PhotoLab)을 사용하면서 입소문 났다. 그러나 이미지 생성 AI 앱을 통한 '사칭'이 발생해 군대 보안이 느슨해졌으며 군대 신뢰도에 적신호가 커졌다.

가짜 이미지 생성 기술, 손쉽게 軍 신뢰도 무너뜨릴 수 있어

AI 앱 사용을 금지하는 것은 소셜 미디어 시대에 ‘과민 반응’처럼 보이지만, 앱이 보안에 미치는 영향은 생각보다 심각했다. 가짜 이미지 생성 기술은 군사 기만, 정보 작전 방해 등 국가 기관과 외교의 신뢰를 악화시키며 국가 안보를 위협하는 데 사용될 수 있다. 금지 조치의 근거로는 가짜 프로필을 만들어 신원 도용과 피싱 공격으로 이어질 수 있다는 점을 들었다. 따라서 필리핀 국방부는 앱 사용을 금지해 이미지 데이터 제공을 막는 것을 목표로 한다.

가짜 콘텐츠가 널리 확산되면 콘텐츠 시청자는 모든 콘텐츠를 불신하게 될 수도 있다. 가짜 콘텐츠 문제는 대중에게 영향을 미칠 때도 문제지만, 군대에 영향을 미칠 때 문제는 더욱 심각해진다. AI를 이용해 군대를 사칭하는 일이 성행하면 군 지휘 체계에 불신이 생기고 사기, 신뢰성, 군사적 효율성에 해로운 영향을 미친다. 이 문제는 데이터 프라이버시와 보안 위협뿐만 아니라 군대에서 표적 선정 및 교전 시 발생하는 작업을 방해하여 군사 지원 작전을 늦추거나 중요한 순간에 의사결정에 영향을 미친다.

AI 사칭 기술에 호되게 당할 뻔한 필리핀

지난 5월 필리핀은 AI 위협을 제대로 경험했다. 중국 외교관은 당시 필리핀 서부사령부 사령관이 세컨드 토마스 숄에서 BRP 시에라 마드레를 재보급하는 것에 동의했다고 주장하며 대화 녹취록을 공개했다. 남중국해 스프래틀리 군도에 위치한 세컨드 토머스 숄은 중국과 필리핀의 영유권 분쟁이 있는 지역이다. BRP 시에라 마드레 재보급에 동의한 내용이 사실이면 필리핀은 영유권 분쟁에서 불리한 위치에 몰리게 된다. 따라서 필리핀 국방부와 육군은 즉각적으로 대응했으며 전 서부사령부 사령관은 이에 관해 언급한 적도 없고 비공식 대화라며 중국의 ‘심각한 가짜’ 작전과 조작을 비난했다.

AI를 이용한 가짜 콘텐츠 공작은 필리핀 정부에 혼란을 야기했다. 또한 전 필리핀 대통령인 두테르테 행정부와 맺은 것으로 추측되는 합의에 따르도록 강요하려는 '불순한' 의도가 보였다. 사실 여부와 관계없이 이 사건은 적들이 군 관계자의 오디오에 접근할 수 있다는 것을 보여주었다.

그러나 인기 앱이 군과 연관된 것은 이번이 처음이 아니다. 2018년에는 달리기 앱인 스트라바가 미국 및 기타 군사 기지의 위치를 공개했다. 심지어 2022년 러시아가 우크라이나를 침공한 당시 우크라이나 여성이 작전과 관련된 정보를 수집하기 위해 틴더와 같은 데이트 앱을 사용한 것으로 알려졌다.

점점 늘어나는 AI 앱, 점점 늘어나는 규제의 어려움

가짜 콘텐츠 사건에서 앱은 단순 데이터 수집 도구로 사용되었으나, 흔히 사용되는 AI 콘텐츠 생성기는 데이터 수집뿐만 아니라 콘텐츠 제작 기능까지 있어 더욱 주의를 기울여야 한다.

기하급수적으로 앱의 수가 늘어나는 가운데 정부는 AI 앱을 규제하는 데 애를 먹고 있다. 지난 4월 앱스토어에서 제공하는 스마트폰 앱은 900만 개에 육박하며 다운로드 횟수가 2250억 회에 달한다. 이 상황에서 AI 앱과 기업이 수집한 데이터를 보호하고 기업이나 정부가 오용하지 않도록 하는 것은 매우 어려운 일이다.

직접적인 규제 대신 AI 콘텐츠 제작의 ‘위험성’을 인지시켜야

광범위한 규제 대신 작년 10월에 시행한 ‘국방부 메모’와 같은 지침이 AI 콘텐츠 제작자가 야기하는 위험을 인식하는 데 유용하다는 의견이다. 더불어 현대화된 군대에서는 깨끗한 ‘사이버 위생’ 관행이 필요하며 데이터 유출 위험을 최소화하는 것이 필수적이다. 또한 AI 이미지 생성기의 성능을 고려할 때 군 장교는 초상권 보호를 강화하고 악의로 초상을 획득할 수 있는 위험을 최소화하기 위해 ‘프로세스’를 마련해야 한다. 장기적으로 군대는 허위 정보 교육과 AI 콘텐츠 인식 기술을 강화해야 한다. 표적이 된 장병이 딥페이크가 전달하는 메시지를 믿는 경우, 딥페이크 콘텐츠를 인식하는 것만으로는 충분하지 않다.

군사 정보 공간이 적들에 의해 훼손되지 않도록 보호하는 것은 필리핀을 포함해 전 세계 군대의 지속적인 과제다. 특히 AI를 이용해 가짜 콘텐츠를 만드는 것이 간편해진 만큼 적들의 사칭에 주의를 기울여야 한다. 군대는 가짜 콘텐츠를 식별할 수 있는 '비판적 사고'와 AI 지식을 교육해 점점 더 복잡해지는 정보 속에서 효과적으로 작전을 수행해야 한다.

Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

[해외 DS] 금융 리더 70% AI 발전 속도에 '위기감', M&A로 돌파구 찾나

[해외 DS] 금융 리더 70% AI 발전 속도에 '위기감', M&A로 돌파구 찾나
Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

수정

금융 서비스 부문 리더 10명 중 7명, AI 시대에 뒤쳐질 것을 우려
미 대형 로펌 메이어 브라운, "AI 역량 강화를 위한 투자·인수에 적극적으로 나서야"
특히 장기적인 AI 전략 수립 위해서는 지정학적 상황과 규제 리스크 관리가 필수
Business Leader 20240709
사진=Pexels

미국 대형 로펌 메이어 브라운(Mayer Brown)이 발표한 최근 보고서에 따르면 금융 서비스 분야의 리더들은 AI 발전 속도를 따라잡는 데 어려움을 느끼고 있는 것으로 나타났다. 메이어 브라운은 유럽·아시아 태평양·북미 지역의 금융 서비스 부문 리더 635명(C레벨 임원 및 고위 임원 535명 포함)을 대상으로 설문 조사를 실시했으며, 에너지·제조 등 다른 부문 임원들의 의견도 수렴했다.

조사 결과 무려 임원 10명 중 7명이 AI 발전 속도에 뒤처질 것을 우려하고 있었다. 변화의 필요성을 절감하고 있지만, 현재의 불안정한 시장 상황 때문에 응답자의 68%가 비즈니스 혁신 목표를 달성하는 데 어려움을 겪고 있다고 답했다. 특히 투자 회사(62%)보다 금융 기관(68%) 리더들이 자사의 변화 속도가 충분하지 않다고 응답했다.

투자 회사 리더들이 기술 변화에 대한 우려를 가장 많이 표명했으며, 75%가 압도당하는 느낌을 받는다고 솔직하게 털어놓았다.

단기 성과 집착, 장기 경쟁력 약화 우려

이러한 우려에도 불구하고 미래를 대비하는 기업은 극소수에 불과했다. 메이어 브라운 조사에 참여한 금융 리더 중 3분의 1 미만만이 AI에 대한 명확하고 미래 지향적인 전략을 갖추고 있다고 답했다. 심지어 금융 기관의 65%, 투자 회사의 67%는 고작 12개월 앞만 내다보는 단기적인 AI 전략만을 가지고 있었다.

보고서는 리더들이 당장 눈앞의 문제에만 급급해 보다 장기적인 혁신 계획에 집중하지 못하기 때문에 명확한 전략이 부족하다고 지적했다. 이에 메이어 브라운 금융서비스제품팀 공동책임자인 로렌 프라이어(Lauren Pryor)는 "AI 역량 부족이 향후 몇 년 동안 인수 합병(M&A) 활동의 핵심 동력이 될 것"이라고 전망했다.

또한 프라이어는 "AI는 비즈니스 환경을 빠르게 변화시키고 있으며, 금융 서비스 리더들은 혁신을 위해 기술의 중요성을 분명히 인식하고 있다. 많은 기업들이 비즈니스 전략을 재검토하고 AI가 회사에 가져올 변화에 대해 고민하고 있다"며, "기업들은 AI 역량 강화를 위한 지원을 원하고 있으며, 인수 성장을 통해 기술 격차를 빠르게 해소함으로써 고객에게 더 나은 서비스를 제공하는 것이 중요하다"고 덧붙였다.

AI 혁신, 지정학·규제 리스크에 발목

보고서는 급변하는 지정학적 상황과 끊임없이 강화되는 사이버 보안 규제에 대한 대응이 AI 도입·인수를 고려하는 기업들의 장기적인 혁신 계획 수립에 걸림돌이 되고 있다고 분석했다.

미·중 관계와 국가별 독자적인 규제 경로 등 경쟁이 심화되는 글로벌 환경에서는 법무팀의 역할이 중요해진다. 법무팀은 다양한 시나리오를 평가해 기업이 규제 변화에 효과적으로 대응하고 리스크를 최소화할 수 있도록 지원해야 한다. 메이어 브라운 소송·분쟁 해결팀의 메간 웹스터(Megan S. Webster) 파트너는 "리더들은 현재와 미래에 발생 가능한 내외부 위협을 정확히 평가하고 예측해, 이러한 위험을 최소화하고 기회로 활용할 수 있는 강력한 전략을 수립해야 한다"고 강조했다. 아울러 투자 회사 리더의 84%는 조직이 국제적으로 확장하는 데 지정학적 민첩성이 중요하다고 답했으며, 이는 모든 부문 중 가장 높은 수치였다.

결론적으로 메이어 브라운의 보고서는 금융 서비스 업계가 AI의 급격한 발전 속도에 뒤처지지 않기 위해 AI 역량 강화를 위한 투자·인수에 적극적으로 나서야 하며, 동시에 변화하는 지정학적 환경 및 규제에 대한 대응 전략을 마련해야 할 필요성을 강조하고 있다. AI는 더 이상 단순한 기술적 도구가 아니라, 금융 서비스 산업의 미래를 좌우할 핵심 요소로 자리 잡았으며, 이에 대한 적극적인 대응만이 지속적인 성장과 발전을 담보할 수 있다는 공감대가 이번 보고서를 통해 확산할 것으로 기대된다.

국내 금융권, 망분리·데이터 규제 완화 '절실'

한편 국내 금융권에서는 AI 기술 발전 속도에 비해 관련 제도 정비가 미흡하다는 지적이 나오고 있다. 대한상공회의소 조사 결과, 2021년 금융위원회가 발표한 AI 가이드라인은 추상적이고 실제 활용에 어려움이 있다고 느끼는 응답자들이 많았다. 게다가 금융권 IT 종사자들의 응답에 따르면 망분리, 데이터 결합 및 공유 제한 등의 규제로 인해 AI 활용에 어려움을 겪고 있는 것으로 나타났다.

특히 국내 금융권에 적용되는 물리적 망분리 규제는 AI 개발에 큰 걸림돌이 되고 있다. 최근 AI 개발은 인터넷을 통해 접근 가능한 AI 모델 등을 활용하는 경우가 많은데, 망분리 규제로 인해 금융권의 인터넷 접속이 제한되어 자체 모델·서비스 개발에 어려움을 겪고 있다. 이에 IT 종사자들은 미국이나 유럽처럼 보안 수준별 망분리 방식을 허용하거나 연구 개발 목적의 인터넷 접근에 대한 규제를 완화해줄 것을 강력히 요구하고 있다.

또한 데이터 결합 활용 후 파기 규제에 대한 개선 요구도 거셌다. 현재 데이터 결합을 위해서는 정부 지정 데이터 전문기관에 신청해야 하며, 활용 후 즉시 파기해야 하는 번거롭고 비효율적인 절차를 거쳐야 한다. 이에 대한 해결책으로 데이터를 파기하지 않고 저장, 공유, 개방할 수 있도록 금융샌드박스로 지정된 '금융 AI 데이터 라이브러리 서비스'를 확대하고, 상시 제도화를 통한 데이터 축적과 적시 활용이 필요하다는 제안이 나왔다.

Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

[해외 DS] 뇌파 발견 100주년, 뇌파는 어떤 변화를 불러일으켰나

[해외 DS] 뇌파 발견 100주년, 뇌파는 어떤 변화를 불러일으켰나
Picture

Member for

1 month
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.

수정

인지 능력 향상, 뇌 질환 진단 등 뇌파 널리 사용되고 있어
특정 활동 시 자주 발생하는 주파수 발견해
뇌파를 활용하여 뇌의 비밀을 풀어낼 수 있을지 기대돼

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.


뇌전도
사진=Scientific American

올해로 뇌파가 발견된 지 100년이 지났다. 이 발견은 인간의 뇌를 연구하는 방식에 큰 영향을 미쳤으며 지각에서 기억에 이르기까지 ‘인지’를 이해하는 데 중요한 역할을 했다. 또한 뇌파는 뇌전증을 비롯한 여러 뇌 질환을 진단하고 치료하는 데 널리 사용되고 있다.

뇌파를 처음 발견한 한스 베르거

정신과 의사인 한스 베르거는 인간의 뇌파를 측정하는 장치를 발명했으며 이 장치를 이용해 1924년 베르거는 최초로 ‘인간의 뇌파’를 기록했다. 동물의 뇌파를 기록하는 것에 그쳤던 시기인 것을 감안하면 베르거의 발견은 엄청난 발전을 이룬 것이라는 평가를 받고 있다.

베르거는 뇌파를 발견하기 이전에도 뇌와 정신 활동의 관계에 관심이 많았다. 예를 들어 뇌의 부피와 온도를 측정하여 지적 작업, 주의력, 욕망과 같은 정신적 변화 과정을 연구했다. 이후 베르거는 전극을 활용한 연구로 시선을 돌려 큰 성과를 냈다. 베르거는 1924년에 인간의 뇌파를 처음 기록했지만, 1929년이 되어서야 그 결과를 발표했다. 그 이유는 뇌파 신호의 근원을 찾고자 했으며 스스로 뇌파에 대한 의구심을 가지고 있었기 때문이다. 자기 자녀를 포함해 여러 실험자를 대상으로 수백 개의 뇌파를 기록하며 뇌파에 대해 확신을 쌓아갔다.

마침내 베르거는 연구 결과에 확신을 갖게 되어 정신의학 저널에 논문을 발표했고 노벨상 수상이라는 희망을 품고 있었다. 하지만 안타깝게도 학계에서는 베르거의 연구 결과를 의심했다. 몇 년이 지나서야 그 의심은 사그라들고 다른 연구자들도 적극적으로 뇌파를 연구하기 시작했다. 베르거는 1940년에 노벨상 후보로 지명되었으나, 불행히도 제2차 세계대전과 독일의 노르웨이 점령으로 인해 그해에는 어떤 부문도 노벨상을 수여하지 않았다.

신경 활동에 따라 자주 등장하는 주파수 발견해

많은 신경 세포가 동시에 활성화되면 강력한 전기 신호가 발생하는데 그 위력은 뇌, 두개골, 두피까지 순간적으로 퍼질 만큼 강하다. 따라서 머리에 전극을 부착해 뇌파를 기록할 수 있는 것이다.

뇌파를 발견한 이후 연구자들은 신경 활동을 할 때 특정 주파수에서 신경 세포가 진동한다는 사실을 알아냈다. 베르거는 최초 뇌파 기록에서 초당8~12회, 즉 8~12헤르츠(Hz)를 주기로 반복하는 진동이 우세하다는 점에 주목했고 이를 ‘알파파’로 명명했다. 알파파가 발견된 이후 과학자들은 다른 뇌파를 찾기 위해 심혈을 기울였다.

연구자들은 주파수를 바꿔가며 신경 세포 간의 상호 작용이 어떻게 바뀌는지 조사했다. 노력 끝에 연구자들은 뇌에 자극을 줘 뇌파를 변화시키고 그 변화로 인해 인지 능력이 상승할 수 있음을 밝혀냈다. 또한 특정 활동에 따라 자주 발생하는 주파수로 신경을 진동한다는 사실을 알아냈다. 예를 들어 명상을 하면 세타파의 진동수가 증가하고 기억을 떠올리는 능력을 향상시킬 수 있다. 따라서 뇌파는 뇌가 정보를 처리하는 방식에 대해 많은 실마리를 제공했다.

최근 뇌파를 이용한 연구 활발히 이루어지고 있어

오늘날 뇌파는 수면 장애와 간질을 진단하고 뇌 질환을 치료하는 데 사용되고 있다. 과학자들은 뇌에 자극을 주어 기억력을 향상시킬 수 있는지 확인하기 위해 뇌파를 사용하고 있다. 연구는 아직 초기 단계에 있지만, 몇 가지 흥미로운 결과가 나왔다. 한 연구에서는 감마파의 뇌 자극이 알츠하이머병 환자의 기억력과 신경전달물질을 전달하는 능력을 개선한다는 사실을 발견했다.

새로운 연구에서는 두 개의 고주파를 사용하여 주파수의 차이만큼 신경 활동을 유발하는 실험을 진행했다. 고주파는 뇌에 더 잘 침투하여 목표 부위에 도달할 수 있다는 이점이 있으나, 고주파 만으로는 신경 활동을 유발할 수 없었다. 그러나 연구자들은 2000헤르츠와 2005헤르츠를 사용하여 기억을 관장하는 핵심 영역인 ‘해마’에 두 주파수의 차이인 5헤르츠 세타파를 보내는 실험을 했다. 그 결과 피험자들은 얼굴과 이름을 연결하여 기억하는 능력이 향상되었다.

앞으로 뇌파를 활용한 연구 더욱 기대돼

뇌파를 이용한 연구가 활발히 이루어지고 있지만, 뇌의 비밀을 풀기 위해서는 더 많은 연구가 필요한 상황이다. 예를 들어 뇌파가 인지에 미치는 정확한 역할과 주파수를 변경하면 영구적으로 인지 능력이 향상하는지 등 아직 연구 과제가 산더미처럼 쌓여있다.

과학자들은 뇌파를 이용하여 더 나은 미래를 그리고 있다. 일부 연구자들은 뇌파를 이용해 뇌 질환을 진단하고 ‘개인 특성’에 맞는 치료법을 개발할 수 있을 것으로 예상한다. 다른 연구자들은 가정에서 저렴한 웨어러블을 통해 인지 능력을 향상시킬 수 있을 것으로 믿고 있으며 가상현실 애플리케이션에 원활히 통합되어 더욱 현실적인 가상현실을 체험할 것으로 기대하고 있다. 이 밖에도 뇌파는 활용 가능성이 무궁무진하여 큰 기대를 받고 있다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.

[해외 DS] 美 대법원, 소셜 미디어 규제 대신 회사 재량에 맡겨야

[해외 DS] 美 대법원, 소셜 미디어 규제 대신 회사 재량에 맡겨야
Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

수정

소셜 미디어 회사, 내부 정책과 알고리즘을 통해 게시물 '차별' 의혹 휩싸여
플로리다와 텍사스주에서 소셜 미디어 게시물 편집은 '표현의 자유'를 침해한 것으로 판단
그러나 대법원은 주정부가 고려하지 않은 부분을 지적하며 상반되는 판결 내려

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.


소셜미디어규제법
사진=Scientific American

최근 미국 연방대법원은 플로리다와 텍사스주에서 판결 내린 소셜 미디어 규제법을 하급 법원으로 돌려보내 화제가 됐다. 플로리다와 텍사스주는 소셜 미디어 회사의 내부 정책과 알고리즘에 ‘제한’을 두어 어떤 게시물은 널리 홍보되지만, 어떤 게시물은 덜 보이게 되는 영향을 줄이고자 했으나 대법원은 상반되는 의견을 내놓았다.

7월 1일 대법원은 만장일치로 ‘무디 대 넷초이스’와 ‘넷초이스 대 팩스턴’의 두 사건을 각각 미국 제11순회 항소법원과 제5순회 항소법원으로 파기환송했다. 또한 하급 법원에 법 적용 시 발생하는 효력을 충분히 고려하지 않은 점을 지적했다.

주정부, 게시물 편집은 ‘표현의 자유’ 침해한 것

2024년 2월 법원에서 진행된 변론에서 대법원과 주법원 양측은 정보의 홍수 속에서 소셜 미디어가 어떤 역할을 하는지에 대해 상반된 입장을 보였다.

주정부는 소셜 미디어 회사가 기존 전화 회사와 유사하다고 주장했다. 기존 전화 회사는 모든 통화를 전달해야 하며 사용자를 차별하는 것이 금지되어 있다. 따라서 소셜 미디어 회사 또한 사용자의 모든 게시물을 내용에 따라 차별 없이 전달해야 한다는 입장을 밝혔다.

더불어 주정부는 소셜 미디어 회사가 만든 알고리즘이 게시물을 ‘편집’한다는 부분을 꼬집었다. 소셜 미디어 회사는 알고리즘을 이용해 특정 견해를 검열했으므로 이는 수정헌법 제1조 표현의 자유를 침해한 것이라고 주장한다.

소셜 미디어 규제법, 항소법원에서도 의견 엇갈려

이에 반해 소셜 미디어 회사를 입장을 대변하는 넷초이스(NetChoice)는 소셜 미디어에서 허용되는 내용은 수정헌법 제1조로부터 자유롭다고 주장한다. 소셜 미디어는 정부 규제 대상이 아니라 사이트에 표시할 내용과 표시하지 않을 내용에 대해 ‘자체적으로’ 판단할 수 있는 민간 서비스라는 점을 덧붙였다.

넷초이스, 텍사스, 플로리다 등 모든 소송 당사자는 소셜 미디어 회사의 알고리즘이 특정 표현에 관여하고 있는지를 중심으로 문제를 제기했다. 미국 제11순회 항소법원은 소셜 미디어는 ‘언론’에 해당하며 회사가 알고리즘을 통해 특정 게시물에 영향을 주는 것은 ‘위헌’이라고 판단하여 플로리다 법에 대한 하급 법원의 가처분 명령을 지지했다.

그러나 제5순회 항소법원은 이와 반대되는 결론을 내렸다. 소셜 미디어 회사가 언론에 관여한 것이 아니라는 점을 분명히 하며 회사의 알고리즘이 수정헌법 제1조의 영역이 아닌 소셜 미디어 행동을 통제한 것으로 판단했다. 제5순회 항소법원은 이러한 행위를 ‘검열’로 판단한 텍사스 주법을 뒤집어엎었다.

대법원 “주법원 분석 부족한 점 많아”

대법원에서 소셜 미디어 규제법을 다시 한번 검토했다. 검토한 결과, 대법원은 주법원이 소셜 미디어 규제법이 다루는 범위를 제대로 고려하지 않았다고 지적했다. 수정헌법 제1조에 대한 조사는 적절했으나, 주법원의 결정과 당사자들의 주장은 불완전하다는 의견이다. 대법원은 해당 법률이 페이스북의 DM(다이렉트 메시지)과 같이 회사 제품의 다른 요소에 어떤 영향을 미치는지, 이메일 서비스 제공업체나 오픈마켓에 어떤 영향을 미치는지에 대한 철저한 분석이 부족했다는 점을 덧붙였다.

따라서 대법원은 하급 법원에 해당 법률과 그 영향에 대해 더 정확한 분석을 수행하도록 지시했으며 몇 가지 지침을 제공했다. 또한 대법원은 적어도 페이스북 뉴스피드와 유튜브 홈페이지와 같이 법의 ‘핵심 적용 분야’에 대해서는 알고리즘을 통해 ‘편집 선택’하는 것을 주의해야 한다는 입장을 밝혔다.

대법원 판결, 정부가 소셜 미디어 편집 관여할 수 없어

대법원은 하급 법원에 수정헌법 제1조의 두 가지 핵심 헌법 원칙을 고려할 것을 요구했다. 하나는 수정헌법 제1조는 화자가 배제하고 싶은 메시지를 전달하도록 강요당하지 않도록 보호한다는 것이다. 즉, 소셜 미디어 회사를 포함한 단체가 타인의 발언을 편집하고 선별하는 편집 재량권은 수정헌법 제1조의 보호를 받으므로 주정부에서 편집에 대해 논할 수 없다는 뜻이다.

다른 원칙은 수정헌법 제1조는 어떤 목적이라 하더라도 정부가 개인의 발언을 ‘통제’할 수 없도록 규정하고 있다. 주정부나 연방정부는 균형 잡힌 시각을 제시하기 위한 목적이더라도 해당 시장을 ‘조작’할 수 없다.

96페이지 분량의 의견서에서 엘레나 케이건 대법관은 "수정헌법 제1조는 소셜 미디어가 관련되어 있을 때 휴지 조각이 되지 않는다"며 정부가 소셜 미디어 회사를 규제할 수 없다는 점을 강조했다.

소셜 미디어 규제법을 둘러싼 논쟁이 일단락되었다. 플로리다와 텍사스주에서는 소셜 미디어 회사가 알고리즘을 이용해 특정 게시물을 세상에 드러나거나 묻히도록 조절하는 것은 '표현의 자유'를 침해한다고 판단했다. 그러나 대법원은 주정부가 내린 판결에서 분석이 부족했다는 점을 지적하며 소셜 미디어 편집권은 회사에 맡겨야 하는 부분임을 힘주어 말했다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

[해외 DS] AI 챗봇, 이제는 윤리 상담까지?

[해외 DS] AI 챗봇, 이제는 윤리 상담까지?
Picture

Member for

1 month
Real name
이효정
Position
연구원
Bio
[email protected]
지식은 전달하는 정보가 아니라, 함께 고민하기 위해 만들어진 언어입니다.

수정

OpenAI의 ChatGPT, 뉴욕타임스 윤리 칼럼니스트와 견줄만한 윤리적 조언 능력을 갖췄다는 연구 결과가 나와
연구에 따르면, GPT-4의 조언은 도덕적이고 신뢰할 수 있다는 평가를 받았으나, 윤리적 편향 가능성도 지적돼
AI 윤리 조언의 설득력과 잠재적 위험을 고려하며, AI의 윤리적 역할에 대한 신중한 접근이 필요해

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.


AI Chatbots Ethical ScientificAmerican 20240704
사진=Scientific American

1691년 런던 신문 애테니언 머큐리(Athenian Mercury)에 실린 세계 최초의 고민 상담 코너는 이후 'Ask Ann Landers', 'The Ethicist' 등 다양한 형태로 발전하면서 대중의 많은 사랑을 받았다. 그리고 이제 오픈AI의 챗GPT와 같은 대규모언어모델(LLM)은 전통적인 윤리 고민 상담의 새로운 지평을 열고 있다.

독일 슈투트가르트대학의 인공지능윤리 연구원 틸로 하겐도르프(Thilo Hagendorff)는 LLM이 방대한 지식을 습득하기 때문에 윤리적 상황 판단 능력이 평균적인 인간보다 뛰어날 수 있다고 바라봤다. 비록 AI 챗봇은 자의식, 감정, 의도 등 인간 윤리학자의 핵심 특징은 부족하지만, 막대한 텍스트 데이터 학습을 통해 윤리적 문제에 대한 합리적인 답변을 제시할 수 있는 잠재력을 지니고 있다고 덧붙였다.

LLM의 윤리 조언, 신뢰할 만한가?

실제로 최근 두 연구 결과에 따르면 최첨단 LLM이 제공하는 조언이 앞서 언급한 콰메 앤서니 아피아(Kwame Anthony Appiah) 교수의 뉴욕타임스 윤리칼럼 ‘The Ethicist’의 조언에 못지않은 수준인 것으로 나타났다. 미국 펜실베이니아대 와튼스쿨 연구팀은 대학생, 윤리 전문가, 일반인 등 100명을 대상으로 오픈AI의 GPT-4와 아피아 교수의 조언을 비교 평가한 결과, 두 조언 간의 가치에 유의미한 차이가 없다는 결론을 내렸다. 연구팀은 GPT-4가 아피아 교수의 기존 칼럼을 학습했지만, 연구에 사용된 윤리적 딜레마는 GPT-4가 처음 접하는 내용이었다고 밝혔다. 즉 GPT-4는 단순히 아피아 교수의 문체를 모방하는 것을 넘어 그의 사고방식까지 학습해 유사한 수준의 조언을 제공할 수 있게 된 것이라고 연구진은 강조했다.

또 다른 연구에서는 최신 챗GPT인 GPT-4o의 조언이 900명의 온라인 평가자에게 아피아의 조언보다 더 도덕적이고 신뢰할 수 있으며 사려 깊고 정확하다고 평가받았다. 연구진은 이를 통해 "LLM이 어떤 면에서는 인간 수준의 도덕적 추론 능력을 달성했다"고 설명했다. 그러나 미국 뉴욕대의 게리 마커스(Gary Marcus) 인지과학 명예 교수는 윤리적 딜레마에는 정답이 없으며, 온라인 평가 방식 자체에 문제가 있을 수 있다고 지적했다. 마커스 교수는 평가자들이 깊이 생각하지 않고 빠르게 답변을 선택하는 경향이 있어, 아피아 교수가 오랜 시간 고민한 답변을 짧은 시간 안에 제대로 이해하지 못했을 것이라고 꼬집었다. 또한 그는 다수의 평가 결과가 전문가의 판단보다 더 신뢰할 수 있다고 단정하는 것은 위험하다고 경고했다.

한편 AI가 기존 사회의 편견을 고착시킬 수 있다는 우려도 제기되고 있다. 미국 노스캐롤라이나대 채플힐 연구팀은 GPT-4o를 활용한 실험에서 LLM이 비서구 집단에 대한 이해 부족과 편견을 드러낼 수 있다는 점을 지적했다. 이는 AI가 학습 데이터에 내재된 편향을 그대로 반영할 수 있다는 점을 시사해 AI 윤리 문제에 대한 논의를 더욱 심화시켰다.

AI의 윤리적 설득력, 기회와 위험 공존

하지만 고도의 학습 능력을 바탕으로 맞춤법 검사기나 문법 검사기처럼 유용한 'AI 윤리 검사기'로 활용될 수 있다는 긍정적인 분석도 흘러나오고 있다. 펜실베이니아대 연구진은 "이 연구의 목표는 아피아 교수를 대체하는 것이 아니라, AI를 통해 누구나 언제 어디서든 고품질 윤리 조언을 얻을 가능성을 열어가는 것"이라고 강조했다. AI가 생성한 조언은 무엇보다 설득력이 높아 활용도가 높은 것이 큰 장점이다.

물론 높은 설득력에는 위험도 따른다. 펜실베이니아대 연구팀은 인간을 매료시키고 감정적으로 조종하는 능력을 갖춘 시스템은 악용될 가능성이 크다며 각별한 주의를 당부했다. 게다가 하겐도르프 연구원은 AI가 다른 존재를 속일 수 있다는 연구 결과를 제시하며, 최첨단 LLM이 다른 에이전트의 잘못된 믿음을 이해하고 유도할 수 있다는 점에 우려를 표했다. 예를 들어 LLM은 도둑에게 집 안에서 가장 값진 물건이 있는 장소를 숨기기 위해 의도적으로 거짓 정보를 제공할 수 있다. 심지어 도둑이 LLM의 거짓말을 의심하는 상황에서도 LLM은 이에 맞춰 능숙하게 대처할 수 있는 것으로 나타났다.

하겐도르프 연구원은 이러한 LLM의 능력이 인간의 심리와 유사하다고 보고, 이를 '기계 심리학'이라는 새로운 연구 분야로 정립해야 한다고 주장했다. 인간의 도덕적 행동을 연구해 온 심리학처럼 이제는 기계의 도덕적 심리에 대한 연구가 필요하다는 것이다. 그의 말처럼 AI가 윤리적 판단을 넘어 타인을 속이는 능력까지 갖추게 되면서, AI 기술 발전에 따른 윤리적 문제와 사회적 영향에 대한 깊이 있는 논의가 더욱 절실해지고 있다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
이효정
Position
연구원
Bio
[email protected]
지식은 전달하는 정보가 아니라, 함께 고민하기 위해 만들어진 언어입니다.

[해외 DS] 암흑 속에서 'AGI'를 향해 달리는 AI 회사들

[해외 DS] 암흑 속에서 'AGI'를 향해 달리는 AI 회사들
Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

수정

AGI에 대한 명확한 정의가 없는 가운데 언론에 더 자주 등장해
AI 회사들, AGI에 대해 각자 다른 방식으로 접근하고 있어
AGI를 정의하는 것은 어려운 도전이지만, AI를 이해하기 위해 중요한 시도로 평가받고 있어

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 글로벌AI협회(GIAI)에서 번역본에 대해 콘텐츠 제휴가 진행 중입니다.


AGI
사진=Scientific American

AI를 연구하는 많은 회사와 연구진의 궁극적인 목표는 기계가 ‘AGI’를 갖는 것이다. AGI는 Artificial General Intelligence의 약자로 인간이 할 수 있는 모든 업무를 기계가 성공적으로 해낼 수 있는 지적 수준을 말한다. 하지만 기계가 어느 수준의 일까지 해냈을 때 AGI를 이루어 냈다는 데는 의견이 분분한 상태다. 그럼에도 전문가들은 AGI를 정의하기 위한 시도는 AI의 정체를 알아내는 데 중요한 접근이라고 강조했다.

명확한 정의 없는 AGI '마케팅 슬로건'인가

1970년 컴퓨터 과학자인 마빈 민스키는 “곧 기계가 셰익스피어를 읽고 자동차에 기름을 바르며 사람과 농담할 것”이라며 머지않아 AGI를 이룬 기계가 나타날 것으로 예측했다. 또한 애플의 공동 창업자인 스티브 워즈니악은 기계가 낯선 사람의 집에 들어가 커피를 내릴 수 있을 때 AGI가 실현된 것이라며 ‘커피 테스트’를 제안했다.

이처럼 AGI가 무엇인지에 대해 모두가 동의하는 정의는 없으며 AGI 달성 여부에 대해서도 의견이 나뉜다. 컴퓨터, 과학, 정책 등 여러 전문가 사이에서도 AGI에 대해 각기 달리 이해하고 있다. AGI에 대해 합의가 이루어지지 않으면 AGI의 이점과 위험과 대한 ‘생산적인’ 토론이 이루어지기 어렵다는 지적이 나온다.

AGI에 대한 명확한 정의가 없는 와중에 AGI는 인터넷과 논문에서 점점 더 자주 등장하고 있다. 마이크로소프트 연구원들은 GPT-4가 ‘AGI의 불꽃’을 보여줬다며 AGI를 언급했고 지난 5월에는 오픈AI가 차세대 머신러닝 모델을 훈련하여 ‘AGI로 가는 길’을 걷고 있다고 했다.

AGI에 접근하는 각자 다른 방식

오픈AI는 AGI를 “가장 경제적으로 가치 있는 작업에서 인간을 능가하는 자율적인 시스템”으로 정의했다. 또한 오픈AI의 설립자인 샘 알트먼은 AGI에 대해 보다 개방적인 미래를 그리고 있다고 밝혔다. 최근 인터뷰에서 샘 알트먼은 “AGI는 한순간에 완성되는 일이라고 생각하지 않는다”며 모든 사람이 AGI를 이루었다고 동의하는 달이나 연도는 없고 자연스럽게 AGI가 이루어질 것이라고 주장했다.

한편 구글 딥마인드는 AGI를 모호하게 정의하는 것 대신 구체적인 내용을 세분화했다. 2023년에 딥마인드 연구원들이 발표한 논문에서 컴퓨터 지능을 6단계로 분류할 수 있는 기준을 제시했다. ‘AI 기능이 전혀 없는’ 시스템부터 ‘신흥’, ‘유능한’, ‘전문가’, ‘거장’, ‘초인적’으로 AGI를 6단계로 분류했다.

더 나아가 작업별로 특화된 기계와 일반적인 작업을 수행하는 기계로 구분했다. 논문의 수석 저자인 메러디스 링켈 모리스는 “AGI는 논란의 여지가 많은 개념”이라며 AGI에 대해 세부적으로 나누는 작업이 매우 실용적이고 경험적인 접근방식이라고 주장했다.

딥마인드가 제안한 방식에 따르면 챗GPT와 제미나이(Gemini)를 포함한 소수 대형언어모델은 새로운 기술 학습과 같은 메타인지 작업에서 인간과 동등하거나 다소 우수하므로 ‘신흥 AGI’로 인정받을 수 있다. 하지만 이토록 까다롭게 구성된 자격 조건에서조차도 여러 한계점을 가지고 있다.

AI 시스템 능력을 평가하기 위해 어떤 작업을 사용해야 하는지, 한 분야에 특화된 기계와 일반적인 기계를 어떻게 구분할 것인지 등에 대해 명시하지 않았다. 모리스는 기계와 인간의 기술을 올바르게 비교하는 작업은 ‘활발한 연구 분야’라며 AI를 평가하는 일을 강조했다.

'인간 지능' 정의하기도 어려워, AGI 정의하는 것은 더 큰 도전

AGI에 대해 각자 다른 정의를 갖고 있지만, 모두 정의가 광범위하고 불명확해 보인다. 가장 단순한 정의 인간의 지능과 동등하거나 능가하는 지적 수준이다. 하지만 ‘지능’ 자체를 정의하거나 정량화하기도 매우 어렵다. 위스콘신 매디슨 대학교의 인지 신경과학자이자 심리학 교수인 게리 루피안은 ‘일반 지능’은 훨씬 정의하기 까다롭다는 의견을 냈다. 루피안은 AI 연구자들이 인간 지능과 기계 지능을 측정하는 방법에 대해 이야기할 때 종종 ‘과신’하는 경우가 많다고 했다.

인지 과학자들은 한 세기가 넘도록 인간 지능의 근본적인 구성 요소를 파악하기 위해 노력해 왔다. 일반적으로 한 가지 인지 문제를 잘 해결하는 사람은 다른 문제에서도 잘 해내는 경향이 있다. 이를 ‘g 인자’라고 부르는 아직 밝혀지지 않은 일부 요인 때문이라고 한다. 그러나 루피안은 일반적인 지능을 정량화하는 데 사용되는 IQ 테스트 및 기타 테스트는 현재 상태를 보여주는 ‘스냅샷’에 불과할 뿐이라고 주장한다.

시간이 지남에 따라 변하는 ‘지능 기준’

루피안은 컴퓨터 프로그래밍 기초를 배우는 초등학생과 미적분 수업을 통과한 고등학생은 “몇 백 년 전만 해도 일반 사람들의 영역을 훌쩍 뛰어넘는 일”이며 그렇다고 해서 오늘날의 아이들이 과거의 성인보다 더 똑똑하다는 의미는 아니라는 점을 짚었다. 그저 인간이 지식을 축적하고 학습 우선순위를 식량 확보에서 계산 능력으로 옮겨갔다며 지능은 시간이 지남에 따라 변한다는 점을 언급했다.

캘리포니아 버클리 대학교의 심리학 교수인 앨리슨 고프닉은 “인공 지능이든 자연 지능이든 ‘일반 지능’이라는 것은 존재하지 않는다”며 일반 지능의 존재를 부정했다. 고프닉은 다양한 상황에서 다양한 종류의 인지 능력이 필요하며 한 가지 유형의 지능으로 모든 것을 해결할 수 없다고 지적했다. 서로 다른 인지 능력은 서로 연결되어 있다는 점을 덧붙였다. 고프닉은 AGI는 “좋은 마케팅 슬로건”에 지나지 않는다며 AGI에 대해 조롱을 보냈다.

AGI를 정의하는 것은 AI를 이해하는 데 중요해

그러나 일부 과학자들은 “AGI란 무엇인가”에 답하고 적절한 평가를 하는 것은 여전히 중요한 작업이라고 강조했다. 물론 현재 AGI를 평가하는 방식이 부족할 수 있다는 점을 인정한다. SAT, 변호사 시험 등 인간을 대상으로 한 표준화 시험과 같이 대중화된 AI 벤치마크는 AGI를 구분하는 데 효과적이지 못하다. 산타페 연구소의 교수이자 컴퓨터 과학자인 멜라니 미첼은 기계가 인간과 비슷한 점수를 받았다고 해서 인간이 할 수 있는 일을 할 수 있다는 것은 아니라는 점을 지적했다.

여러 나라에서 AI를 규제하기 위해 AGI를 언급하고 있다. 미첼은 AGI 정의에 따라 정책 운용 방식이 달라질 수 있다며 AGI 정의에 대한 중요성을 강조했다. 템플 대학교의 컴퓨터 과학자 페이 왕도는 모두가 인정하는 AGI의 정의를 만드는 것은 불가능하다고 주장했다. 그러나 AI 시스템이 새로운 법안의 적용을 받는지부터 해당 시스템의 책임이 누구에게 있는지까지 AGI의 정의에 따라 이 모든 것이 달라질 것이라며 AGI를 잘 정의하는 게 중요하다고 언급했다.

이름을 어떻게 짓느냐에 따라 AI 미래 바뀔 수 있어

대형언어모델의 급성장에서 얻을 수 있는 중요한 교훈은 ‘언어’가 매우 강력하다는 점이다. 충분한 텍스트 데이터만 있으면 인간에게 필적하는 지능을 가진 기계를 만들 수 있다. 또한 미첼은 단어에 따라 기계는 다른 모습을 보여줄 것이라며 ‘단어’ 정의의 중요성을 강조했다.

AI 연구가 시작되던 1956년 다트머스 대학의 워크숍에서 과학자들은 자신의 연구를 무엇이라고 부를 지에 관해 토론을 벌였다. 어떤 사람은 ‘인공지능’을 옹호한 반면, 다른 이는 ‘복잡한 정보 처리’를 주장했다. 아마도 AGI를 ‘고급 복합 정보 처리’와 같은 이름을 붙였다면 우리는 기계를 의인화하거나 AI 종말을 두려워하지 않았을 것이며 그에 대한 위험성을 제대로 인지하지 못했을 것이다.

이처럼 AGI를 정의하는 것은 매우 어려운 작업이며 모든 사람이 인정하는 AGI 정의를 만들어내는 일은 사실상 불가능에 가깝다. 그럼에도 불구하고 AGI를 정의하기 위해 여러 벤치마크를 만들고 그 벤치마크가 AGI에 부합하는지 확인하는 일은 AI의 본질을 파악하는 데 중요한 일이 될 것이다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
전웅
Position
연구원
Bio
[email protected]
흥미로운 데이터 사이언스 이야기를 정확한 분석과 함께 전하겠습니다.

[해외 DS] 드론 레이싱 기술, 우주선 자율항법 시대 앞당긴다

[해외 DS] 드론 레이싱 기술, 우주선 자율항법 시대 앞당긴다
Picture

Member for

1 month
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.

수정

ESA, 드론 레이싱 기술 접목해 우주선 자율 항법 시스템 개발 나서
AI 기반 제어 시스템 탑재 드론으로 실제 레이싱 통해 기술 검증
새로운 사인파 활성화 함수 적용한 G&C Nets 기술, 소행성 탐사 '헤라' 미션에 활용 예정
RacingDrone AIBusiness 20240702
사진=Pixabay

유럽 우주국(European Space Agency, 이하 ESA)이 미래 우주선의 자율 항법 시스템 개발을 위해 드론 레이싱 기술을 접목하고 있다.

우주는 지구와 달리 중력 변화와 예측 불가능한 대기 난류로 인해 우주선이 항로를 이탈할 위험이 크다. ESA는 이러한 문제를 해결하기 위해 인공지능(AI) 기반 제어 시스템을 탑재한 드론을 활용, 실제 드론 레이싱을 통해 우주선 항법 기술을 테스트하고 있다.

G&C Nets, 진동 역학에 맞는 사인파 활성화 함수 활용

핵심은 'G&C Nets(Guidance & Control Networks)'라는 기술이다. 이는 우주선이 정해진 경로를 따르는 대신, 주변 환경 변화에 맞춰 스스로 최적의 궤적을 실시간으로 재설계하도록 돕는다.

전통적인 G&C Nets는 'ReLU', 'Softplus' 또는 'Hyperbolic tangent'와 같은 활성화 함수를 사용해왔다. 하지만 최근 연구에서는 SIREN(Sinusoidal Representation Network)에 영감을 받아 G&C Nets에 '사인파(Sinusoidal)' 활성화 함수를 적용한 결과, 더욱 뛰어난 성능을 달성했다고 한다.

사인파 활성화 함수는 우주선 자율항법 최적제어의 데이터 생성 과정과 잘 맞는 것으로 나타났다. 특히 드론 레이싱, 소행성 착륙, 행성 간 이동과 같은 환경에서 다양한 제어 정책에 대해 더 빠른 수렴과 낮은 훈련 손실을 달성하며 부드러운 입력부터 불연속적인 입력까지 다양한 제어 입력에 대한 강건함을 보여줬다.

이는 사인파 함수가 입력 공간의 고유한 진동을 활용하고 입력을 푸리에 스펙트럼으로 분해하는 데 효과적이기 때문일 수 있다. 특히 제어 작업이 주기적이고 진동적인 역학을 포함할 때 사인파 활성화 함수의 강점이 빛을 발하는 것으로 보인다.

소행성 탐사 '헤라' 미션에 G&C Nets 기술 적용

ESA 첨단기술팀의 다리오 이조(Dario Izzo) 코디네이터는 "드론 레이싱은 신경망 기반 AI 시스템을 테스트하기 위한 최적의 환경"이라며, "우주선의 자율성과 안정성을 높여 행성 간 이동·착륙·도킹 등 다양한 임무 수행 능력을 향상시킬 수 있을 것"이라고 기대감을 드러냈다.

Neural drone flight through TU Delft Cyber Zoo 20240703
출처=유럽 우주국

실제 테스트는 네덜란드 델프트공과대학의 '사이버 동물원(Cyber Zoo)'이라 불리는 연구실에서 진행됐다. 약 10m x 10m 크기의 공간에서 드론들은 정해진 시간 안에 코스를 완주하며, 실시간으로 변화하는 환경에 적응하는 능력을 선보였다. 특히 인간이 조종하는 드론과의 비교 실험을 통해 자율 항법 시스템의 우수성을 입증했다.

한편 ESA는 이번 연구 결과를 바탕으로 올해 발사 예정인 '헤라(Hera)' 미션에 G&C Nets 기술을 적용할 계획이다. 헤라 미션은 미 항공우주국(NASA)의 '다트(DART)' 미션, 즉 지구 방어를 위해 소행성에 충돌체를 발사하는 실험의 결과를 분석하고, 소행성 주변을 자율적으로 탐사하는 임무를 수행한다.

아울러 ESA는 앞으로 우주선이 소행성과 같은 물체 주변을 스스로 판단하고 효율적으로 이동할 수 있도록 기술 개발에 박차를 가할 예정이다. 이번 드론 레이싱 실험은 우주 탐사의 새로운 지평을 여는 중요한 발판이 될 것으로 기대된다.

Picture

Member for

1 month
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.

[해외 DS] ‘고삐 풀린’ AI 기술, 심각한 위험 초래할 수 있어 ‘안전장치’ 마련해야

[해외 DS] ‘고삐 풀린’ AI 기술, 심각한 위험 초래할 수 있어 ‘안전장치’ 마련해야
Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

수정

미국 국토안보수사국·공군·이민국 등 AI 적극 활용하고 있어
안전장치 없는 AI 기술, 어떤 부작용 몰고 올지 예측할 수 없어
최근 AI 기술 '안전장치' 마련하는 법안 발의
us capitol
사진=Pexels

AI가 빠르게 성장하면서 기업뿐만 아니라 정부에서도 AI 기술을 적극 활용하고 있다. 정부는 국민에게 더 나은 공공 서비스를 제공하기 위해 AI 기술을 적극 도입했다. 그러나 국가 차원에서 제공하는 기술인만큼 AI 기술에 대한 제대로 된 기술 평가가 이루어져야 한다는 의견이 나온다. 현재 발의된 AI 법안은 ‘기술 조달’에만 초점을 맞추고 있으며 AI 기술에 대한 안전장치가 부족하다는 평가다.

AI 기술 ‘안전장치’ 필요성 대두되어

최근 미국에서 정부기관이 AI 기술을 구매하고 배포할 때 ‘안전장치’를 마련하는 법안이 발의됐다. 이 법안은 AI 기술 조달 전에 위험 평가를 의무화하며 정부에서 AI 기술 사용 지침을 반드시 설정한다는 내용이다. 또한 정부기관이 AI 기술 배포 전에 기술을 ‘직접’ 시험해 보며 파일럿 프로그램(정식으로 발표되기 전에 제작된 프로그램)을 만들도록 권장한다.

이 법안을 발의한 게리 피터스 상원의원과 톰 틸리스 상원의원은 AI 기술에 안전장치를 마련해 정부기관이 기술을 보다 안전하고 신뢰할 수 있게 사용해야 한다는 점을 강조했다.

더불어 상원 국토안보 및 정부 업무 위원회 위원장인 피터스는 “AI는 국민에게 더 나은 서비스를 제공할 힘을 가지고 있지만, 기술 배포 전에 적절한 위험 평가가 이루어지지 않으면 심각한 위험을 초래할 수 있다”며 AI 기술에 안전장치를 마련해야 한다고 주장했다. 또한 안전장치는 정부에서 책임감 있는 AI 기술 사용을 장려하며 국민은 안전한 AI 공공 서비스를 보장받을 수 있다.

AI 적극 활용하는 정부기관, 검증 안된 AI 기술 어떤 부작용 발생할지 몰라

이미 여러 정부기관에서 업무 개선을 위해 생성형 AI 기술을 채택하거나 시험 중인 것으로 알려졌다. 미국 정부는 의료, 교통, 환경 등 다양한 분야에서 국민에게 더 나은 공공 서비스를 제공하기 위해 AI를 활용하고 있다고 밝혔다. 미국 국토안보수사국은 펜타닐 관련 범죄 수사를 지원하기 위해 AI를 활용하고 있다. 미국 공군은 직원들이 생성형 AI를 적극 사용 권장하기 위해 ChatGPT와 유사한 챗봇을 자체적으로 구축했다. 이 밖에도 미국 이민국은 직원 교육을 강화하기 위해 생성형 AI를 활용하고 있으며 미국 연방재난관리청은 AI를 이용해 지방 정부의 위험을 완화하고자 노력하고 있다.

전문가들은 다양한 분야에서 AI가 널리 활용되고 있는 만큼 AI 기술에 예상치 못한 위험이 발생하면 엄청난 손실을 초래할 수 있다고 경고했다. AI 규율 안을 마련하기 위해 유럽연합(EU)과 미국을 중심으로 관련 법과 규정이 쏟아져 나오고 있다.

지난 4월 백악관은 정부기관이 AI 기술을 사용할 때 준수해야 할 권리와 안전 보호 등의 기준을 발표했다. 그러나 이 법안은 AI '기술 조달'에만 초점을 맞추고 있다는 평가가 지배적이다. 기관이 사용하려는 새로운 AI 기술의 잠재적 위험 수준을 평가하여 공공의 권리와 안전을 우선시하도록 요구한다. 그러나 이 법안은 EU의 AI 법과 크게 다르지 않다는 평가다.

AI 기술 도입 전에 적절한 '기술 평가' 도입되어야

그러나 새롭게 발의된 법안에서는 AI 기술 도입에 대한 정부 계약에서 데이터 소유권, 사생활 등에 대한 안전 및 보안 조항을 요구하는 내용이 포함되어 있다. 정부기관은 AI 기술을 지속적으로 평가하기 위해 최고 AI 책임자를 임명하여 기술 조달 전·중·후에 발생할 수 있는 위험을 감시해야 하는 내용도 포함되어 있다. 또한 정부기관에서 사용 중인 기술을 공개함으로써 AI 사용에 대한 투명성을 확보해야 할 의무를 지게 했다.

이 법안을 발의한 틸리스는 공공 및 민간 부문에서 AI의 역할이 커짐에 따라 정부기관이 안전하고 효과적으로 AI 기술을 조달하고 구현하기 위해 ‘체계’를 갖추는 것이 중요하다고 언급했다. 또한 이 법안은 연방 기관에 명확한 가이드라인을 제공하여 AI의 발전을 성공적으로 이끌 수 있는 도구가 될 것이라고 주장했다.

이 법안은 전기전자공학자협회, AI 조달 연구소 등 여러 단체에서 지지를 받고 있다. AI 조달 연구소의 공동 설립자인 지젤 워터스와 캐리 밀러는 “혁신이 국민의 희생으로 이어지지 않도록 조심해야 한다”며 AI 기술에 대한 맹목적인 믿음에 주의를 줬다. 기술 조달이 추구하는 ‘가격, 경쟁, 혁신’이라는 가치는 AI 위험을 관리하는 데 필요한 ‘투명성, 전문성, 감독’을 다루지 못하는 점을 덧붙였다. 또한 이 법안은 정부의 골칫거리인 ‘AI 기술 감독’을 해결하는 데 도움이 될 것이라고 주장했다. 이미 캘리포니아에서 유사한 규정을 시행하고 있으며 정부기관은 새로운 AI 시스템을 도입하기 전에 제대로 된 감사 및 위험 평가를 수행해야 한다.

AI 붐으로 기술 개발에만 몰두했다면 이제는 AI가 몰고 올 부작용에 대해서도 신경써야 할 때다. 정부기관은 기술 도입 전에 꼼꼼한 검사를 통해 국민에게 '안전한' AI 기술을 도입해야 한다.

Picture

Member for

1 month
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.

[해외 DS] 양자 컴퓨터 속 AI 관찰자, 객관적 현실의 비밀 밝힐까? ③

[해외 DS] 양자 컴퓨터 속 AI 관찰자, 객관적 현실의 비밀 밝힐까? ③
Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

수정

세 명의 관찰자, 각자 다른 방식으로 큐비트 측정
관찰자 간 상관관계 분석, 기존 물리학 가정과의 불일치 여부 확인
불일치 발생 시, 객관적 현실에 대한 새로운 해석 필요할 수 있어

[해외 DS] 양자 컴퓨터 속 AI 관찰자, 객관적 현실의 비밀 밝힐까? ②에서 이어집니다.


Quantum AI ScientificAmerican 20240628
사진=Pixabay

위그너의 AI 친구 실험에서 사용되는 큐비트는 양자 정보의 기본 단위로, +1과 -1의 값을 동시에 가질 수 있는 중첩 상태에 존재한다. 큐비트의 흥미로운 특징은 측정 방식(방향)에 따라 +1 또는 -1이 나타날 확률이 달라진다는 점이다. 예를 들어 수직 방향으로 큐비트를 측정하면 +1과 -1이 나올 확률이 동일하지만, 다른 각도로 측정하면 둘 중 하나가 더 높은 확률로 나올 수 있다.

앨리스의 동전 던지기로 밝히는 관찰의 역설

실험은 앨리스, 밥, 찰리 세 명의 관찰자에게 각각 큐비트를 전송하는 것으로 시작된다. 각 관찰자는 독립된 환경에서 큐비트를 관찰하는데, 밥은 무작위로 측정 방향을 선택하고 찰리는 항상 동일한 방향으로 큐비트를 측정하도록 설계됐다. 하지만 앨리스는 동전을 던져 앞면이 나오면 찰리에게 측정 결과를 요청하고, 뒷면이 나오면 찰리가 실험실에서 한 모든 행동을 되돌린 후, 찰리가 정한 방향과 다른 방향으로 큐비트를 관찰한다. 이는 찰리가 완전히 격리된 양자 시스템에 존재하는 AI(QUALL-E)이기 때문에 가능한 일이다.

실험을 반복하면 밥은 자신의 측정 결과만 얻지만, 앨리스는 자신의 측정 결과와 찰리의 측정 결과가 혼합된 결과를 얻게 된다. 즉 앨리스의 결과는 외부 관찰자의 측정과 양자 중첩 상태에 있는 내부 관찰자의 측정이 무작위로 혼합되어 집계된다. 실험이 끝나면 연구진은 앨리스와 밥의 결과를 비교해 두 결과 간의 상관관계를 계산한다. 만약 계산 결과가 특정 임계값을 넘으면, 연구진은 설정한 물리적 현실에 대한 가정 중 최소 하나 이상이 틀렸다는 결론을 내릴 수 있다.

Quantum AI Graphic2 ScientificAmerican 20240628
사진=Scientific American

다양한 양자 이론, AI 관찰자에 대한 각기 다른 해석 제시

지금까지 물리학자들은 '측정 설정의 자유(freedom)', '물리적 상호작용의 국소성(locality)'과, '관찰 결과의 절대성(absoluteness)'이라는 세 가지 가정을 근간으로 객관적 현실을 이해해 왔다. 하지만 많은 물리학자들이 예상하는 대로 실험 결과가 기존 이론과 상충할 경우, 물리학자들은 이 세 가지 가정 중 하나 이상을 포기해야 하는 어려운 선택에 직면하게 된다.

물론 가장 먼저 의심해 볼 수 있는 것은 인공지능이 사람처럼 생각할 수 있다는 '친근성(friendliness)' 가정이다. 이 가정은 위그너의 AI 친구 실험에서 핵심적인 전제 중 하나이지만, 일부 이론들은 양자 컴퓨터가 인간의 사고를 완벽하게 모방할 수 없다고 주장하며 이 가정에 의문을 제기했다.

예를 들어 '객관적 붕괴 모델(objective collapse models)'을 지지하는 사람들은 양자 컴퓨터에 충분한 큐비트가 주어지면 중첩 상태가 무한정 유지되어 붕괴가 일어나지 않으므로, 관찰할 대상이 없어진다는 논리를 펼친다. 이는 양자 컴퓨터가 인간과 동일한 방식으로 생각하거나 관찰할 수 없다는 것을 의미하며, 친근성 가정에 대한 의문을 제기하는 근거가 된다. '코펜하겐 해석(Copenhagen interpretation)'을 지지하는 사람들 역시 양자 시스템과 고전적 장치를 구분하는 '하이젠베르크 절단' 개념을 통해 친근성 가정에 의문을 던진다. 이들은 찰리가 양자 시스템으로 분류되기 때문에 고전적 관찰자인 앨리스와는 근본적으로 다르다고 강조한다.

위그너의 친구 실험, 관찰자의 특별한 지위 뒤흔들 수도

하지만 인공지능이 진정한 사고 능력을 갖추게 된다면, 물리학의 근본적인 가정들을 재검토해야 할 필요성이 대두될 수밖에 없다. 예를 들어 데이비드 봄의 '봄 역학(Bohmian mechanics)'은 숨겨진 비국소적 실체를 통해 공간적으로 멀리 떨어진 사건들이 즉각적으로 상호작용을 할 수 있다는 가능성을 제시하며, 전통적인 국소성 가정에 도전한다.

더 나아가 '다세계 해석(many-worlds interpretation)'은 관찰 결과의 절대성을 정면 반박하는데, 동일한 사건을 관찰한 결과가 관찰자에 따라 달라지며, 각 가능성은 다른 세계로 분리될 수 있다고 역설한다. 심지어 실제 세계가 하나뿐이라 할지라도 측정 결과는 관찰자에 따라 상대적일 수 있다는 관점도 존재한다.

만약 이러한 주장들이 위그너의 AI 실험을 통해 힘을 얻게 된다면, 실험적 관찰의 지위는 물리학의 다른 많은 분야처럼 특별한 위치에서 평범한 것으로 전락할 수도 있다. 코페르니쿠스 혁명이 지구 중심설을 무너뜨리고, 우주론이 우리은하의 특별한 위치를 부정했듯이, 관측된 사건 역시 객관적인 지위를 잃고 모든 것이 상대적인 것으로 밝혀질 수 있다.

마지막으로 실험 결과가 기존 가정들을 깨뜨리지 않는다면, 이는 단순히 가정 중 하나를 포기하는 것 이상의 훨씬 더 큰 파장을 불러일으킬 수 있다. 연구진은 이러한 결과가 나올 가능성은 희박하지만, 완전히 배제할 수는 없다고 조심스럽게 언급했다.

*편집진: 영어 원문의 출처는 사이언티픽 아메리칸(Scientific American)으로 본지의 편집 방향과 일치하지 않을 수도 있습니다.

Picture

Member for

1 month
Real name
김광재
Position
연구원
Bio
[email protected]
균형 잡힌 시각으로 인공지능 소식을 전달하겠습니다.

D램·낸드 가격 인상 단행한 삼성, 수요 확대 수순에 실적 개선 본격화

D램·낸드 가격 인상 단행한 삼성, 수요 확대 수순에 실적 개선 본격화
Picture

Member for

1 month
Real name
김동현
Position
기자
Bio
[email protected]
가공되지 않은 정보는 거칠기 마련입니다. 파편화된 정보를 정리해 사회 현장을 부드럽고도 가감 없이 전달할 수 있도록 노력하겠습니다.

수정

AI 열풍에 서버 수요 확대, 삼성 "메모리 반도체 가격 15~20% 인상할 것"
PC용 D램 범용제품 고정거래가격 상승, 반도체 '가격 정상화' 속도 붙나
AI 칩 자체 수급 사실상 실패한 중국, 삼성·SK 등에 눈 돌릴까
Dmemory price samsung up TE 20240627

메모리 반도체 가격이 본격적으로 상승가도를 달리기 시작하면서 삼성전자 반도체(DS) 사업과 SK하이닉스 실적에 대한 눈높이가 높아졌다. 이에 삼성전자는 주요 메모리 반도체 서버용 D램과 기업용 낸드플래시 가격을 올리겠다고 밝혔다. 상승세에 발맞춰 가격을 정상화함으로써 실적을 끌어올리겠단 취지다.

삼성전자 D램·낸드 가격 15% 이상 인상

삼성전자 DS 부문은 지난 26일 경기도 화성 사업장에서 글로벌 전략회의를 열고 "주요 메모리 반도체인 서버용 D램과 기업용 낸드플래시 가격을 오는 3분기에 15~20% 올리겠다"고 전했다. 지난 2분기 기업용 낸드플래시 가격을 20% 이상 인상한 데 이어 연달아 가격 인상을 공식화한 것이다.

AI 열풍이 서버 수요 확대로 이어지면서 시장 성장이 두드러지게 나타나자 실적 개선을 위해 가격 인상을 감행한 것으로 풀이된다. 실제 시장조사기관 D램익스체인지에 따르면 올 1분기 전 세계 기업용 낸드플래시 매출은 37억5,800만 달러(약 5조1,800억원)로 전 분기보다 62.9% 증가했다. 수요 확대로 일부 제품의 품귀 현상까지 벌어지자 고객사들의 물량 확보 의지가 더욱 높아지는 모습이다.

재고 비축 수요 확대에 본격적인 '가격 정상화' 나서는 듯

이에 대해 시장에선 예상하던 바라는 입장이다. 지정학적 리스크와 메모리 가격 상승 분위기가 확산하면서 재고를 비축하려는 수요가 꾸준히 늘고 있기 때문이다. 지난해 삼성전자, SK하이닉스, 마이크론 등 글로벌 D램 3사의 고강도 감산의 영향도 컸다. 업계에 따르면 최근 모바일, PC, 서버 등 주요 D램 사용처에서 수급 불일치가 발생하고 있고, 일부에선 이미 공급 부족 조짐까지 나타났다.

지난해 초부터 D램 가격 하락을 이끌었던 DDR4 D램 과잉 재고 문제도 지난해 4분기부터 완만한 회복세에 접어들었다. D램익스체인지에 따르면 지난해 12월 PC용 D램 범용제품(DDR4 8Gb)의 평균 고정거래가격은 1.65달러를 기록했다. 전월보다 6.45% 상승한 수준이다. 고정거래가격은 제조업체와 수요 업체 간 협상을 통해 결정하는 대량 납품 가격을 뜻한다. 고정거래가격이 상승했단 건 수요 업체들이 제품 가격 인상에 합의했단 의미다. 즉 지난해 고객사의 '가격 후려치기'에 끌려다니던 D램 제조업체들의 협상력이 회복됐단 것이다. 결과적으로 적정한 여건이 마련된 만큼 반도체 제조사 입장에선 가격 인상 및 정상화를 고려치 않을 이유가 없단 게 시장의 대체적인 시선이다.

Samsung SK china Dependence TE 20240627

중국 내 국산 반도체 수요 회복 가능성↑

중국 수요가 회복되는 중이란 점도 긍정적이다. 그간 중국은 AI 칩 자체 생산을 위해 부단히 노력해 왔다. 미국의 대중 제재가 강화하면서 반도체 자력 수급이 국가적 과제로 떠오른 탓이다. 어느 정도 성과도 보였다. 화웨이의 2세대 AI 칩인 '어센드 910B'는 중국 시장을 90% 이상 장악했던 엔비디아 AI 칩의 대체제로 떠오르며 현지 기업들의 러브콜을 받은 것으로 알려졌다.

그러나 중국의 AI 칩 도전기는 한계에 봉착했다. 낮은 수율과 잦은 장비 고장, 미국의 대중 제재에 따른 장비·기술 수급 난항 등이 겹치면서다. 업계에 따르면 화웨이의 어센드 910B는 생산 수율이 여전히 20%대 수준에 그친다. 중국 최대 파운드리(반도체 위탁생산) SMIC에서 양산에 돌입한 지 6개월이 넘었음에도 5개 칩 중 4개에 결함이 발생하고 있단 의미다. 더군다나 장비 고장이 잇따르면서 당초 생산 계획마저 망가질 위기에 처했다.

중국 AI 칩의 수율이 지나치게 낮은 건, 강력한 수출 제재에 노후화한 장비를 써왔기 때문이다. 업계에 따르면 SMIC는 미 제재로 신규 장비 도입이 불가능해지자 첨단 극자외선(EUV) 노광장비 대신 성능이 낮은 심자외선(DUV) 장비를 개조해 AI 칩 7㎚(나노미터) 회로를 그려왔다. 노광장비를 공급하는 네덜란드 ASML에 따르면, EUV 장비를 사용하면 7㎚ 공정에서 9단계를 거치지만 DUV 장비에선 34단계를 거쳐야 한다. 통상 단계가 추가될수록 생산 비용이 높아지고 불량 빛 및 부품 고장도 더 빈번하게 발생한다. 근본적인 기술력 부족과 장비 부족이 중국의 반도체 자립을 가로막고 있는 셈이다.

이렇다 보니 시장에선 한국 반도체에 대한 중국의 의존도가 차후 더 높아질 수 있단 전망이 나온다. 자력 수급만으로 내부 수요를 모두 처리하지 못하면 물리적인 거리가 가깝고 삼성전자, SK하이닉스 등 반도체 대기업이 소재한 한국에 매력을 느낄 수밖에 없단 시선에서다. 한 업계 관계자는 "중국은 전 세계 메모리 소비량의 약 30~35%를 차지하고 있다"며 "중국 내 AI 생태계가 성장함에 따라 한국 메모리 반도체에 더 많이 의존하는 그림이 그려질 것"이라고 설명했다. 결과적으로 반도체에 대한 중국 수요가 점진적인 회복을 이룰 가능성이 높단 것이다.

Picture

Member for

1 month
Real name
김동현
Position
기자
Bio
[email protected]
가공되지 않은 정보는 거칠기 마련입니다. 파편화된 정보를 정리해 사회 현장을 부드럽고도 가감 없이 전달할 수 있도록 노력하겠습니다.