[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.
입력
수정
OTT 중심으로 급변하는 시장, 인터넷TV의 '호시절'은 끝났다
점차 침체하는 리니어TV 시장, 각국에서 '코드 커터' 급증
TV 앞에 앉지 않는 사람들, OTT가 리니어TV 대체하는 시대 올까
OTT가 콘텐츠 시장의 주축으로서 입지를 다지는 가운데, 국내 통신사들의 호실적을 견인한 유료방송 사업이 본격적인 침체기에 접어들었다. TV가 아닌 스마트폰으로, 유료방송이 아닌 OTT로 각종 콘텐츠를 향유하는 소비자가 급속도로 증가하면서다. 리니어TV(선형TV) 수요가 급감하고, '코드 커팅(Code-Cutting)' 현상이 본격화하며 콘텐츠 시장의 흐름이 격변하고 있다.
케이블TV에서 IPTV로, IPTV에서 OTT로
인터넷TV(IPTV)는 권역 중심의 케이블 TV의 단점을 상쇄, 한동안 '뉴미디어 시대'의 주축으로 군림해왔다. △단말기·유선인터넷·IPTV를 하나로 묶어 파는 결합 상품 △인터넷 환경을 활용한 부가 서비스 △폭넓은 송출 채널 △간편한 주문형 비디오(VOD) 서비스 등 케이블TV에서 상상할 수 없었던 '혜택'을 제공하며 소비자 수요를 끌어모은 것이다.
하지만 최근 업계에서는 인터넷TV 역시 조만간 케이블TV의 뒤를 따를 것이라는 비관적 전망이 제기된다. 코로나19 팬데믹을 기점으로 OTT 플랫폼이 콘텐츠 시장을 집어삼키면서다. 실제 국내 통신사 인터넷TV 가입자 수는 정체 상태다. 올해 3분기 말 기준 KT의 인터넷TV 가입자 수는 943만 명으로 직전 분기보다 0.4% 감소했다. SK브로드밴드의 가입자 수는 케이블방송(CATV)을 포함해 951만5,000명, LG유플러스는 543만1,916명으로 각각 0.5%, 0.7% 증가하는 데 그쳤다.
유료방송을 포함한 통신사의 미디어 부문 매출 역시 부진했다. 3분기 SK브로드밴드의 유료방송 매출은 전년 대비 0.4% 성장했으며, 전체 미디어 매출은 3,902억원으로 1.4% 역성장했다. KT와 LG유플러스(IPTV 매출 기준) 또한 각각 3.9%, 1.2%에 성장하는 데 그쳤다. 소비자 사이에서 IPTV가 인기를 끌던 2019~2020년, 통신 3사의 연간 미디어 매출 증가세가 두 자릿수에 달했던 것과 비교하면 상당히 낮은 수치다.
리니어 TV 수요 급감, 진짜 '종말' 다가오나
넷플릭스의 전 CEO인 리드 헤이스팅스는 지난해 "향후 5년, 10년 안에 확실하게 리니어TV(선형TV)의 종말이 올 것"이라고 발언한 바 있다. 리니어TV는 유료방송, 안테나를 통한 무료 시청 등을 통해 방송 채널을 접하는 보편적인 'TV 시청' 방식을 일컫는다. 넷플릭스의 '예언'이 맞아떨어진 것일까. 최근 들어 우리나라를 포함한 각국의 리니어TV 수요가 급감하기 시작했다.
대표적인 사례가 미국이다. 미국 미디어 기업들의 케이블, IPTV, 위성방송 가입자는 올해 1분기에만 204만 명(VMVPD 제외) 줄었다. 이는 2000년 이후 최대 감소폭이다. 소비자가 리니어TV를 해지하고, 인터넷을 통해 콘텐츠를 향유하는 현상을 지칭하는 코드 커팅이라는 용어까지 등장했다. 리니어TV의 '코드를 잘라낸' 소비자는 OTT로 대표되는 스트리밍 플랫폼에 몰려들었다. 언제 어디서나 콘텐츠를 시청할 수 있는 편의성, 각 플랫폼이 제공하는 매력적인 독점 콘텐츠 등이 소비자 수요를 고스란히 흡수한 것이다.
현대 사회의 주요 정보 전달 매체는 TV가 아닌 스마트폰이다. 이미 대다수의 소비자는 리니어TV가 아닌 스마트폰이나 태블릿 PC를 통해 콘텐츠에 접근하고 있다. 인터넷TV의 성장세 둔화, OTT의 급성장은 이 같은 시장 상황을 명확하게 입증하는 사례다. 긴 시간 콘텐츠 시장에서 '메인 플랫폼' 자리를 지켜온 리니어TV는 과연 어떤 결말을 맞이하게 될까.
Picture
Member for
8 months 2 weeks
Real name
김서지
Position
기자
Bio
[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.
입력
수정
모델의 규모가 점점 커지고 있지만, 작은 모델도 비슷한 성능 낼 수 있어
작은 모델은 에너지 효율적이고, 접근하기 쉬우며, 다양한 장치에 적합해
인간의 학습 방식을 이해하고 모델을 훈련해야 혁신적인 기계 학습 가능
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소 (GIAI R&D Korea)에서 영어 원문 공개 조건으로 콘텐츠 제휴가 진행 중입니다.
인공 지능의 규모는 점점 커지고 있다. OpenAI의 ChatGPT나 Google의 Bard와 같은 유명한 챗봇을 구동하는 대규모 언어 모델(LLM)은 이제 1,000억 개 이상의 파라미터로 만들어진다. 이 모델들은 AI가 입력에 대한 출력을 결정하는 데 필요한 가중치와 변수를 담고 있는데, 이는 몇 년 전까지 가장 진보된 AI 모델에서도 상상할 수 없는 양의 정보다.
이러한 큰 규모의 AI 모델은 일반적으로 더 뛰어난 성능을 보장한다. 점점 더 방대해지는 학습 데이터와 그에 따른 모델의 크기로, 대학 시험에서부터 의대 입학시험까지 통과할 수 있는 수준의 챗봇이 나타났다. 그러나 이런 발전에는 단점도 따른다. 모델이 커질수록 관리가 어려워지고, 에너지 소모가 많아지며, 실행 및 구축 단계도 복잡해진다. 그래서 빅테크 기업에서는 더 작고 간단한 모델과 데이터 세트에 관심을 기울이는 추세다.
작은 크기에도 불구하고, Phi-1.5의 탁월한 성능
최근에는 Microsoft 연구팀이 Phi-1.5라는 새로운 언어 모델에 대한 기술 보고서를 발표했다. Phi-1.5는 13억 개의 파라미터로 이루어져 있는데, 이는 ChatGPT의 기반이 된 GPT-3.5 모델의 약 100분의 1 크기다. GPT-3.5와 Phi-1.5는 둘 다 트랜스포머 기반의 신경망으로, 언어의 문맥과 관계를 이해하여 작동하는 측면에서 공통점을 가지고 있다.
그러나 상대적으로 작은 크기에도 불구하고, phi-1.5는 (아직 동료 심사를 거치지 않은 사전 인쇄 논문으로) 공개된 보고서에서 "훨씬 더 큰 LLM의 많은 특장점을 공유하고 있다"라고 기술되었다. 이 모델은 벤치마킹 테스트에서 비슷한 크기의 많은 모델보다 우수한 성능을 보여주었으며, 5~10배 더 큰 다른 인공지능과도 견줄 만한 능력을 나타냈다. 지난 10월의 최신 업데이트를 통해 phi-1.5는 텍스트뿐만 아니라 이미지도 해석할 수 있는 멀티모달 기능을 갖추었다. 최근에 Microsoft는 27억 개의 매개 변수를 가진 phi-1.5의 후속 버전인 phi-2를 출시했는데, 이 제품은 여전히 소형인 것에 비해 더 많은 기능을 제공한다고 발표했다.
물론 Bard, GPT-3.5, GPT-4와 같은 LLM이 여전히 phi 모델보다 우세하다. 마이크로소프트 리서치의 수석 AI 연구원이자 보고서의 저자 중 한 명인 로넨 엘단(Ronen Eldan)은 "phi-1.5와 GPT-4를 비교하는 것은 중학생과 학부생을 비교하는 것과 같다"라고 말했다. 그러나 phi-1.5와 phi-2는 작은 AI 모델도 여전히 강력할 수 있고, 이는 GPT-4와 같은 거대한 AI 모델이 제기하는 몇 가지 문제를 해결할 수 있다는 가능성을 시사한다고 강조했다.
대규모 AI의 문제와 소형 AI의 가능성, "에너지·민주화·보안"
1,000억 개 이상의 파라미터를 가진 AI 모델을 학습하고 실행하는 데는 상당한 에너지가 필요하다. 워싱턴대학의 컴퓨터 엔지니어인 사자드 모아제니(Sajjad Moazeni)에 따르면, 전 세계에서 ChatGPT를 하루 사용하는 것은 미국 가정 33,000가구가 24시간 동안 소비하는 전력과 비슷한 양의 전력이 필요할 수 있다고 한다. Joule에 발표된 분석에 따르면, Google이 모든 검색 엔진 상호 작용을 Bard로 대체할 경우, 아일랜드의 전력 소비량과 비슷한 양의 전력이 소비될 것으로 조사됐다. 이러한 에너지 소비는 컴퓨팅 성능과 메가 모델을 학습하는 데 필요한 대량의 데이터로부터 비롯된다. 반면, 작은 규모의 AI가 실행에 필요한 컴퓨팅 성능과 에너지는 적다. 이러한 접근은 지속 가능성을 증진한다.
자원이 적게 필요한 AI는 더욱 접근하기 쉬운 AI다. 현재 상황에서 대규모 LLM을 구축하고 유지하는 데 필요한 자금과 서버 공간은 소수의 기업만 보유하고 있다. 작은 모델은 더 많은 사람이 개발하고 연구할 수 있게 해준다. 밀라-퀘벡 인공 지능 연구소의 계산 및 인지 언어학 연구원인 에바 포텔랑스(Eva Portelance)는 "작은 언어 모델은AI를 더욱 민주화할 수 있는 한 방법"이라며 "더 많은 데이터나 큰 모델을 필요로 하지 않기 때문에, 이는 대규모 기관 외부에서도 혁신을 이룰 기회를 제공한다"라고 언급했다.
현재 대부분의 LLM은 용량 때문에 스마트폰이나 노트북에 로컬로 저장하기 어려워 클라우드에서 실행된다. 그러나 작은 모델은 개인용 장치에서도 실행할 수 있다. '에지 컴퓨팅'으로 알려진 개인 장치에 연산 및 데이터 저장소를 통합하는 기술은 개별적인 드론과 같은 작은 장치에서 기계 학습 기반 센서 시스템을 가능케 한다. 언어 모델도 이처럼 작아진다면 다양한 애플리케이션에서 사용될 수 있을 것이다. 최신 가전제품인 스마트 냉장고나 웨어러블 기기인 애플 워치와 같은 기기에서 작은 언어 모델을 사용하면 클라우드에 연결하여 데이터를 전송하지 않고도 챗봇과 같은 인터페이스를 구현할 수 있다. 이는 데이터 보안을 강화하는 데 큰 도움이 될 것으로 예상된다.
'인간 지능'을 이해하기 위해 축소형 LLM이 적합, 설명 가능성을 높여야
AI 모델이 클수록 성능이 뛰어나지만, 모든 AI가 강력한 성능을 요구하지 않는다. 예를 들어, 스마트 냉장고의 챗봇은 식품 용어를 이해하고 목록을 작성할 수 있어야 하지만, 코드를 작성하거나 복잡한 계산을 수행할 필요는 없다. 작고 특화된 AI 모델이 기능에 맞게 개발된는 것이 중요하다. 특화되지 않은 대규모 인공지능 모델의 경우 각 매개변수의 역할을 분석하는 것이 사실상 불가능하다. '해석 가능성'이 제한적일 때, 특화된 소형 모델의 필요성이 대두되는 이유다.
인공 지능은 가장 우수한 언어 모델을 구축하는 것뿐만 아니라 인간 학습 방식을 이해하고 이를 기계적으로 모방하는 방법을 탐구하는 것이다. 모델의 크기와 해석 가능성은 인간의 사고를 이해하는 데 핵심적인 역할을 한다. 더 작고 해석 가능한 AI를 사용하면 알고리즘이 결정을 내리는 이유를 더 쉽게 이해할 수 있다. 인간이 인지 및 학습에서 최고의 모범 사례다. 인간은 적은 양의 정보로도 많은 것을 이해하고 패턴을 파악할 수 있기 때문인데, 이러한 현상을 연구하고 AI로 이를 모방하는 데에는 큰 의의가 있다.
전문가들은 대규모 데이터 세트에서 대규모 모델을 훈련하는 것의 이익이 점점 줄어들고 있다고 지적한다. 이는 고품질 데이터를 확보하는 것이 어려워지고, 에너지 비용이 증가하며, 모델의 성능이 더 이상 빠르게 향상되지 않는다는 것을 의미한다. 그 대신, 더 얇은 신경망에 집중하고 다양한 훈련 전략을 실험함으로써 머신 러닝 분야에서 혁신을 이뤄내야 할 시기라는 점을 강조한다. 축소형 AI를 연구하면서 지능의 최소 요소를 발견하고 이해하면 그것을 기반으로 혁신적인 모델을 구축할 수 있다. 더 작은 모델을 통해 큰 질문에 접근하여 AI를 경제적으로 개선하고자 많은 연구들이 진행 중이다.
When It Comes to AI Models, Bigger Isn’t Always Better
Artificial intelligence models are getting bigger, along with the data sets used to train them. But scaling down could solve some big AI problems
Artificial intelligence has been growing in size. The large language models (LLMs) that power prominent chatbots, such as OpenAI’s ChatGPT and Google’s Bard, are composed of well more than 100 billion parameters—the weights and variables that determine how an AI responds to an input. That’s orders of magnitude more information and code than was common among the most advanced AI models just a few years ago.
In broad strokes, bigger AI tends to be more capable AI. Ever larger LLMs and increasingly massive training datasets have resulted in chatbots that can pass university exams and even entrance tests for medical schools. Yet there are drawbacks to all this growth: As models have gotten bigger, they’ve also become more unwieldy, energy-hungry and difficult to run and build. Smaller models and datasets could help solve this issue. That’s why AI developers, even at some of the largest tech companies, have begun to revisit and reassess miniaturized AI models.
In September, for instance, a team of Microsoft researchers released a technical report on a new language model named phi-1.5. Phi-1.5 is made up of 1.3 billion parameters, which is about one one-hundredth the size of GPT-3.5, the model that underlies the free version of ChatGPT. GPT-3.5 and phi-1.5 also share the same general architecture: they are both transformer-based neural networks, meaning they work by mapping the context and relationships of language.
But despite its relatively diminutive size, phi-1.5 “exhibits many of the traits of much larger LLMs,” the authors wrote in their report, which was released as a preprint paper that has not yet been peer-reviewed. In benchmarking tests, the model performed better than many similarly sized models. It also demonstrated abilities that were comparable to those of other AIs that are five to 10 times larger. And recent updates made in October even allow phi-1.5 to display multimodality—an ability to interpret images as well as text. Last week Microsoft announced the release of phi-2, a 2.7-billion-parameter follow-up to phi-1.5, which demonstrates even more ability in a still relatively compact package, the company claims.
Make no mistake, massive LLMs such as Bard, GPT-3.5 and GPT-4 are still more capable than the phi models. “I would say that comparing phi-1.5 to GPT-4 is like comparing a middle school student and an undergraduate student,” says Ronen Eldan, a principal AI researcher at Microsoft Research and one of the authors of the September report. But phi-1.5 and phi-2 are just the latest evidence that small AI models can still be mighty—which means they could solve some of the problems posed by monster AI models such as GPT-4.
For one, training and running an AI model with more than 100 billion parameters takes a lot of energy. A standard day of global ChatGPT usage can consume as much electricity as about 33,000 U.S. households do in the same time period, according to one estimate from University of Washington computer engineer Sajjad Moazeni. If Google were to replace all of its users’ search engine interactions with queries to Bard, running that search engine would use as much power as Ireland does, according to an analysis published last month in Joule. That electricity consumption comes, in large part, from all the computing power required to send a query through such a dense network of parameters, as well as from the masses of data used to train mega models. Smaller AI needs far less computing power and energy to run, says Matthew Stewart, a computer engineer at Harvard University. This energy payoff is a sustainability boost.
Plus, less resource-intensive AI is more accessible AI. As it stands now, just a handful of private companies have the funds and server space to build, store, train and modify the biggest LLMs. Smaller models can be developed and studied by more people. Thinking small “can in some sense democratize AI,” says Eva Portelance, a computational and cognitive linguistics researcher at the Mila-Quebec Artificial Intelligence Institute. “In not requiring as much data and not requiring the models to be as big…, you’re making it possible for people outside of these large institutions” to innovate. This is one of multiple ways that scaled-down AI enables new possibilities.
For one thing, smaller AI can fit into smaller devices. Currently, the size of most LLMs means they have to run on the cloud—they’re too big to store locally on an unconnected smartphone or laptop. Smaller models could run on personal devices alone, however. For example, Stewart researches so-called edge computing, in which the goal is to stuff computation and data storage into local machines such as “Internet of Things” gadgets. He has worked on machine-learning-powered sensor systems compact enough to run on individual drones—he calls this “tiny machine learning.” Such devices, Stewart explains, can enable things like much more advanced environmental sensing in remote areas. If competent language models were to become similarly small, they would have myriad applications. In modern appliances such as smart fridges or wearables such as Apple Watches, a smaller language model could enable a chatbotesque interface without the need to transmit raw data across a cloud connection. That would be a massive boon for data security. “Privacy is one of the major benefits,” Stewart says.
And although the general rule is that larger AI models are more capable, not every AI has to be able to do everything. A chatbot inside a smart fridge might need to understand common food terms and compose lists but not need to write code or perform complex calculations. Past analyses have shown that massive language models can be pared down, even by as much as 60 percent, without sacrificing performance in all areas. In Stewart’s view, smaller and more specialized AI models could be the next big wave for companies looking to cash in on the AI boom.
Then there’s the more fundamental issue of interpretability: the extent to which a machine-learning model can be understood by its developers. For larger AI models, it is essentially impossible to parse the role of each parameter, explains Brenden Lake, a computational cognitive scientist researching artificial intelligence at New York University. This is the “black box” of AI: developers build and run models without any true knowledge of what each weight within an algorithm accomplishes. In smaller models, it is easier, though often still difficult, to determine cause and effect and adjust accordingly. “I’d rather try to understand a million parameters than a billion parameters,” Lake says.
For both Lake and Portelance, artificial intelligence isn’t just about building the most capable language model possible but also about gaining insight into how humans learn and how we can better mimic that through machines. Size and interpretability are key factors in creating models that help illuminate things about our own mind. With mega AI models—generally trained on much bigger datasets—the breadth of that training information can conceal limitations and make it seem like an algorithm understands something it doesn’t. Conversely, with smaller, more interpretable AI, it is far easier to parse why an algorithm is producing an output. In turn, scientists can use that understanding to create “more cognitively plausible” and possibly better overall AI models, Portelance says. Humans, they point out, are the gold standard for cognition and learning: we can absorb so much and infer patterns from very small amounts of information. There are good reasons to try to study that phenomenon and replicate it through AI.
At the same time, “there are diminishing returns for training large models on big datasets,” Lake says. Eventually, it becomes a challenge to find high-quality data, the energy costs rack up and model performance improves less quickly. Instead, as his own past research has demonstrated, big strides in machine learning can come from focusing on slimmer neural networks and testing out alternate training strategies.
Sébastien Bubeck, a senior principal AI researcher at Microsoft Research, agrees. Bubeck was one of the developers behind phi-1.5. For him, the purpose of studying scaled-down AI is “about finding the minimal ingredients for the sparks of intelligence to emerge” from an algorithm. Once you understand those minimal components, you can build on them. By approaching these big questions with smaller models, Bubeck hopes to improve AI in as economical a way as possible.
“With this strategy, we’re being much more careful with how we build models,” he says. “We’re taking a slower and more deliberate approach.” Sometimes slow and steady wins the race—and sometimes smaller can be smarter.
Picture
Member for
8 months 2 weeks
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
입력
수정
오리지널 예능으로 쓴맛 본 넷플릭스, <솔로지옥> 기점으로 '재도전' 본격화
넷플릭스의 '허점' 파고들어 급성장한 쿠팡플레이, 토종 OTT 1위까지 올라서
모회사 '쿠팡' 따라 적자 내며 고속 질주 준비, 최강자 넷플릭스 위협할 수 있을까
넷플릭스와 쿠팡플레이 사이에서 '경쟁 기류'가 감지되고 있다. 쿠팡플레이가 드라마에 비해 인기가 저조한 예능으로 이용자를 대거 끌어모으자, 과거 여러 차례 쓴맛을 본 넷플릭스도 국내 'OTT 예능' 시장에 재도전장을 내민 것이다. 쿠팡플레이의 주요 콘텐츠인 스포츠 분야에도 점차 넷플릭스의 그림자가 드리우기 시작했다. '넷플릭스 천하'였던 국내 OTT 시장에 경쟁의 기운이 감도는 가운데, 쿠팡플레이는 과연 모회사 쿠팡이 쌓아 올린 성장 노선을 따라 넷플릭스에 위협을 가할 수 있을까.
예능·스포츠로 발 뻗는 넷플릭스
넷플릭스는 2019년 <킹덤>을 시작으로 <스위트홈>, <오징어게임>, <마스크걸>, <이두나!> 등 흡입력 있는 오리지널 드라마를 선보이며 이용자를 끌어모았다. 매력적인 오리지널 드라마를 주기적으로 출시하며 국내 OTT 시장의 정점에 선 것이다. 하지만 시장의 독재자인 넷플릭스도 '굴욕'을 겪은 분야가 있다. 바로 오리지널 예능이다.
넷플릭스가 2018년 5월 선보인 예능 프로그램 <범인은 바로 너!>는 유재석, 김종민, 이광수 등 국내 인기 방송인을 전면에 내세워 기대를 샀으나, 공개 후 시청자의 혹평을 받으며 미적지근하게 마무리됐다. 쓴맛을 본 넷플릭스는 이후 <박나래의 농염주의보>, <유병재: B의 농담>, <이수근의 눈치코치> 등 유명 방송인을 앞세운 스탠딩 코미디 형식의 예능 쇼를 꾸준히 선보였지만, 모두 국내에서 크게 흥행하지는 못했다. 문제는 넷플릭스가 한국 시청자의 '감성'을 캐치하지 못한 데 있었다.
이후 넷플릭스는 데이트 프로그램 <솔로지옥> 시리즈로 한국 시청자의 민심을 돌리는 데 성공했다. 특히 <솔로지옥> 시즌2는 지난해 12월 넷플릭스 글로벌 랭킹 6위에 오르는 등 흥행에 성공하며 올해 1월 성황리에 종영했다. 기세를 틈타 넷플릭스는 오는 28일 코미디 프로그램 <코미디 로얄>을 방영할 예정이다. <코미디 로얄>은 이경규를 비롯한 20여 명의 인기 코미디언들이 동시에 출연해 웃음 대결을 벌이는 형식의 예능 쇼다.
이에 더해 넷플릭스는 쿠팡플레이의 주력 콘텐츠인 '스포츠' 분야에도 발을 뻗고 있다. 오리지널 골프 다큐멘터리 시리즈 <풀스윙>을 선보이며 골프 팬들을 사로잡은 것이 대표적인 예다. 이후 넷플릭스는 스포츠 생중계 분야에 진출하지 않겠다는 기존 입장을 철회, 애드버타이징 위크 뉴욕(Advertising Week New York) 2023 행사에서 골프 토너먼트인 '넷플릭스 컵(Netflix Cup)'을 개최 및 생중계한다고 밝히기도 했다.
쿠팡플레이, 넷플릭스 '빈틈' 파고들어 급성장
넷플릭스의 '예능 빈틈'을 파고든 것은 쿠팡플레이의 <SNL 코리아>였다. 2021년 9월 공개된 코미디 프로그램 <SNL 코리아> 시리즈는 쿠팡플레이가 이름을 알리는 발판 역할을 수행했고, 이후 시즌4까지 순항하며 쿠팡플레이의 '효자 프로그램'으로 거듭났다. 게스트로 출연한 유명 연예인들의 우스꽝스러운 모습, <SNL 코리아> 시리즈 특유의 사회 풍자 등이 국내 시청자의 시선을 사로잡은 것이다.
이에 더해 쿠팡플레이는 락인 효과(특정 플랫폼이 독점적인 지위를 확립해 이용자 이탈을 막는 현상)가 확실한 스포츠 생중계 분야에 힘을 쏟으며 '콘크리트 구독자'를 빠르게 확보해 왔다. 넷플릭스의 영향력이 채 미치지 않는 예능과 스포츠 시장은 결국 쿠팡플레이 성장의 열쇠가 됐다. 올해 8월 쿠팡플레이는 월간활성이용자수(MAU) 563만 명을 기록, 티빙(540만 명)을 누르고 국내 2위 자리에 올라섰다. 1위 넷플릭스를 바짝 뒤쫓으며 '토종 OTT 1위' 칭호를 거머쥔 것이다.
사진=쿠팡플레이
이처럼 예능과 스포츠로 중무장한 쿠팡플레이는 모회사 쿠팡과 유사한 '업계 독주' 전철을 밟고 있다. 쿠팡은 유통업계 전체가 소비 침체로 고전한 올 3분기에 매출 8조원을 넘기며 5분기 연속 흑자를 달성했다. 올해 첫 연간 흑자 달성과 함께 신세계, 롯데를 넘어선 국내 유통 업계 1위에 등극할 것으로 전망된다. 진입 장벽을 낮추고 다양한 상품을 제공하며 이용자를 확보하는 성장 전략이 빛을 발한 것이다.
쿠팡플레이 역시 유사한 성장 전략을 채택하고 있다. 쿠팡플레이는 와우 멤버십에 포함된 '조건부 무료' 혜택으로, 기존 이커머스 서비스를 이용하는 와우 회원들의 진입 장벽이 상당히 낮은 편이다. 손쉽게 이용자 풀을 확보한 쿠팡플레이는 스포츠와 예능 등 국내 소비자에게 친숙한 콘텐츠를 제공, 순식간에 토종 OTT 1위 자리까지 올랐다. 쿠팡 특유의 '고속 성장' 기조가 쿠팡플레이에도 고스란히 녹아 있다는 의미다.
쿠팡 '계획된 적자' 전략의 전승, 넷플릭스와 본격 경쟁하나
쿠팡을 키운 '계획된 적자' 전략이 쿠팡플레이로 계승되는 정황도 포착됐다. 쿠팡은 2014년 로켓배송 시행 이후 6조원에 가까운 적자를 기록했지만, 모든 적자는 계획된 것이라는 주장을 펼치며 사업을 이어왔다. 실제 쿠팡은 지난해 누적 적자를 벗어던지고 흑자 전환에 성공한 바 있다. 적자를 내며 대규모 회원을 확보해 시장 점유율을 확대하고, 이를 기반으로 규모의 경제를 이루는 계획된 적자 전략의 효과를 입증한 것이다.
업계에서는 쿠팡이 OTT를 비롯한 신사업 육성에도 이 같은 전략을 적용하고 있다는 분석이 제기된다. 쿠팡의 3분기 영업이익 규모는 직전 분기 1억 달러(약 1,300억원)에서 약 40%가량 감소했다. 쿠팡플레이, 쿠팡이츠 등 신사업 부문의 적자가 급증한 영향이다. 조정 상각전영업이익(EBITDA) 기준 신사업 부문의 손실은 전년 대비 2.6배 폭증했다. 흑자 전환 이후 이익 규모 확대에 집중하던 쿠팡이 재차 적자를 감수한 '사업 성장'에 힘을 쏟기 시작한 것이다.
쿠팡의 '도전장'에 업계는 공포에 떨고 있다. 쿠팡은 더 이상 황무지를 '개척'하는 입장이 아니다. 핵심 사업인 커머스 부문의 안정적인 수익을 기반 삼아 투자를 확대하고 있다는 의미다. 마음만 먹으면 커머스 부문의 막대한 트래픽을 활용해 엄청난 투자 효율을 뽑아낼 수도 있다. 쿠팡플레이는 쿠팡이라는 든든한 지원군을 등에 업고 본격적인 시장 질주를 준비하고 있는 셈이다.
현재 국내 OTT 시장에서 넷플릭스의 영향력은 절대적이다. 공정거래위원회에 따르면 지난 6월 기준 넷플릭스의 국내 OTT 시장 점유율은 38%에 달한다. 토종 OTT가 좀처럼 넘볼 수 없는 수치다. 하지만 쿠팡플레이는 넷플릭스의 그림자에 주저하지 않고 달리며 본격적으로 '정상'을 노리고 있다. 넷플릭스가 쿠팡플레이의 '주력 분야'에 침투하며 본격적인 경쟁이 시작된 가운데, 업계에서는 차후 시장 판도 변화에 촉을 곤두세우고 있다.
Picture
Member for
8 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
"샘 알트먼 돌아왔다" 오픈AI 이사회, 직원 반발에 알트먼 해임 닷새 만에 CEO 복귀 결정
Picture
Member for
8 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
입력
수정
오픈AI의 갑작스러운 해임 발표, 직원·투자자 "알트먼 복귀해라" 항의
MS까지 가세해 복귀 압박, 결국 일주일도 안 돼 알트먼 CEO 복귀
이사회의 수익화 시도 결국 좌절, 향후 국내서도 VC 주도 이사회가 역풍 맞을 가능성도
샘 알트먼 오픈AI 공동창업자가 최고경영자(CEO) 자리를 되찾았다. 알트먼의 복귀를 촉구하는 오픈AI 투자자와 직원들의 목소리에 결국 이사회가 뜻을 꺾은 것이다. 지난 17일(현지시간) 오픈AI 이사회의 급작스러운 퇴출 발표 후 닷새 만이다. 혼란을 틈타 대주주인 마이크로소프트(MS)는 오픈AI에 경영 구조 변화를 요구, 본격적으로 입김을 넣겠다는 뜻을 드러내고 나섰다.
돌아온 샘 알트먼, MS는 "경영 구조 문제 있다"
오픈AI는 22일 알트먼의 해임을 결정한 이사회의 부분적 재구성 및 알트먼의 CEO직 복귀 소식을 전했다. 오픈AI는 이날 소셜미디어(SNS) 엑스(옛 트위터) 공식 계정을 통해 "새로운 이사회 구성원 브렛 테일러(의장, 전 세일즈포스 공동 CEO), 래리 서머스(전 미국 재무부 장관) 그리고 애덤 단젤로(쿼라 CEO, 기존 의사회 구성원)와 함께 알트먼의 CEO직 복귀에 합의했다"고 밝혔다. 알트먼의 해고에 앞장섰다가 이후 태세를 전환한 일리야 수츠케버 수석 과학자 등 기존 이사 3명의 거취는 언급하지 않았다.
알트먼도 엑스를 통해 오픈AI의 복귀를 알렸다. 그는 "나는 오픈AI를 사랑한다. 지난 며칠 동안 내가 한 모든 일은 이 팀(오픈AI)과 그 사명을 함께 지키기 위한 것이었다"고 밝혔다. 이어 "일요일(19일) 저녁 MS에 합류하기로 했을 때, 그것이 저와 팀을 위한 최선의 길이라는 것이 분명했다"며 "새로운 이사회와 사티아(나델라 MS CEO)의 지원으로 다시 오픈AI로 돌아와 MS와 강력한 파트너십을 구축할 수 있기를 기대한다"고 적었다.
오픈AI의 대주주인 MS는 본격적인 경영 방식 변화를 요구할 것으로 전망된다. 지금까지 오픈AI는 인류 전체를 위한 인공지능(AI)을 개발하겠다며 외부 투자자들의 경영 참여를 일체 허용하지 않았다. 하지만 사티야 나델라 MS CEO는 MS가 오픈AI 이사진의 결정에 관여할 수 없는 점에 대해 "좋지 않다. 변화가 필요하다는 점에는 절대적으로 동의한다"고 발언, 차후 오픈AI 경영에 관여하겠다는 뜻을 내비쳤다.
급작스러운 해고에 폭발적 항의 이어져
오픈AI 이사회는 지난 17일 '경영 능력을 확신할 수 없고, 소통에 솔직하지 않았다'는 이유로 알트먼의 해임을 결정했다. 대주주인 MS마저 발표 직전에야 소식을 접할 만큼 갑작스러운 해고였다. 이에 공동창업자인 그렉 브록만은 항의 표시로 즉각 사임했고, 수석 연구원 3명도 즉시 퇴사한 것으로 알려졌다. 이사회는 이후 미라 무라티 최고기술책임자(CTO)가 임시 CEO직을 맡게 된다고 설명했다.
이사회의 해임 발표에 오픈AI 직원들은 강력하게 반발했다. 알트먼과 브룩먼이 새로운 AI 연구팀을 이끌기 위해 MS에 합류할 것이라는 소식까지 전해지자, 이들과 함께 MS로 이직하겠다는 으름장을 놓기도 했다. 이사회의 퇴진 및 알트먼의 복귀를 요구하는 연판장에 서명한 직원은 오픈AI 전체 임직원의 95%에 달한다. 쓰라이브캐피털, 코슬라벤처스, 타이거글로벌매니지먼트 등 오픈AI의 투자자 역시 알트먼의 복귀를 요구하며 오픈AI에 압박을 가했다.
대주주인 MS까지 '알트먼 복귀' 주장에 가세했다. 알트먼을 따라 MS로 이직하겠다고 주장하는 오픈AI 직원들을 기꺼이 수용하겠다는 뜻을 내비친 것이다. 이에 더해 MS는 공개적으로 오픈AI 지배 구조의 문제점을 언급하고, 관련 개선 사항을 오픈AI 측에 요구하기도 했다. 예상외의 격렬한 항의가 이어지자 오픈AI 이사회 측은 결국 닷새 만에 백기를 들었고, 알트먼은 오픈AI CEO 자리를 되찾았다.
'이사회 멋대로' 스타트업 경영진 퇴출, 녹록지 않다
스타트업계는 이번 사건을 두고 수익화를 시도하려는 이사회와 연구 기업으로 운영하려는 직원들 간의 갈등으로 이해하고 있다. 그간 오픈AI 경영진과 이사회 양측은 수익보다 기술 개발 및 회사 홍보에 초점을 맞추는 것에 동의해 왔다. 하지만 이사회 측은 최근 들어 태세를 전환, 챗GPT를 비롯한 오픈AI 서비스의 '수익화'에 힘을 싣기 시작했다. 지난 14일부터 챗GPT 플러스의 신규 가입자 가입을 차단하고, GPT-4 등의 가격을 인상한 것이 대표적인 예다. 업계는 이 같은 이사회의 수익화 움직임에 알트먼을 포함한 대부분의 직원들이 반발했다고 보고 있다.
연구 기업으로 출발한 스타트업이 경영과 연구 사이에서 갈등하는 사례는 생각보다 쉽게 찾아볼 수 있다. 갈등이 이어지다가 결국 기존 경영진이 퇴출되고, 이사회가 새로운 CEO를 임명하는 경우도 많다. 지난 1985년 애플의 창업자인 스티브 잡스가 같은 방식으로 퇴출됐으며, 최근 한국에서는 메쉬코리아의 창업자 유정범 전 대표가 투자자들의 결정에 따라 결국 자리에서 내려오기도 했다. 익히 알려진 대로 잡스는 새로운 사업을 창업해 결국 애플에 복귀했고, 유정범 전 대표는 현재 로칼(LOEKAL)에서 물류 및 이커머스 전문가들과 새로운 하이퍼 로컬 플랫폼을 기획 중이다.
이번 오픈AI의 ‘알트먼 퇴출 사태’는 이사회의 독단에 따른 수익화 압박이 직원과 투자자의 ‘반발’을 이길 수 없다는 사실을 보란 듯 입증한 셈이다. 이에 일각에서는 국내 VC들이 차후 이사회에서 대표이사를 퇴출시키는 선택을 할 경우, 오픈AI의 이번 선례를 고려할 것이라는 해석이 제기된다. 역량을 갖춘 인재들이 모인 기업의 대표이사가 자본의 논리에 따라 퇴출될 경우, '내부 반란'에 대한 우려를 무시할 수 없을 것이라는 분석이다.
Picture
Member for
8 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.
입력
수정
NH투자증권, AI 자동투자 서비스 콴텍에 통 큰 투자
'비용 절감에 수익률 확대까지', RA 선호도↑
독보적 위험관리 시스템으로 시장 선도 노린다
인공지능(AI) 자동 투자 서비스 기업 콴텍이 90억원 규모의 시리즈 C 라운드 투자 유치에 성공했다고 22일 밝혔다. NH투자증권의 이번 투자로 콴텍의 총 누적 투자 유치 규모는 283억원을 기록했다.
퇴직연금 RA 시장 확대 나선다
로보어드바이저(Robo-Advisor, RA) 기반의 비대면 투자일임 서비스를 제공하는 콴텍은 증권사 프랍트레이더로 활동하던 이상근 대표의 ‘자산관리는 고액 자산가들뿐 아니라 일반 소규모 투자자들에게도 제공될 수 있어야 한다’는 생각에서 2016년 설립됐다. 설립 후 줄곧 개별주식과 상장지수펀드(ETF)로 알고리즘 매매를 할 수 있는 프로그램 개발에 주력한 콴텍은 개인화 자산관리 솔루션 큐엔진(Q-Engine), 위험관리 시스템 큐엑스(Q-X) 등을 연이어 선보이며 적극적으로 사업을 전개했다.
사업 초창기 기업 간 거래(B2B) 시장의 투자자문을 중심으로 성장한 콴텍은 지난해 모바일 애플리케이션(앱)을 선보이며 기업 대 소비자(B2C) 시장으로 영역을 넓혔다. 콴텍 앱은 출시 1년 만에 누적 다운로드 60만 건을 돌파하며 빠르게 인지도를 쌓았다. 올해 4월 기준 관텍 고객의 80%가 수익을 냈으며, 앱 출시 이후 1년간 최대 수익률은 32.8%다.
NH투자증권은 콴텍의 △다양한 소비자 성향에 맞춘 폭넓은 전략 △우수한 수익률 △독자적 위험관리 시스템 등을 높게 판단해 투자를 결정했다고 전해진다. 양사는 그동안 함께 전개해 온 퇴직연금 RA 시장을 위한 디지털 운용 개발 등에 속도를 높일 방침이다. 정영채 NH투자증권 사장은 “지금은 정부의 퇴직연금 운용 고도화를 비롯해 금융계의 디지털 전환 의지가 매우 강한 시기”라고 진단하며 “이와 같은 시기에 고객 서비스를 다양화하고 궁극적으로는 고객가치를 극대화하기 위해 콴텍을 파트너로 선택했다”고 밝혔다.
콴텍은 이번 투자를 기반으로 자사의 RA 역량을 금융 플랫폼에 탑재해 퇴직연금, 비대면 하이브리드 자산관리에서 차별화된 고객 서비스를 제공한다는 계획이다. 이상근 콴텍 대표는 “오랜 시간 축적해 온 알고리즘 개발 능력과 성장 가능성을 인정받아 대규모 투자 유치에 성공했다”며 “이번 투자자인 NH투자증권 외에도 많은 기업이 관심을 보이고 있어 연내 시리즈 C 클로징이 기대되는 상황”이라고 전했다.
주관적 개입 최소화, 장기적 수익 노리는 'RA'
NH투자증권과 콴텍의 동행은 최근 RA 관련 기업들과 업무협약(MOU)을 체결하고 지분투자를 진행하는 등 AI 역량 강화에 주력하고 있는 증권 업계의 움직임과 일맥상통한다. AI 신기술에 대한 관심이 사회 전반으로 퍼지면서 방대한 데이터를 통합·분석하는 능력을 투자에 적용해 수익 극대화를 기대하는 투자자가 급증했기 때문이다.
AI 투자일임 서비스 핀트 운영사 디셈버앤컴퍼니, RA 전문기업 파운트와 손잡고 모바일 트레이딩 시스템(MTS) 내 AI 투자일임 서비스 확대에 나선 KB증권이 대표적 예다. KB증권은 이번 협력으로 투자자의 개별 성향과 시장 상황에 따라 포트폴리오를 구성하고 자동으로 투자하는 핀트의 AI 투자 전략 엔진 아이작을 활용할 수 있게 됐으며, 파운트와는 글로벌 ETF에 자동으로 투자하는 서비스를 출시할 방침이다.
SK증권도 최근 알파브릿지와 MOU를 체결해 AI 기반 포트폴리오 분석 서비스를 제공한다. 알파브릿지는 에셋플러스자산운용이 전액 출자해 설립한 자회사로, AI 기술을 활용한 투자 플랫폼 탱고픽을 운영 중이다. 이번 협약으로 양사는 챗GPT 기반 AI 투자비서, AI 포트폴리오 등 다양한 서비스를 내년 상반기 중 선보일 계획이다.
신한투자증권도 최근 AI 스타트업 웨이커와 클라우드 기술 기반 오픈 플랫폼 개발 MOU를 체결했다. 웨이커는 런던증권거래소그룹(LSEG)과 AI 데이터 서비스에 관한 독점 실증 계약 등 인공지능과 데이터 기술을 보유한 기업으로, 양사는 적극적인 협업을 통해 오픈 플랫폼 론칭을 기획 중이다. 증권 업계의 적극적인 AI 도입과 관련해서 한 관계자는 “AI 투자는 룰베이스(Rule-based) 알고리즘으로, 사람의 개입이 최소화돼 동일한 방식으로 장기간 꾸준히 운용할 수 있다는 점에서 높은 수익률이 기대된다”며 “펀드 운용비용과 인건비 등을 대폭 줄일 수 있다는 점도 증권사들이 관련 서비스를 앞다퉈 도입하려는 배경”이라고 설명했다.
“AI 자동투자 서비스 확대는 지금부터”
독보적인 서비스를 제공하려는 RA 서비스 기업들과 증권 업계의 경쟁이 치열해진 가운데 콴텍은 자사의 강점으로 ‘위험관리 시스템’을 꼽았다. 콴텍의 위험관리 모델 큐엑스는 시장의 이상 현상을 감지하면 투자 항목 내 위험자산의 비중을 두 단계에 걸쳐 현금화하고, 이를 통해 포트폴리오의 변동성을 방어하는 특징이 있다. 실제로 지난해 증시에 큰 영향을 준 우크라이나 사태 직전 이를 감지해 위험자산을 대폭 정리하고 현금자산을 확대하기도 했다.
이 대표는 “지금까지 판매자 중심이던 금융투자의 흐름을 깨기 위해 노력하고 있다”며 “팬데믹 후 하락장이 조금씩 회복되는 가운데 각종 지수가 전고점을 돌파하는 시점에는 콴텍을 비롯한 AI 자동투자 서비스들이 더 주목받을 것으로 기대하고 있다”고 전했다. 이어 “아직 가야 할 길이 멀지만, 투자자 중심의 시장을 앞당기는 데 일조하도록 노력하겠다”고 밝혔다.
Picture
Member for
8 months 2 weeks
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.
[email protected]
미디어의 영향력을 무겁게 인지하고 있습니다. 예리한 시각과 분석력을 바탕으로 공정하고 신뢰할 수 있는 정보만을 전달하겠습니다.
입력
수정
AI 대체 가능성 높은 상위 20% 국내 일자리 약 341만 개로 추정
‘AI 노출지수’, 일반의사·한의사 가장 높고 기자·성직자·교수는 낮게 나타나
AI에 많이 노출된 일자리가 고용 비중 감소 및 임금 상승률 낮을 것
출처=한국은행
20년 안에 일자리 약 400만 개가 인공지능(AI)으로 대체될 가능성이 크다는 연구 결과가 나왔다. 특히 인지적이고 분석적인 업무를 하는 의사·변호사·회계사 등 고소득 전문직의 AI 대체 위험이 가장 크다는 분석이다. 반면 사회적 기술이나 의사소통 능력이 중요한 성직자·대학교수·기자 등은 AI 대체 가능성이 낮은 것으로 나타났다.
고학력·고소득 근로자일수록 AI에 더 많이 노출
20일 한국은행이 발간한 'AI와 노동시장 변화' 보고서에 따르면, AI 노출지수 상위 20%에 달해 대체 가능성이 큰 일자리는 전체 일자리의 12%에 해당하는 약 341만 개로 추산됐다. 임계점을 상위 25%로 확대할 경우 약 398만 개(전체의 14%)로 늘어난다. 노출 지수는 현재 AI 기술로 수행할 수 있는 업무가 해당 직업의 업무에 얼마나 집중돼 있는지를 나타낸 수치다.
출처=한국은행
먼저 임금과 학력 수준별로 보면, 고학력·고소득 근로자일수록 AI에 더 많이 노출돼 있다. 이는 저학력(고졸 이하) 및 중간 소득 근로자에게 큰 영향을 미쳤던 산업용 로봇이나 소프트웨어 기술과 가장 차별화되는 지점이다. AI가 비반복적·인지적(분석) 업무를 대체하는 데 적합하기 때문에 고학력·고소득 일자리의 AI 대체 위험이 상대적으로 더 크게 나타나는 것으로 보인다고 한은은 분석했다.
성별로 보면 남성 일자리의 AI 노출 지수가 여성 일자리에 비해 다소 높게 나타났다. 산업용 로봇이나 소프트웨어 기술과 마찬가지로 남성 일자리가 AI 기술에 더 많이 노출돼 있는데, 이는 AI 노출 지수가 낮은 대면 서비스업에 상대적으로 많은 여성이 종사하고 있기 때문이다. 한편 연령별로는 AI 노출 지수가 뚜렷한 차이를 보이지 않았다.
산업별로 보면 정보통신업, 전문과학기술, 제조업 등 고생산성 산업을 중심으로 AI 노출 지수가 높게 나타났다. 실제로 최근 정보통신업의 무선 네트워크, 제조업의 장비·모니터링 솔루션 등에 AI 기술이 광범위하게 활용되고 있다.
출처=한국은행
AI 노출 지수가 높은 직업을 세부적으로 살펴보면 일반 의사와 한의사가 상위 1% 이내로 최상위권에 들었다. 전문 의사(7%), 회계사(19%), 자산운용가(19%), 변호사(21%) 등도 상위권이었다. 한은은 최근 AI 관련 특허 중 의학산업 분야가 많아져 단순 진단 등의 일부 의사 업무는 AI 대체 가능성이 높은 것으로 나타났다고 전했다.
이 밖에도 한국표준직업 분류상의 소분류 기준, AI 노출 지수가 높은 일자리에는 화학공학 기술자, 발전장치 조작원, 철도 및 전동차 기관사, 상하수도 처리 장치 조작원, 재활용 처리 장치 조작원, 금속 재료공학 기술자 등이 미래에 AI로 대체될 확률이 높은 것으로 나타났다. 이러한 일자리들은 대용량 데이터를 활용해 업무를 효율화하기에 적합하다는 특징이 있다.
대면 및 관계 형성 중요한 일자리는 대체 위험 낮아
반면 대면 접촉 및 관계 형성이 중요한 일자리는 AI 노출 지수가 낮게 나타나는 경향이 있는 것으로 분석됐다. AI 노출 지수가 낮은 직업으로는 음식 관련 단순 종사자, 상품 대여 종사자, 종교 관련 종사자, 식음료 서비스 종사자, 운송 서비스 종사자 등이 제시됐다.
구체적으로 기자(86%), 서비스 종사원(87%), 성직자(98%) 등이 상위권에 꼽혔으며, 대학교수(99%), 가수나 경호원(하위 1% 이내) 등은 최상위권에 들었다. 특히 기자의 경우 AI가 주어진 정보로 기사 작성은 할 수 있으나, 대면 취재 업무 및 분석 업무까지는 대체할 수준이 아니기 때문에 AI 대체 지수가 낮게 나온 것으로 보인다고 설명했다.
AI가 노동시장에 미칠 영향
AI가 노동시장에 미칠 잠재적 영향을 종합해 보면, AI 노출 지수가 높은 일자리일수록 고용이 줄어들고 임금 상승률도 낮아질 가능성이 큰 것으로 예상된다. 이는 지난 20년간 산업용 로봇 및 소프트웨어 노출 지수가 높은 일자리의 고용 비중과 임금 상승률이 낮아진 결과에 기반한다. 구체적으로 AI 노출 지수가 10퍼센타일(percentile) 높을 경우, 향후 20년간 해당 일자리의 고용 비중은 7%p 줄어들고, 임금 상승률은 2%p 낮아질 것으로 예상해 볼 수 있다.
다만 한은은 AI와 같은 새로운 기술은 신규 일자리를 창출하기도 하지만 기존 일자리를 대체하기도 한다고 분석했다. 그러면서 기존 일자리 내에서도 업무를 수행하는 방식에 큰 변화가 나타날 수 있는 만큼 이러한 변화에 적응하기 위해서는 적절한 교육 및 직업훈련을 통해 필요한 숙련도를 유지하는 것이 한층 더 중요하다고 덧붙였다.
아울러 AI가 도입과 동시에 근로자들에게는 기존과 다른 능력이 요구될 것으로 내다봤다. 물론 STEM(과학·기술·공학·수학) 기술에 대한 수요는 여전히 견고할 것으로 예상되나, 이와 더불어 소프트 스킬에 대한 수요도 크게 늘어날 것으로 전망했다. AI는 반복적 업무뿐만 아니라 기존 기술로는 한계가 있는 인지적 업무까지 대체할 수 있다는 점에서 사회적 기술, 팀워크 능력, 의사소통 능력과 같은 소프트 스킬이 앞으로 더 많은 보상을 받을 가능성이 크다는 설명이다.
Picture
Member for
8 months 2 weeks
Real name
임선주
Position
기자
Bio
[email protected]
미디어의 영향력을 무겁게 인지하고 있습니다. 예리한 시각과 분석력을 바탕으로 공정하고 신뢰할 수 있는 정보만을 전달하겠습니다.
Professor of AI/Data Science @SIAI
Senior Research Fellow @GIAI Council
Head of GIAI Asia
입력
수정
영국 에너지 기업 코리오제너레이션 & BP, 런던서 투자신고서 제출
코리오의 ‘차세대 해상풍력 프로젝트’, 넷제로 달성의 중추적 역할 수행
에퀴노르·오스테드 등도 국내 시장 진출, 향후 폭발할 잠재력에 기대
영국 에너지기업 두 곳이 우리나라 해상풍력 개발 사업에 총 11억6,000만 달러(약 1조5,000억원)를 투자한다. 이번 투자는 윤석열 대통령의 영국 국빈 방문 중에 결정됐다. 정권 교체와 함께 입지가 흔들리고 있는 태양광과 다르게 해상풍력은 윤 정부가 적극적으로 시장 육성을 공약한 만큼 향후 전망이 밝은 상황이다. 국내 해상풍력 시장에 진출한 글로벌 기업들이 우리 정부 정책에 기대를 품고 있는 가운데, 향후 본격적인 사업 추진에도 이목이 쏠린다.
이번 투자로 해상풍력 '트랙 레코드' 확보 전망
산업통상자원부는 22일(현지시간) 영국 런던에서 영국 에너지 기업 코리오제너레이션(이하 코리오)와 브리티시 페트롤리엄(BP)이 총 11억6,000만 달러(약 1조5,000억원) 규모의 한국 투자를 확정하고 투자신고서를 제출했다고 밝혔다. 산업부는 영국 에너지 기업이 우리나라의 해상풍력 발전단지를 개발하면서 타워 구조물, 터빈, 전력 케이블 등 해상풍력 핵심 기자재를 제작하는 국내 기업을 활용할 것으로 기대했다. 특히 우리나라 해상풍력 하부구조물 기업은 세계적으로 경쟁력을 갖춘 것으로 평가받는데, 이번 투자로 해상풍력 '트랙 레코드'를 확보할 것으로 전망된다.
산업부는 또 해상풍력 발전단지 유지·보수사업에 지역기업·인력이 참여하면서 해상풍력 발전단지 인근 지역 경제 활성화, 일자리 창출에도 기여할 것으로 내다봤다. 두 기업의 투자로 2030년에 목표한 해상풍력 발전용량 가운데 20%가 넘는 부분을 충당할 수 있게 됐다. 방문규 산업부 장관은 “이번 투자는 탄소중립 선도 국가인 영국과 무탄소에너지 협력이 강화되고 있음을 보여준다”며 “큰 잠재력을 가지고 있는 우리 해상풍력 산업 생태계 발전에 도움이 되길 기대한다”고 말했다.
코리오 “한국 해상풍력 사업에 박차”
코리오는 해상풍력 사업 투자·개발·운영을 전담하기 위해 설립된 글로벌 전문기업으로, 영국 정부가 세계 최초로 설립한 녹색투자은행(GIB)이 전신이다. 현재 코리오는 파트너 기업들과 해상풍력 사업의 발굴, 개발, 건설 및 운영에 이르기까지 긴밀하게 협력하고 있다. 코리오가 추진하는 30GW(기가와트) 규모 이상의 해상풍력 개발 포트폴리오는 기존 및 신흥 시장 전반에 걸쳐 있으며, 고정식과 부유식 기술을 망라하는 세계 최대 규모의 파이프라인 중 하나로 손꼽힌다. 이러한 차세대 해상풍력 프로젝트는 넷제로 달성을 위한 글로벌 에너지 시스템 형성에 중추적 역할을 수행할 것으로 기대되고 있다.
우리나라에선 토탈에너지스, SK에코플랜트와 함께 해상풍력 합작 사업 포트폴리오인 '바다에너지'를 설립, 울산·전남 바다에 부유식·고정식 해상풍력 사업을 개발 중이다. 현재 바다에너지는 울산항에서 약 60km 떨어진 배타적 경제수역(EEZ)에 원자력발전소 1기와 맞먹는 규모(1.5GW)의 부유식 해상풍력 발전단지 개발 프로젝트(귀신고래 1,2,3호)를 추진하고 있어 이번 코리오의 대규모 투자계획 발표로 해당 프로젝트 추진에도 속도가 붙을 것으로 보인다. 귀신고래 1,2,3호는 빠르면 오는 2025년부터 단계적으로 착공해 2028년 상업 운전개시(COD)를 목표로 하고 있으며, 3단계까지 완공되면 세계 최대 규모의 부유식 해상풍력발전단지 가운데 하나가 될 전망이다.
코리오는 지난 5월 대우건설과 부산 해상풍력 개발을 위한 업무협약을 체결한 바 있으며, 최근에는 한∙영 해상풍력 공급망 기업 협력 워크샵을 후원하는 등 해상풍력을 통한 지역 경제 활성화를 위해 꾸준히 노력하고 있다. 최우진 코리오 한국 총괄 대표는 “전 세계 탄소중립 목표를 위해 2050년까지 건설해야 하는 해상풍력 사업의 규모는 2,000GW고 이를 현재 기준 사업비로 환산하면 약 1경2,000조원”이라며 “이번 투자를 통해 한국 해상풍력 사업에 박차를 가해 국내 파트너들과 기술 국산화 및 공급망 구축에 힘쓰겠다”고 강조했다.
글로벌 해상풍력 기업들의 러브콜
글로벌 해상풍력 기업들의 국내 시장 진출이 이번이 처음은 아니다. 노르웨이의 국영 에너지기업이자 글로벌 부유식 해상풍력 선두기업으로 꼽히는 에퀴노르는 지난 6월 투자 신고식을 진행하고, 현재 울산 동쪽 해상에서 부유식 해상풍력단지 동해1(200MW·메가와트)과 반딧불(804MW) 발전소 사업을 허가받아 개발하고 있으며, 추자도에서도 해상풍력 개발을 추진 중이다. 이 중 반딧불 프로젝트는 울산 앞바다 150㎢ 넓이 해역에 800MW 규모의 반잠수식 해상풍력 발전단지를 건설하는 것으로, 오는 2028년에서 2029년 시운전을 목표로 한다. 에퀴노르가 이미 세계 첫 부유식 해상풍력단지인 하이윈드 스코틀랜드와 세계 최대 규모의 하이윈드 탐펜을 운영하며 부유식 해상풍력 부문에서 독보적인 위치를 확보했다는 점에서 반딧불 프로젝트에 국내외의 많은 관심이 모이고 있다.
지난해 1월에는 덴마크 해상풍력 개발업체인 오스테드가 한국전력 산하의 발전자회사인 남부발전·중부발전과 800MW 규모의 인천시 옹진군 해상풍력단지 개발 MOU(양해각서)를 각각 체결했으며, 주민참여형 해상풍력 추진을 위한 지역 주민 대상 설명회, 지역 기업에 잠재 기회를 소개하는 공급망 행사 개최 등 다양한 활동을 펼치고 있다. 이와 더불어 1.6GW 규모의 인천 해상풍력발전 사업도 적극 추진 중이다.
글로벌 풍력 기업들이 국내 해상풍력 시장에 진출, 활발한 움직임을 보이고 있는 이유는 향후 폭발할 잠재력에 기대를 걸고 있기 때문이다. 우리 정부는 지난 1월 발표한 ‘제10차 전력수급기본계획’을 통해 2021년 7.1%인 풍력발전 등 재생에너지 비중을 2036년 28.9%까지 확대하기로 했다. 이를 위해 현재 1.8GW 규모인 풍력발전 설비를 2036년까지 20배 증가한 34GW 수준까지 늘린다는 계획이다. 해당 목표를 달성하기 위해선 풍력발전 설비를 현재 연간 설치 규모보다 매년 10배 넘게 늘려야 하며 2030년까지는 매년 2.2GW(국내 원전 약 2기 설비 용량) 규모의 신규 설비가 필요하다.
이렇듯 정권이 바뀌자마자 천덕꾸러기 신세가 된 태양광과 달리 해상풍력은 윤 정부가 적극적으로 드라이브를 걸고 있어 향후 기대치가 높은 상황이다. 실제로 윤 대통령은 올해 1월 스위스 다보스포럼에서의 세일즈 외교를 시작으로 글로벌 해상풍력 기업으로부터 잇단 투자 유치 성과를 올리고 있다. 이어 지난 9월에는 김두겸 울산시장이 이끄는 해외 사절단이 세계 최초 해상풍력 상용화 단지인 포르투갈의 윈드플로트 아틀란틱을 방문해 대주주 오션윈즈와 투자의향서(LOI)를 체결하는 등 훈풍이 불고 있어 새로운 모멘텀으로 작용할 여지가 클 것으로 전망된다.
Picture
Member for
8 months 2 weeks
Real name
Keith Lee
Bio
Professor of AI/Data Science @SIAI
Senior Research Fellow @GIAI Council
Head of GIAI Asia
[email protected]
흑백의 세상에서 회색지대를 찾고 있습니다. 산업 현장을 취재한 경험을 통해 IT 기업들의 현재와 그 속에 담길 한국의 미래를 전하겠습니다.
입력
수정
스타트업 M&A, 올해 10월까지 49건으로 저조
대기업과 빅테크, 유니콘 기업들이 투자 줄인 영향
지난달 '투자금액'도 침체기 절정이었던 1년 전보다 감소
올해 1월까지만 해도 돈줄이 막힌 스타트업들의 새로운 대안으로 떠올랐던 인수·합병(M&A)이 전년 대비 절반 이상 급감했다. 고금리 장기화 기조에 따른 경기 둔화를 우려해 스타트업 M&A 시장의 주요 역할을 해온 대기업과 빅테크, 유니콘(기업가치 1조원 이상 비상장기업) 기업들이 투자를 줄인 영향이다. 지난달 투자 유치마저 급감한 가운데 VC(벤처캐피탈) 업계에선 스타트업 시장의 투자 혹한기가 연말까지 지속될 것이란 암울한 전망이 나온다.
크게 위축된 M&A, 지난해보다 규모 큰 거래 아직 없어
22일 국내 스타트업 지원 기관 스타트업얼라이언스 조사에 따르면 올해 1월부터 10월까지 스타트업 M&A 건수는 전년 동기(106건) 대비 53.8% 감소한 49건으로 집계됐다. ‘제2의 벤처붐’이 일었던 2021년 57건으로 집계된 스타트업 M&A 건수는 이후 투자 시장 침체에 대안으로 떠오르며 지난해 126건으로 크게 늘어난 바 있다.
그러나 지난해 카카오게임즈가 1조2,041억원에 라이온하트를 인수한 이래 아직까지 눈에 띄는 M&A 딜이 나오지 않고 있다. 그나마 이커머스 플랫폼 큐텐이 위메프를 1,500억원에 인수한 것이 가장 큰 거래였고, 종합 비즈니스 플랫폼 리멤버 운영사인 드라마앤컴퍼니, 온라인 클래스 구독 플랫폼 클래스101, 배달전문업체 바로고 등 유니콘보다 몸집이 작은 스타트업들만 M&A에 적극적으로 나서고 있다.
스타트업 시장의 저조한 M&A 성과는 유니콘들의 활동이 위축되고, 대기업의 스타트업 인수 사례마저 크게 줄어든 영향이 컸다. 코로나19 팬데믹 당시 유니콘들은 막대한 유동성을 바탕으로 주변 스타트업을 인수하며 사업 확장에 나선 바 있다. 특히 컬리, 직방, 야놀자 등은 대기업의 일부 사업 부문까지 인수하며 몸집을 불렸지만, 현재 대다수 유니콘이 추가 투자 유치에 어려움을 겪는 상황인 것으로 알려졌다.
올해 대기업에 인수된 사례는 대형 엔터테인먼트 기업 하이브가 AI 오디오 서비스 수퍼톤을 450억원에 인수한 것이 비교적 규모 있는 거래로 꼽히며, 이 밖에 △AI 번역 서비스 보이스루(카카오픽에 200억원), △부동산 조각투자 카사(대신증권에 150억원) 등의 거래가 성사됐다.
지난 8일부터 10일까지 진행된 글로벌 스타트업 페스티벌 컴업(COMEUP) 2023 행사/사진=코리아스타트업포럼
'스타트업 투자 금액'도 지난달보다 절반 넘게 줄어
스타트업 투자 시장의 혹한기는 최근까지 계속되고 있다. 스타트업얼라이언스에 따르면 지난달 스타트업과 벤처기업의 총 투자금액은 지난 9월 투자금액(7,178억원)보다 4,229억원 줄어든 2,949억원으로 집계됐다. 지난해 10월 혹한기가 본격화됐을 때보다도 투자금액이 더 줄어든 셈이다.
업계는 올해 9월만 하더라도 시장 분위기가 반전될 것으로 내다봤다. 올해 9월엔 지난해 9월 투자 금액이 3,861억원에 불과했던 것과 달리 처음으로 85% 가까이 증가했기 때문이다. 그러나 인플레이션 지표의 둔화세가 약해지고 있는 데다, 그에 따른 고금리 장기화 및 중동의 지정학적 리스크 등의 악재가 겹치면서 시장의 혹한기가 좀처럼 물러가지 못하는 모양새다.
문제는 연말로 갈수록 시장 분위기가 더 나빠질 가능성이 높게 점쳐지고 있다는 점이다. 한 VC 관계자는 “지난해부터 이어온 고금리 기조 속 경제상황 악화 전망이 계속되면서 투자 시장 분위기도 크게 반전되긴 어려워 보인다”며 “특히 펀드 마무리 단계에 해당하는 4분기에는 보다 큰 폭으로 투자가 줄어들거나, 투자 반등이 나오긴 쉽지 않을 것”이라고 내다봤다. 국내 한 스타트업 창업자도 “시장의 혹한기 리스크 대비책으로 매출 다각화 전략, 흑자 사업 집중, 비용 절감, 정부지원사업 추진 등을 고려하고 있지만 오히려 지난해 보다 투자 유치가 힘겨운 상황”이라며 “이러한 침체에서 벗어나기 위해선 정부가 스타트업 생태계 활성을 위해 개인정보보호법이나 샌드박스 등 관련 규제 완화에 힘써줬으면 좋겠다”고 전했다.
Picture
Member for
8 months 2 weeks
Real name
이동진
Position
기자
Bio
[email protected]
흑백의 세상에서 회색지대를 찾고 있습니다. 산업 현장을 취재한 경험을 통해 IT 기업들의 현재와 그 속에 담길 한국의 미래를 전하겠습니다.
[email protected]
기사의 생명은 '신뢰성'이라고 생각합니다. 객관적이고 정확한 데이터를 기반으로 오류를 최소화하여 신뢰성 있는 기사를 제공하겠습니다.
입력
수정
높은 전기차 가격 및 부족한 충전 인프라, 성장세 주춤
이러한 과제 넘기 위한 기업 및 정부 노력 지속돼
다만 전기차 산업에 대한 VC 투자는 정체기 유지
지난해 전기차 판매량이 1,000만 대를 넘어서며 전기차 시대로의 본격적인 진입이 시작되는 듯했으나, 올해 들어 완성차 업체들이 전기차 판매 목표치 달성에 실패하는 등 그 기세가 주춤하고 있어 여전히 고질적인 과제들을 넘지 못한 것으로 나타났다.
고질적 과제: 전기차 가격과 충전 인프라
업계 전문가들에 따르면 전기차는 평균 비용이 여전히 높은 수준인 데다 충전 인프라가 충분치 않아 소비자들이 ‘주행 거리 불안(Range Anxiety)’을 떨쳐내지 못했다는 분석이다. 이러한 영향으로 VC(벤처캐피탈) 투자는 2020년과 2021년 최고치에 도달한 이후 둔화돼 올해 2분기까지도 정체기를 유지하고 있다.
다만 이같은 문제점들을 해결하기 위한 정부와 기업들의 노력은 계속 뒤따르고 있다. 여러 스타트업들이 전기차 비용을 낮추기 위한 기술과 소재 활용 방안을 개발 중이며, 설비 업체들은 충전 인프라를 확충하고 있다. 아울러 바이든 행정부는 산업 촉진 전략 예산으로 155억 달러(약 20조원)를 지정하는 등 미국 정부 또한 점점 더 치열해지는 중국과의 경쟁에서 승리하기 위해 적극적으로 개입하는 모양새다.
모빌리티 산업 맵(2023.6 기준), 주: 전기차(민트), 왼쪽 상단부터 순서대로 라스트마일 배송(이하 그레이), 승차공유, 자율주행, 자동차 판매업, 미래항공모빌리티(AAM), 마이크로모빌리티 등/출처=Pitchbook모빌리티 산업 맵 내 전기차 카테고리(2023.6 기준), 주: 소비자용 전기차 배터리(오렌지), 배터리 및 배터리 기술과 소재(네이비), 상업용 전기차 배터리(블랙), 그 외 전기 모빌리티(그레이), 전기차 충전(차콜) 등/출처=Pitchbook
거래 건수는 비슷, 거래 가치는 감소
글로벌 투자 전문 연구기관 피치북의 거래 및 엑시트(투자금 회수) 동향 보고서에 따르면 2분기에 전기차 스타트업은 29건의 거래에서 총 7억22만 달러(약 9,500억원)를 조달했다. 1분기 대비 거래 건수는 거의 변하지 않았고, 거래 가치는 16% 감소한 수치다. 전체 모빌리티 산업 또한 2분기에 234건의 거래가 발생하며 1분기와 거래 건수는 비슷한 수준을 유지했고, 거래 가치는 42억 달러(약 5조5,400억원)로 10.2% 감소하며 전기차 스타트업 동향과 같은 양상을 보였다.
모빌리티 산업에 대한 VC 분기 거래 동향(2023.6.30 기준), 주: 거래 가치(네이비), 거래 건수(민트)/출처=Pitchbook
최근 주목할 만한 거래로는 11월에 진행된 배터리 관리 기술에 중점을 둔 엘리먼트 에너지(Element Energy)의 7,300만 달러(약 963억원)에 이르는 시리즈 B 투자가 있다. 앞서 9월에는 리튬-황 배터리 개발사인 라이텐(Lyten)이 2억 달러(약 2,600억원) 규모의 시리즈 B 투자를 유치했으며, 프랑스의 배터리 셀 제조업체 버코(Verkor)는 약 9억2,535만 달러(약 1조 2,200억원) 규모의 시리즈 C 투자를 받은 바 있다.
모빌리티 산업에 대한 VC 연간 거래 동향(2023.6.30 기준), 주: 거래 가치(네이비), 당해년 거래 가치(민트), 거래 건수(옐로우), 당해년 거래 건수(오렌지)/출처=Pitchbook
엑시트도 대폭 줄어
보고서에 따르면 2023년 전기차 산업에서 실질적인 엑시트는 없었다. 2분기에 집계된 엑시트는 3건으로, 총 9억3,000만 달러(약 1조2,200억원)에 달하는 수준이다. 이는 2022년 15건, 81.6억 달러와 비교하면 거래 건수에서 80% 감소, 거래 가치에서는 88% 감소한 수치다. 전체 모빌리티 산업에서의 엑시트 또한 비슷한 양상으로 전개됐으며, 2022년 거래 건수 128건, 엑시트 345억 달러(약 45조5,400억원)에서 2023년에는 각각 36건, 65억 달러(약 8조5,800억원)로 대폭 감소했다.
모빌리티 산업에 대한 VC 연간 엑시트 동향(2023.6.30 기준), 주: 엑시트 가치(네이비), 당해년 엑시트 가치(민트), 엑시트 건수(옐로우), 당해년 엑시트 건수(오렌지)/출처=Pitchbook
이와 관련해 3월에는 미국의 충전 네트워크 운영 업체인 볼타(Volta)가 석유 기업인 셸(Shell)에 1억6,900만 달러(약 2,200억원)에 인수됐고, 이보다 앞선 1월에는 전기 트럭 및 상업용 차량을 생산하는 비아 모터스(Via Motors)가 아이디어노믹스(Ideanomics)에게 6억 3,000만 달러(약 8,300억원)에 인수된 바 있다.
Picture
Member for
8 months 2 weeks
Real name
김기범
Position
기자
Bio
[email protected]
기사의 생명은 '신뢰성'이라고 생각합니다. 객관적이고 정확한 데이터를 기반으로 오류를 최소화하여 신뢰성 있는 기사를 제공하겠습니다.
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.
입력
수정
다람쥐, 먹이 종류와 서식지 특성에 따라 비축 전략 달라
시각·공간·후각적 단서를 이용해 은폐 위치 기억할 수 있어
기억 부하를 줄이는 '청킹', 재방문을 통한 '복습'도 척척
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소 (GIAI R&D Korea)에서 영어 원문 공개 조건으로 콘텐츠 제휴가 진행 중입니다.
사진=Scientific American
북반구에서 겨울이 다가오면 사람들은 실내로 숨어들고 삶의 속도가 느려지는 것처럼 보이지만, 다람쥐의 삶은 분주해진다. 다람쥐는 숲과 공원, 뒷마당에서 쉴 새 없이 덤불을 헤집고 다니며 견과류와 씨앗을 흙 속에 집어넣는 등 든든한 겨울나기를 위해 만반의 준비에 들어간다.
다람쥐 한 마리는 캐싱(caching)이라는 과정을 통해 한 시즌에 최대 3,000개의 견과류를 땅에 묻는다. 수십 개의 장소에 견과류를 저장하고 심지어 종류별로 공간을 나눠 정리하는 모습도 관찰됐다. 다람쥐는 냄새를 맡으면서 아무거나 무작위로 가져가는 걸까, 아니면 귀중한 식량을 어디에 보관했는지 실제로 기억하는 걸까?
다람쥐의 비축 전략, 행동반경 따라 달라져
점점 더 많은 연구가 다람쥐가 기억한다는 것을 말하고 있다. 다람쥐와 다른 동물들의 행동 및 인지적 적응을 연구하는 영국 엑서터대학교의 연구원 리사 리버는 다람쥐가 꽤 많은 전략을 세우고 있다고 전했다. 실제로 다람쥐는 먹이를 저장할 때 두 가지 체계적인 접근 방식을 취하는데, 식량을 한두 곳에 모두 묻어두는 '라더 비축'과 여러 장소에 먹이를 분산 저장하는 '분산 비축'이 그것이다.
다람쥐가 어떤 방법을 선택하느냐에 따라 다람쥐의 마음속에는 많은 요소가 복합적으로 고려된다. 먹이의 위치·가용성 및 종류·다람쥐의 서식지 특성·포식자에 대한 취약성·캐싱을 할 때 주변은 얼마나 많은 다른 친구가 있는지 등이 모두 결합하여 비축하는 방향을 결정한다고 분석됐다. 일부 다람쥐는 두 가지를 모두 사용하는 '혼합' 방법을 사용하나 일반적으로는 다람쥐 종에 따라 한 가지 또는 다른 접근 방식을 사용한다. 예를 들어, 미국 붉은 다람쥐(Tamiasciurus hudsonicus)는 소수의 소나무에 먹이를 의존한다. 솔방울을 모아 집 나무 밑에 먹다 남은 솔방울과 껍질을 쌓아 큰 더미를 만든다. 집 나무 밑에서 비축하는 이 편리한 구조 덕분에 붉은 다람쥐는 가까운 거리에서 식량을 감시하고 방어할 수 있어 라더 비축 형식을 택했다.
한편 미국 동부에서 가장 흔한 뒷마당 다람쥐인 유라시아 붉은 다람쥐(Sciurus vulgaris), 여우 다람쥐(Sciurus niger), 동부 회색 다람쥐(Sciurus carolinensis)는 분산 비축을 선호하는 경향이 있다. 사는 지역에 따라 히코리너트·호두·헤이즐넛·도토리 등 다양한 먹이에 의존하는 종들이다. 먹이의 다양성으로 인해 미국 붉은 다람쥐에 비해 더 넓은 지역에서 먹이를 구해야 하므로, 하나의 큰 은신처를 지키기 어렵다. 이들 다람쥐가 먹이를 분산해서 비축하는 이유를 설명하는 바다. 이 전략은 도둑들이 은폐 위치를 찾을 수 있다는 위험이 커지지만, 각 저장소의 크기를 제한해 비교적 손실이 적고, 라더 비축을 하는 다람쥐처럼 전체를 잃어버릴 위험도 없다는 장점이 있다.
아울러 연구자들은 분산 비축 전략을 취한 다람쥐가 가장 아끼는 식량을 보호하기 위해 추가적인 조처를 하는 것을 관찰했다. 아몬드와 땅콩을 받은 여우 다람쥐는 땅콩보다 아몬드를 선호하기 때문에 아몬드를 더 멀리 묻어뒀다. 또한, 땅콩보다 아몬드를 더 낮은 밀도로 저장해서 견과류를 노리는 경쟁자를 따돌리거나 손실의 정도를 최소화하는 전략을 구상했다. 대신 은폐 장소 수가 증가해서 기억 부하도 증가한다. 정말로 여우 다람쥐는 은폐 위치를 기억하고 있을까, 아니면 사람들이 일반적으로 생각하는 대로 대부분 잊어버릴까?
기억에 관한 연구들, 다람쥐의 공간 매핑 능력 증명해
몇몇 연구에 따르면 다람쥐는 잊어버리지 않는다. 1991년 버클리캘리포니아대학교의 심리학 및 신경과학 명예 교수인 루시아 제이컵스와 그녀의 연구팀은 사람의 손에서 자란 회색 다람쥐 8마리한테 각각 견과류 10개씩을 주고 같은 밀폐된 공간에서 비축 행동을 관찰했다. 며칠 후 연구진이 각 다람쥐를 다시 그 지역으로 돌려보냈을 때, 8마리의 다람쥐(실험집단)들은 다른 다람쥐(통제집단)가 묻어둔 견과류보다 두 배나 많은 양의 견과류를 회수하고 있었다. 흥미롭게도 실험 다람쥐들은 견과류를 가져올 때 먹이를 묻을 때와는 다른 경로를 따랐다. 이는 은폐 위치가 어디에 있었는지 기억하고 있어야만 가능한 일이었다. 제이컵스는 이 연구가 고도로 통제된 조건에서 이루어졌다고 강조했다.
다람쥐의 놀라운 기억력에 대한 다른 연구 결과도 있다. 영국 체스터대학교에서 인지 진화를 연구하는 피자 카이 차우(Pizza Ka Yee Chow)는 2017년 실험실에서 사육한 다람쥐에게 직사각형 퍼즐 상자에서 헤이즐넛을 꺼내기 위해 올바른 레버 조작을 수행해야 하는 과제를 부여했다. 그리고 22개월 후, 차우는 다람쥐에게 새로운 과제처럼 보이도록 삼각형 퍼즐 상자에 다른 색상과 다른 레버를 갖춘 또 다른 과제를 제시했다. 하지만 이 과제에서도 이전 과제와 동일한 레버 전략을 사용하여 견과류를 열어야 했고, 다람쥐들은 이를 그대로 적용했다.
다른 연구자들은 다람쥐가 숨겨진 견과류를 찾는 방법에 대한 단서를 발견했다. 열렬한 견과류 사냥꾼인 다람쥐는 후각에 부분적으로 의존하여 먹이를 찾아내지만, 1986년에 발표된 연구에 따르면 후각은 최후의 수단으로, 시각 및 공간적 단서와 같은 다른 도구를 먼저 사용하여 저장소를 찾아낸다고 한다. 실제로 1997년에 발표된 한 연구에 따르면 회색 다람쥐는 원래 은신처 옆에 심겨 있던 깃발의 위치에 따라 땅을 파는 위치를 조정하여 땅속에 묻힌 견과류를 찾는 것으로 나타났다. 이는 다람쥐가 이러한 공간적 단서를 사용할 가능성이 높다는 것을 의미한다. 실험에 참여한 회색 다람쥐는 최대 2개월 동안 최대 24개의 캐시 위치를 기억할 수 있는 것으로 조사됐다. 최근에는 실험실에서 사육된 다람쥐가 덤불이나 나무와 같은 주변 랜드마크의 상대적 위치를 이용해 밀폐된 연구 공간에서 은신처를 찾아낼 수 있다는 사실을 밝혀냈다.
흔히 볼 수 있지만, 흔치 않은 두뇌를 가진 다람쥐들
한편 제이컵스의 연구실은 다람쥐의 뇌에 대해 몇 가지 놀라운 사실을 발견했는데 대부분의 소형 포유류는 겨울이 다가오는 동안 뇌가 수축하는 반면, 다람쥐의 뇌는 이 시기에 확장되어 계절에 따라 인지 역량이 증가한다는 것을 알 수 있다. 그리고 여우 다람쥐가 같은 종류의 견과류를 서로 가까이 묻어두는 경향은 인간도 사용하는 '청킹(chunking)'이라는 정보 간소화 전략의 일종일 수 있다고 한다. 견과류를 종류별로 정리하면 기억 부하가 줄어들어 기억의 정확도가 높아질 수 있다는 뜻으로 풀이된다.
회색 다람쥐는 서식 범위가 비교적 작기 때문에 비축 식량을 쉽게 찾아낼 수 있다. 또한 일부 회색 다람쥐는 무성하게 자란 나뭇잎을 조심스럽게 재배치하는 등 매장 장소를 다시 방문하는 특이한 습성이 있다. 이 다람쥐는 견과류를 파내서 다시 묻기도 한다. 즉, 다람쥐는 9월에 캐시에 저장했다가 2월까지 기억해야 하는 것이 아니라 재정비를 통해 위치를 상기하는 행위를 수행한다는 것이다.
다람쥐는 때때로 자신의 은신처를 보호하기 위해 가짜로 땅을 파고 실제로는 땅속에 견과류를 넣지 않는다. 다른 다람쥐들의 주의를 분산시키기 위해 함정을 파놓는 치밀함을 보인다. 이 예리한 두뇌를 가진 작은 설치류가 어떻게 먹이를 찾고 보호하는지 아직 모르는 것이 많다. 하지만 도시에서 흔히 볼 수 있는 회색다람쥐의 겉보기에는 무질서해 보이는 행동 뒤에는 인상적인 전략적 산술이 작용하고 있다는 것은 확신할 수 있다.
Do Squirrels Remember Where They Buried Their Nuts?
Squirrels spread their fall bounty across several locations. But do they have a key to this treasure map?
As winter approaches in the Northern Hemisphere, people retreat indoors, and the pace of life seems to slow—but not for squirrels. Across forests, parks and your backyard, these animals go into overdrive, scurrying ceaselessly through the undergrowth and stuffing nuts and seeds into the soil.
Although it might look like a mad dash to survive the winter, the frantic vibe masks some meticulous preparation. A single squirrel can bury up to 3,000 nuts in a season in a process known as caching. It can store nuts across dozens of locations and even spatially organize them by type. What’s behind this obsessive pantry planning? Do squirrels just randomly retrieve whatever they sniff out, or do they actually remember where they place this precious stash?
A growing body of research suggests that they do remember. “They’re not just burying a bunch of stuff and hoping that they’ll find it in the future. They’re strategizing quite a lot,” says Lisa Leaver, a researcher who studies the behavioral and cognitive adaptations of squirrels and other animals at the University of Exeter in England.
In fact, squirrels take two methodical approaches to storing their food: larder hoarding, in which the fluffy-tailed rodents bury their entire bounty in one or two locations, and scatter hoarding, which involves the squirrels splitting a stash among multiple locations dotted across a landscape.
“In a squirrel’s mind, there are a lot of factors at play” in which method they choose, says Pizza Ka Yee Chow, who studies the evolution of cognition at the University of Chester in England. The foods’ location, availability and type, the squirrels’ local habitat and vulnerability to predators “and how many other buddies are around when they are doing the caching” all combine to steer them toward scattering or hoarding, Chow explains.
These two strategies exist along a continuum, and some squirrels go with the “mixed” method, where they will do both, Chow says. Usually different squirrel species will practice one or the other approach, however.
For instance, American red squirrels (Tamiasciurus hudsonicus) often depend on a small number of pine trees for their food, says Lucia Jacobs, a professor emerita of psychology and neuroscience at the University of California, Berkeley. They’ll gather pine cones and create a midden—a large pile of cones and scales left over from eating—typically at the base of a home tree. The convenient setup allows the animals to oversee and defend their bounty at close range, making larder hoarding worth their while.
Meanwhile the Eurasian red squirrel (Sciurus vulgaris), the fox squirrel (Sciurus niger) and the eastern gray squirrel (Sciurus carolinensis)—the most common backyard squirrel in the eastern U.S.—tend to favor scatter hoarding. Depending on where they live, these species rely on a range of food sources, including hickory nuts, walnuts, hazelnuts and acorns. This variety pushes these species to forage over a larger area, compared with the American red squirrel, which makes it difficult to closely guard a single large stash—and may explain why they scatter hoard. Although this strategy leaves more caches for pilferers to find, each cache’s smaller size eliminates the risk that the squirrels will lose their entire stash in one go.
Jacobs and her colleagues have also observed scatter-hoarding squirrels taking extra steps to protect their most coveted stash. Fox squirrels presented with almonds and peanuts will bury the almonds, which they prefer, farther away from the source and at lower densities than the peanuts, Jacobs says. “So the squirrel carries [a nut] a species-specific distance and caches it at a species-specific density.” These burial tactics help to throw off nut-snacking competitors. But do they also make it tough for the burier to keep tabs on all of its stash?
Not according to a few studies. In 1991, Jacobs and her team provided eight hand-raised gray squirrels with 10 nuts each to bury in the same enclosed area. When the researchers released each squirrel back into the area several days later, the animals “were retrieving twice as many of their own [nuts] as [those of] another squirrel’s cache,” Jacobs says. Interestingly, the squirrels also followed a different path when retrieving their nuts, compared with the one they’d taken to bury this food. “They could plan a trajectory through their 10 caches, which they could only do if they had a memory of where those caches were,” she says.
That study took place under highly controlled conditions, Jacobs cautions. But others have gone on to document squirrels’ impressive memory span. In a 2017 experiment, Chow gave lab-reared squirrels a task that required manipulating the right set of levers to release hazelnuts from a rectangular plexiglass puzzle box. Then, 22 months later, Chow presented them with another puzzle box that was triangularly shaped and featured different colors and a different lever layout to make it appear to the squirrels like a novel task. This task still required the same lever strategy to release the nuts as the previous one, however—and that’s the approach the squirrels applied. “The solution [the squirrels] used was the same as two years before,” Chow says. “That’s how we knew that they still remembered it.”
Meanwhile Jacobs’s lab has made some striking findings on squirrel brains. This research shows that while most small mammals experience brain shrinkage during the approach to winter, squirrels’ brain expands at this time, which may indicate a seasonal increase in cognitive load.
Others have uncovered clues about how squirrels might locate their hidden nuts. The fervent nut hunters do rely partially on their sense of smell to help them pinpoint their food, yet a 1986 study suggested that it’s a last resort: they first prioritize other tools such as visual and spatial cues to guide them to their stash. In fact, a 1997 study showed that gray squirrels adjusted where they dug for their buried nuts based on the relocation of flags that were originally planted beside the caches. That indicated that the squirrels were likely also using these spatial cues. Gray squirrels in the experiment could remember up to 24 cache locations for up to two months. More recently Chow has shown that lab-reared squirrels can use the relative position of nearby landmarks such as bushes and trees to guide them to their caches in an enclosed study area.
Spatial mapping would make sense in gray squirrels, Leaver says. The animals “have relatively small home ranges that they know inside [and] out. If you spent your whole life hiding bits of food that you relied on in your house, you would know where you’d put it,” she says.
Further research from Jacobs’s lab suggests that the fox squirrel’s tendency to carefully bury nuts of the same type close together may indicate an information-streamlining strategy called “chunking,” which humans also use. In squirrels, organizing nuts by type likely “reduces memory load and hence should increase accuracy of recall,” Jacobs explains.
She adds that some gray squirrels have a quirky habit of revisiting their burial sites, where they’ll paw through the overgrowth and then carefully rearrange the leaves. Sometimes squirrels will even excavate and then rebury their nuts. This strikes Jacobs as a kind of geographic revision: “It’s not like they cache in September and then they have to remember through till February,” she says. “They are out there every day rehearsing, rehearsing, rehearsing.”
And when they’re not refreshing their own memory, these crafty creatures continue working to throw others off their trail—with some surprisingly deceptive tactics, Chow says. “[Researcher] Mike Steele, he found that some squirrels do fake digging to protect their cache, but they don’t actually put any nuts in it,” Chow adds. “They trick others into thinking, ‘Hey, I put my nuts in here!’ just to distract them.”
There’s a lot still to learn about how these sharp-brained little rodents find and protect their food. Yet we can be sure that behind their seemingly scatterbrained fall behavior, there is some impressive mental arithmetic at play, even in the ubiquitous urban gray squirrel. “Because it’s such a common urban species, everyone thinks, ‘Oh, that’s just a squirrel,’” Jacobs says. “But it’s actually a very unique animal.”
Picture
Member for
8 months 2 weeks
Real name
이태선
Position
연구원
Bio
[email protected]
세상은 이야기로 만들어져 있습니다. 다만 우리 눈에 그 이야기가 보이지 않을 뿐입니다. 숨겨진 이야기를 찾아내서 함께 공유하겠습니다.