[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.
입력
수정
디즈니, 베스파와 협업해 '프리마베라' 미키마우스 에디션 출시
현대백화점과 손잡고 새단장한 '홍콩 디즈니랜드' 여행권 이벤트도
꾸준히 이어지는 자체 IP 수익화 시도, 쉼 없이 쏟아지는 마케팅
월트디즈니의 'IP(지식재산권) 수익화' 노력이 이어지고 있다. 디즈니는 이탈리아 스쿠터 브랜드 베스파와 협업해 베스파 디즈니 ‘미키 마우스’ 에디션을 12월 국내 출시하는 한편, 테마파크 사업 홍보를 위해 현대백화점과 경품 이벤트를 진행한다. 자체 IP 활용 및 수익화를 위한 '마케팅'에 꾸준히 힘을 싣는 양상이다.
콜라보·마케팅에 힘 쏟는 디즈니
베스파와 디즈니의 협업은 월트디즈니 창사 100주년 기념 '콜라보 마케팅'의 일환으로 풀이된다. 베스파의 디즈니 미키 마우스 에디션은 베스파의 스테디셀러 '프리마베라' 차량에 디즈니의 대표 캐릭터 '미키 마우스' 디자인을 입힌 형태다. 노란색 바퀴는 미키 마우스의 신발을, 검은 거울은 미키 마우스의 둥근 귀를 연상케 한다. 이외로도 캐릭터 실루엣을 나타내는 그래픽 패턴을 적용해 스쿠터의 양쪽과 앞을 장식했으며, 미키 마우스의 서명을 안장과 전면 쉘 양쪽에 넣었다.
디즈니는 테마파크 사업 홍보에도 힘을 쏟고 있다. 현대백화점은 30일까지 월트디즈니컴퍼니코리아와 손잡고 '홍콩 디즈니랜드·캐세이퍼시픽 항공과 함께하는 디즈니스토어 경품 이벤트'를 진행한다. 이벤트는 현대백화점그룹 통합멤버십인 H포인트 애플리케이션(앱)에서 클럽디즈니에 가입한 회원들을 대상으로 진행되며, 추첨을 통해 총 5명에게 홍콩 디즈니랜드 2박 3일 4인 여행 패키지를 제공한다.
홍콩 디즈니랜드는 지난 20일 애니메이션 <겨울왕국>을 주제로 한 세계 최초이자 최대 규모의 테마랜드인 '겨울왕국 세상(World of Frozen)'을 론칭한 바 있다. 겨울왕국 세상은 영화 속 도시인 '아렌델'의 모습을 그대로 구현했다. 월트디즈니는 추첨 이벤트를 통해 현대백화점 내 디즈니스토어 주목도를 높이는 한편, 신규 테마랜드 홍보 효과를 내는 전략을 택했다.
자체 '슈퍼 IP'로 수익 올린다
올해 들어 이어지는 각종 콜라보와 이벤트는 디즈니의 'IP 수익화' 활동의 일환으로 풀이된다. 디즈니 산하의 IP 상품을 판매하는 오프라인 매장 ‘디즈니스토어’는 디즈니의 주요 수익 창출원 중 하나다. 국내에서는 지난 7월 현대백화점 판교점에 디즈니스토어 1호점이 처음으로 문을 열었다. 1호점의 방문객은 주중 평균 500명, 주말 평균 2,000명, 월평균 3만 명으로 집계됐으며, 월평균 매출액은 6억원대로 확인됐다. 현재는 현대백화점 판교점, 더현대서울, 천호점, 김포점에서 디즈니스토어를 활발히 운영 중이다.
추첨 이벤트의 중심축인 테마파크 사업 역시 디즈니의 대표 수익원이다. 디즈니의 3분기 실적 보고에 따르면, 지난해 9월부터 올해 7월 초까지 디즈니 테마파크 부문이 올린 총수익은 240억 달러(약 32조5,392억원) 이상이었다. 특히 LA·올랜도 디즈니랜드는 같은 기간 약 80억 달러(약 10조원)에 달하는 입장료 수익을 올리며 디즈니 IP의 위력을 과시하기도 했다. 결국 이번 현대백화점의 추첨 이벤트는 디즈니의 수익성을 이끄는 '양대 산맥'이 손을 잡은 이벤트인 셈이다.
월트디즈니 컴퍼니의 창립 100주년을 기념한 ‘콜라보 제품’ 출시도 올해 디즈니의 수익을 견인하고 있다. 디즈니는 올해 해외 패션 브랜드 지방시(GIVENCHY), 글로벌 스포츠 브랜드 아디다스(Adidas) 등과 콜라보 제품을 선보이며 시장의 주목을 받은 바 있다. 삼성전자, 영실업 등 국내 기업도 디즈니의 ‘콜라보 행진’에 동참했다. 이번 베스파의 미키마우스 스쿠터 출시 역시 콜라보 상품을 활용한 IP 수익화 전략의 일환인 셈이다.
Picture
Member for
2 months 2 weeks
Real name
김서지
Position
기자
Bio
[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.
150억원 투자 유치한 '부동산 조각투자' 소유, 금융위 'STO 키우기' 호재 타고 질주할까
Picture
Member for
2 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
입력
수정
루센트블록 '소유', 블록체인 기술 활용해 부동산 조각투자 지원
금융위 'STO 장내시장 개설' 승인, 이제 한국거래소에서도 STO 거래
무분별한 STO 시장 진입 막는 금융위, 선두 주자에겐 오히려 호재?
부동산 조각투자 플랫폼 '소유'를 운영하는 루센트블록이 150억원 규모의 시리즈 B 투자를 유치했다고 23일 밝혔다. 이번 투자에는 △하나벤처스 △하나증권 △산업은행 △교보증권 △ETRI홀딩스 △서울대학교기술지주 등이 참여했다. 누적 투자유치액은 340억원 규모다.
최근 금융위원회는 토큰증권(STO) 장내시장 거래에 힘을 실어주는 한편, 조각투자 기업의 무분별한 특례 획득을 막는 방패 역할을 수행하고 있다. 이미 특례를 획득한 루센트블록은 이제 막 자리를 잡은 초기 시장의 '선두 주자' 자리를 점한 셈이다. 점차 제도적 기반을 갖춰가는 STO 시장에서 과연 루센트블록은 어디까지 도약할 수 있을까.
소액으로 부동산 투자한다? 조각투자 서비스 '소유'
루센트블록의 '소유'는 금융과 블록체인 기술을 접목, 고가의 상업용 부동산을 증권화해 소액 단위로 투자할 수 있도록 지원하는 서비스다. 지난 2021년 5월 금융위 혁신금융서비스(금융규제 샌드박스)로 최초 지정됐고, 올 들어 한 차례 재지정되며 규제 특례 혜택을 유지하고 있다. 소유 이용자는 고가의 건물을 소액 STO 형태로 1주씩 거래할 수 있다. 소유한 건물의 지분만큼 배당금이 지급되며, 건물 가치가 상승하면 매각을 통해 차익을 얻을 수도 있다.
소유는 부동산관리처분신탁 수익증권을 전자등록 방식으로 발행한 뒤, 블록체인의 분산원장 기술을 활용해 거래를 진행한다. 지금까지 안국 다운타우너, 이태원 새비지가든, 대전 창업 스페이스 등을 완판한 바 있다. 현재 한국거래소와 같이 '증권'을 거래할 수 있도록 특례를 받은 상태며, 안전한 서비스 운영을 위해 증권사·신탁사 등 다수의 금융기관과 함께하고 있다.
허세영 루센트블록 대표는 "이번 시리즈 B 투자는 소유 서비스의 기술적 혁신과 지속적인 성장에 밑거름이 될 것"이라며 "이용자 입장에서 더욱 투명하고 효율적인 부동산 거래가 이뤄질 수 있도록 재밌고 안전한 투자 경험을 고도화해 나갈 것"이라고 밝혔다.
금융위원회가 밀어주는 'STO'
STO는 최근 시장의 관심을 한 몸에 받는 상품이다. 대부분의 실물 자산은 물론, 콘텐츠 시장의 주축으로 떠오른 지식재산권(IP)마저도 STO 형태의 상품으로 만들 수 있다. 그만큼 시장이 광범위하고 성장 가능성이 크다는 의미다. 하나금융경영연구소는 최근 보고서에서 2030년 조각투자 시장이 367조원까지 성장할 것이라는 전망을 내놨다. 세계경제포럼은 2030년경 STO 자산이 글로벌 국내총생산(GDP)의 10%에 달할 것이라고 분석하기도 했다.
금융위 역시 STO의 성장 가능성을 눈여겨보고 있다. 지난주 혁신금융서비스 심사소위원회에서는 '투자계약증권·비금전신탁수익증권 시장 시범개설 방안(STO 장내시장 시범 개설)'을 통과시켰다. 이에 따라 금융위는 이달 말 본위원회를 개최하고 규제 샌드박스를 승인할 예정이다. STO의 주요 발행 형태인 투자계약증권은 기본적으로 장내시장에서 매매가 불가능하다. 하지만 차후 규제 샌드박스가 승인돼 특례가 적용될 경우 STO가 본격적으로 장내시장에 진출할 수 있다.
금융위가 규제 샌드박스를 통해 제도적 기반을 마련하자, STO 시장 역시 초기 성장에 속도를 내고 있다. 장내시장 운영자인 한국거래소는 현재 STO 상장 절차·매매·공시 등에 대한 규정을 세부적으로 마무리하고 있다. 차후 금융위의 규제 특례 승인 이후 업계 대상 하는 설명회를 개최, 업계 의견을 수렴한 뒤 본격적으로 STO 장내시장을 개설할 예정이다.
무분별한 조각투자 막는 금융위
금융위가 무작정 STO 시장을 열어둔 것은 아니다. 제도적 기반이 갖춰지기 전 시장에 발생할 부작용을 우려, '특례 적용' 장벽을 견고히 세운 것이다. 금융위는 금융규제 샌드박스 1차 심의에 올라온 36개 조각투자 사업안 중 31개를 탈락 처리했다. 문턱을 넘어선 것은 상기한 한국거래소의 STO 장내시장 개설 사업뿐이다.
심사에 올라온 안들은 대체로 소비자 보호를 위한 내부 규정 마련이 미비했으며, 사업 유형마저 ‘단순 유동화’에 그쳤던 것으로 전해진다. 이후로도 당국은 STO 업체의 난립을 막기 위해 관련 사업 심사에 신중을 기할 것으로 보인다. 이에 업계에서는 당분간 조각투자를 중심으로 한 토큰증권(STO) 시장의 성장이 한동안 정체될 것이라는 전망도 제기된다.
일각에서는 루센트블록을 비롯해 이미 특례를 획득한 STO 기업에 '기회'가 주어졌다는 해석도 나온다. 그도 그럴 것이 이들 기업은 시장에 선제적으로 진입, 규제 특례를 확보한 상황인 데다, '돈 냄새'를 맡고 몰려든 경쟁사는 금융위 선에서 모두 튕겨 나갔다. 차후 STO의 장내 매매가 활성화될 경우 이들 선두 주자 기업이 투자자들의 관심 및 투자 수요를 고스란히 흡수할 가능성이 크다는 의미다.
Picture
Member for
2 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
'디지털 통화' 도입 속도 내는 금융 당국
기존 바우처 문제점 개선한 '디지털 바우처' 활용이 CDBC 실거래 테스트 핵심
다만 CBDC 도입 이전에 민간 및 금융 중개기관에 대한 파급 충분히 고민해야
금융당국이 중앙은행 디지털화폐(CBDC)의 활용성 검증에 본격적으로 손을 걷어붙였다. 가상환경에서의 기술 실험과 실거래 테스트를 거쳐 CBDC 도입에 대한 구체적인 청사진을 마련하겠다는 복안이다. 다만 CBDC는 화폐 특성상 자칫 정부의 민간 통제 수단으로 악용될 가능성이 농후한 만큼, 전문가들은 CBDC 도입 이전 정부의 충분한 사전 검토는 물론 민간 및 금융 중개기관의 CBDC 입법에 대한 지속적인 모니터링이 필요하다며 주의를 당부했다.
CBDC 운용방향의 구체적인 청사진 제시한 금융당국
23일 한국은행·금융위원회·금융감독원 3개 기관이 공동으로 'CBDC 활용성 테스트' 세부 추진 계획을 발표했다. 이번 계획은 유관기관과의 협의를 거쳐 확정한 테스트 대상 활용 사례와 참여 은행 선정 방향 등을 포함하고 있다. 이는 그간 베일에 가려졌던 CBDC 운용 방향에 대한 구체적인 청사진을 제시했다는 점에서 유의미하다. 이번 테스트는 '가상환경에서의 기술 실험'과 '실거래 테스트'로 구분돼 실시될 예정이다. 이와 관련해 금융 당국은 가상환경에서의 기술 실험을 통해서 은행 등 유관기관과 공동으로 미래 금융시장 인프라 구축 방안을 점검하는 한편, 실거래 테스트를 통해선 국민들이 새로운 디지털 통화의 효용을 직접 체험하게 하는 것을 목표로 하고 있다.
세부적으로 살펴보면, 먼저 가상환경에서의 기술 실험과 관련해 금융 당국은 CBDC의 발행·유통 과정 등의 기술적 구현 가능성을 점검해 보는 것을 주안점으로 두고 세 가지 실험 계획을 선정했다. 첫째, 한국거래소와 협력해 CBDC 시스템을 외부 분산원장 시스템(탄소배출권 거래 모의 시스템)과 연계해 탄소배출권과 특수 지급 토큰(III형 통화) 간 동시결제(DvP)가 정상적으로 이뤄지는지 확인할 방침이다. 두 번째는 금융결제원과 가상의 발행업자가 토큰화된 자산을 일반인에게 공모 형태로 발행하는 경우를 상정해 청약 신청 금액에 해당하는 예금 토큰을 처분 제한 조치한 후, 토큰화된 자산 배정량에 해당하는 자금만 실제 이체가 이뤄지게끔 하는 스마트 계약 활용 메커니즘을 테스트할 계획이다. 마지막으로 BIS(국제결제은행)이 제시한 통합원장(Unified ledger) 개념을 보다 구체적으로 구현하기 위해 한국은행은 자체적으로 CBDC 시스템 내 가상 증권을 디지털 형태로 발행한 후, 금융기관들이 해당 증권을 기관용 CBDC를 활용해 DvP하는 실험을 실시할 방침이다.
기존 문제점 개선한 '디지털 바우처' 기반 실거래 테스트도 진행 예정
이번 테스트의 사실상 핵심인 CBDC 실거래 테스트는 기존 시스템을 개선(improving the old)하는 것에 초점을 맞춰, 우선 새롭게 적용된 '디지털 바우처' 기능이 실물 경제에서 제대로 작동하는지 확인하는 방식으로 진행될 예정이다. 현재 정부, 기업 등은 보조금, 상품권, 이용권 등 다양한 형태의 아날로그 바우처를 발행해 활용하고 있으나, 바우처 발행 과정에서 ▲높은 수수료 ▲복잡하고 느린 정산 프로세스 ▲부정수급 우려 등 다양한 문제들이 발생하고 있는 실정이다.
이에 금융 당국은 디지털 통화의 가장 큰 특징인 프로그래밍 기능을 통해 CBDC 기반 예금 토큰 등에 디지털 바우처 기능을 적용, 기존 바우처의 문제점을 획기적으로 개선하고자 했다. 실제 싱가포르 통화청(MAS)의 경우 디지털 바우처 도입을 통해 청구·심사·승인·대금 지급 등의 절차를 크게 간소화한 것은 물론, 최근엔 해당 기술이 교육지원사업 등에서의 부정수급을 방지한다는 점을 관련 실험을 통해 확인하겠다고 밝힌 바 있다.
실거래 테스트는 2024년 4분기 중 착수될 예정이다. 금융 당국에 따르면 실거래 테스트는 ▲ 발행의뢰기관 의뢰로 은행이 디지털 바우처 기능이 부여된 예금 토큰을 발행 ▲ 이용자가 이를 이용해 사용처에서 물품 등을 구매 ▲ 사용처 앞 대금을 지급 등의 단계로 구성될 방침이다.
CBDC, 자칫 정부의 민간 통제 수단으로 악용될 우려도
블록체인기반의 CBDC는 거래정보가 다수에 의해 분산돼 관리되는 분산원장 방식(Distributed Ledger Technology)을 따르는 만큼, 이를 활용하는 일반 경제 주체들은 시스템 내에서 금융기관의 손을 빌리지 않고도 안전하게 자금을 주고받을 수 있다는 편의가 있다. 또한 이와 비슷한 맥락으로, 중앙은행이 CBDC를 발행할 경우 중간 금융기관을 거치지 않아도 되기 때문에 통화정책의 파급효과를 제고할 수도 있다. 가령 정부가 경기 침체에 대응하기 위해 민간에 공적자금을 대규모 공급할 계획이라면, 시중은행 등의 금융중개기관을 거쳐야 하는 실물화폐가 아닌, CBDC를 민간에 직접 공급함으로써 빠른 시간 안에 통화 승수효과를 극대화할 수 있다.
다만 전문가들 사이에선 CBDC의 위험성과 한계가 명확한 만큼 잠재적 문제점과 영향력에 대한 면밀한 검토와 보완이 선행돼야 한다는 우려의 목소리도 적지 않다. CBDC가 중앙은행 및 정부의 민간에 대한 통제를 강화하는 수단으로 작용할 여지가 크다는 지적이다. 앞서 살펴봤듯 분산원장 방식의 CBDC가 도입된다면 금융 경제에서 중앙은행과 자금 수요자 간 브릿지 역할을 해주던 민간 산업 은행 등 금융 중개기관의 기능이 대폭 줄어들거나 거의 필요 없게 되면서, 정부로 금융 시스템이 집중돼 고객들의 대출 및 신용 가용성이 크게 위축될 수 있다.
또한 CBDC 거래자는 사실상 중앙은행이 발행하고 관리하는 '체크카드'를 사용하는 것과 마찬가지인 데다, CBDC와 같은 디지털 처리의 경우 반드시 거래 관련 흔적이 전산상에 남게 돼 정부와 국민 사이의 수직적 익명성 보장이 어렵다는 분석이 전문가들 사이에서 지배적이다. 설령 정부가 수직적 익명성을 완벽하게 보장한다고 하더라도 문제가 된다. 인터넷에서 공공연하게 행해지는 불법 거래, 조세 회피, 자금 세탁을 정부가 통제할 길이 없어지게 되기 때문이다. 다시 말해 좋건 싫건 정부는 수직적 익명성을 어느 정도 열어둘 수밖에 없고, 이에 따라 정부의 민간에 대한 사생활 침해 문제 또한 피해 갈 길이 없다는 의미다.
이와 관련해 한 가상화폐 전문가는 "정부는 CBDC와 관련한 기술·방식·제도는 물론 한국은행, 은행법 등 관련 입법 보완도 세밀하게 검토하고 해당 화폐 도입을 추진해야 한다"며 "뿐만 아니라 CBDC에 대해 국민과 이해관계 금융사들이 제대로 이해하고 공감대를 형성해야 하고, 나아가 정부가 악용할 수 없도록 지속적인 감시와 통제를 이어 나가야 한다"고 조언했다.
[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.
입력
수정
OTT 중심으로 급변하는 시장, 인터넷TV의 '호시절'은 끝났다
점차 침체하는 리니어TV 시장, 각국에서 '코드 커터' 급증
TV 앞에 앉지 않는 사람들, OTT가 리니어TV 대체하는 시대 올까
OTT가 콘텐츠 시장의 주축으로서 입지를 다지는 가운데, 국내 통신사들의 호실적을 견인한 유료방송 사업이 본격적인 침체기에 접어들었다. TV가 아닌 스마트폰으로, 유료방송이 아닌 OTT로 각종 콘텐츠를 향유하는 소비자가 급속도로 증가하면서다. 리니어TV(선형TV) 수요가 급감하고, '코드 커팅(Code-Cutting)' 현상이 본격화하며 콘텐츠 시장의 흐름이 격변하고 있다.
케이블TV에서 IPTV로, IPTV에서 OTT로
인터넷TV(IPTV)는 권역 중심의 케이블 TV의 단점을 상쇄, 한동안 '뉴미디어 시대'의 주축으로 군림해왔다. △단말기·유선인터넷·IPTV를 하나로 묶어 파는 결합 상품 △인터넷 환경을 활용한 부가 서비스 △폭넓은 송출 채널 △간편한 주문형 비디오(VOD) 서비스 등 케이블TV에서 상상할 수 없었던 '혜택'을 제공하며 소비자 수요를 끌어모은 것이다.
하지만 최근 업계에서는 인터넷TV 역시 조만간 케이블TV의 뒤를 따를 것이라는 비관적 전망이 제기된다. 코로나19 팬데믹을 기점으로 OTT 플랫폼이 콘텐츠 시장을 집어삼키면서다. 실제 국내 통신사 인터넷TV 가입자 수는 정체 상태다. 올해 3분기 말 기준 KT의 인터넷TV 가입자 수는 943만 명으로 직전 분기보다 0.4% 감소했다. SK브로드밴드의 가입자 수는 케이블방송(CATV)을 포함해 951만5,000명, LG유플러스는 543만1,916명으로 각각 0.5%, 0.7% 증가하는 데 그쳤다.
유료방송을 포함한 통신사의 미디어 부문 매출 역시 부진했다. 3분기 SK브로드밴드의 유료방송 매출은 전년 대비 0.4% 성장했으며, 전체 미디어 매출은 3,902억원으로 1.4% 역성장했다. KT와 LG유플러스(IPTV 매출 기준) 또한 각각 3.9%, 1.2%에 성장하는 데 그쳤다. 소비자 사이에서 IPTV가 인기를 끌던 2019~2020년, 통신 3사의 연간 미디어 매출 증가세가 두 자릿수에 달했던 것과 비교하면 상당히 낮은 수치다.
리니어 TV 수요 급감, 진짜 '종말' 다가오나
넷플릭스의 전 CEO인 리드 헤이스팅스는 지난해 "향후 5년, 10년 안에 확실하게 리니어TV(선형TV)의 종말이 올 것"이라고 발언한 바 있다. 리니어TV는 유료방송, 안테나를 통한 무료 시청 등을 통해 방송 채널을 접하는 보편적인 'TV 시청' 방식을 일컫는다. 넷플릭스의 '예언'이 맞아떨어진 것일까. 최근 들어 우리나라를 포함한 각국의 리니어TV 수요가 급감하기 시작했다.
대표적인 사례가 미국이다. 미국 미디어 기업들의 케이블, IPTV, 위성방송 가입자는 올해 1분기에만 204만 명(VMVPD 제외) 줄었다. 이는 2000년 이후 최대 감소폭이다. 소비자가 리니어TV를 해지하고, 인터넷을 통해 콘텐츠를 향유하는 현상을 지칭하는 코드 커팅이라는 용어까지 등장했다. 리니어TV의 '코드를 잘라낸' 소비자는 OTT로 대표되는 스트리밍 플랫폼에 몰려들었다. 언제 어디서나 콘텐츠를 시청할 수 있는 편의성, 각 플랫폼이 제공하는 매력적인 독점 콘텐츠 등이 소비자 수요를 고스란히 흡수한 것이다.
현대 사회의 주요 정보 전달 매체는 TV가 아닌 스마트폰이다. 이미 대다수의 소비자는 리니어TV가 아닌 스마트폰이나 태블릿 PC를 통해 콘텐츠에 접근하고 있다. 인터넷TV의 성장세 둔화, OTT의 급성장은 이 같은 시장 상황을 명확하게 입증하는 사례다. 긴 시간 콘텐츠 시장에서 '메인 플랫폼' 자리를 지켜온 리니어TV는 과연 어떤 결말을 맞이하게 될까.
Picture
Member for
2 months 2 weeks
Real name
김서지
Position
기자
Bio
[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.
입력
수정
모델의 규모가 점점 커지고 있지만, 작은 모델도 비슷한 성능 낼 수 있어
작은 모델은 에너지 효율적이고, 접근하기 쉬우며, 다양한 장치에 적합해
인간의 학습 방식을 이해하고 모델을 훈련해야 혁신적인 기계 학습 가능
[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소 (GIAI R&D Korea)에서 영어 원문 공개 조건으로 콘텐츠 제휴가 진행 중입니다.
인공 지능의 규모는 점점 커지고 있다. OpenAI의 ChatGPT나 Google의 Bard와 같은 유명한 챗봇을 구동하는 대규모 언어 모델(LLM)은 이제 1,000억 개 이상의 파라미터로 만들어진다. 이 모델들은 AI가 입력에 대한 출력을 결정하는 데 필요한 가중치와 변수를 담고 있는데, 이는 몇 년 전까지 가장 진보된 AI 모델에서도 상상할 수 없는 양의 정보다.
이러한 큰 규모의 AI 모델은 일반적으로 더 뛰어난 성능을 보장한다. 점점 더 방대해지는 학습 데이터와 그에 따른 모델의 크기로, 대학 시험에서부터 의대 입학시험까지 통과할 수 있는 수준의 챗봇이 나타났다. 그러나 이런 발전에는 단점도 따른다. 모델이 커질수록 관리가 어려워지고, 에너지 소모가 많아지며, 실행 및 구축 단계도 복잡해진다. 그래서 빅테크 기업에서는 더 작고 간단한 모델과 데이터 세트에 관심을 기울이는 추세다.
작은 크기에도 불구하고, Phi-1.5의 탁월한 성능
최근에는 Microsoft 연구팀이 Phi-1.5라는 새로운 언어 모델에 대한 기술 보고서를 발표했다. Phi-1.5는 13억 개의 파라미터로 이루어져 있는데, 이는 ChatGPT의 기반이 된 GPT-3.5 모델의 약 100분의 1 크기다. GPT-3.5와 Phi-1.5는 둘 다 트랜스포머 기반의 신경망으로, 언어의 문맥과 관계를 이해하여 작동하는 측면에서 공통점을 가지고 있다.
그러나 상대적으로 작은 크기에도 불구하고, phi-1.5는 (아직 동료 심사를 거치지 않은 사전 인쇄 논문으로) 공개된 보고서에서 "훨씬 더 큰 LLM의 많은 특장점을 공유하고 있다"라고 기술되었다. 이 모델은 벤치마킹 테스트에서 비슷한 크기의 많은 모델보다 우수한 성능을 보여주었으며, 5~10배 더 큰 다른 인공지능과도 견줄 만한 능력을 나타냈다. 지난 10월의 최신 업데이트를 통해 phi-1.5는 텍스트뿐만 아니라 이미지도 해석할 수 있는 멀티모달 기능을 갖추었다. 최근에 Microsoft는 27억 개의 매개 변수를 가진 phi-1.5의 후속 버전인 phi-2를 출시했는데, 이 제품은 여전히 소형인 것에 비해 더 많은 기능을 제공한다고 발표했다.
물론 Bard, GPT-3.5, GPT-4와 같은 LLM이 여전히 phi 모델보다 우세하다. 마이크로소프트 리서치의 수석 AI 연구원이자 보고서의 저자 중 한 명인 로넨 엘단(Ronen Eldan)은 "phi-1.5와 GPT-4를 비교하는 것은 중학생과 학부생을 비교하는 것과 같다"라고 말했다. 그러나 phi-1.5와 phi-2는 작은 AI 모델도 여전히 강력할 수 있고, 이는 GPT-4와 같은 거대한 AI 모델이 제기하는 몇 가지 문제를 해결할 수 있다는 가능성을 시사한다고 강조했다.
대규모 AI의 문제와 소형 AI의 가능성, "에너지·민주화·보안"
1,000억 개 이상의 파라미터를 가진 AI 모델을 학습하고 실행하는 데는 상당한 에너지가 필요하다. 워싱턴대학의 컴퓨터 엔지니어인 사자드 모아제니(Sajjad Moazeni)에 따르면, 전 세계에서 ChatGPT를 하루 사용하는 것은 미국 가정 33,000가구가 24시간 동안 소비하는 전력과 비슷한 양의 전력이 필요할 수 있다고 한다. Joule에 발표된 분석에 따르면, Google이 모든 검색 엔진 상호 작용을 Bard로 대체할 경우, 아일랜드의 전력 소비량과 비슷한 양의 전력이 소비될 것으로 조사됐다. 이러한 에너지 소비는 컴퓨팅 성능과 메가 모델을 학습하는 데 필요한 대량의 데이터로부터 비롯된다. 반면, 작은 규모의 AI가 실행에 필요한 컴퓨팅 성능과 에너지는 적다. 이러한 접근은 지속 가능성을 증진한다.
자원이 적게 필요한 AI는 더욱 접근하기 쉬운 AI다. 현재 상황에서 대규모 LLM을 구축하고 유지하는 데 필요한 자금과 서버 공간은 소수의 기업만 보유하고 있다. 작은 모델은 더 많은 사람이 개발하고 연구할 수 있게 해준다. 밀라-퀘벡 인공 지능 연구소의 계산 및 인지 언어학 연구원인 에바 포텔랑스(Eva Portelance)는 "작은 언어 모델은AI를 더욱 민주화할 수 있는 한 방법"이라며 "더 많은 데이터나 큰 모델을 필요로 하지 않기 때문에, 이는 대규모 기관 외부에서도 혁신을 이룰 기회를 제공한다"라고 언급했다.
현재 대부분의 LLM은 용량 때문에 스마트폰이나 노트북에 로컬로 저장하기 어려워 클라우드에서 실행된다. 그러나 작은 모델은 개인용 장치에서도 실행할 수 있다. '에지 컴퓨팅'으로 알려진 개인 장치에 연산 및 데이터 저장소를 통합하는 기술은 개별적인 드론과 같은 작은 장치에서 기계 학습 기반 센서 시스템을 가능케 한다. 언어 모델도 이처럼 작아진다면 다양한 애플리케이션에서 사용될 수 있을 것이다. 최신 가전제품인 스마트 냉장고나 웨어러블 기기인 애플 워치와 같은 기기에서 작은 언어 모델을 사용하면 클라우드에 연결하여 데이터를 전송하지 않고도 챗봇과 같은 인터페이스를 구현할 수 있다. 이는 데이터 보안을 강화하는 데 큰 도움이 될 것으로 예상된다.
'인간 지능'을 이해하기 위해 축소형 LLM이 적합, 설명 가능성을 높여야
AI 모델이 클수록 성능이 뛰어나지만, 모든 AI가 강력한 성능을 요구하지 않는다. 예를 들어, 스마트 냉장고의 챗봇은 식품 용어를 이해하고 목록을 작성할 수 있어야 하지만, 코드를 작성하거나 복잡한 계산을 수행할 필요는 없다. 작고 특화된 AI 모델이 기능에 맞게 개발된는 것이 중요하다. 특화되지 않은 대규모 인공지능 모델의 경우 각 매개변수의 역할을 분석하는 것이 사실상 불가능하다. '해석 가능성'이 제한적일 때, 특화된 소형 모델의 필요성이 대두되는 이유다.
인공 지능은 가장 우수한 언어 모델을 구축하는 것뿐만 아니라 인간 학습 방식을 이해하고 이를 기계적으로 모방하는 방법을 탐구하는 것이다. 모델의 크기와 해석 가능성은 인간의 사고를 이해하는 데 핵심적인 역할을 한다. 더 작고 해석 가능한 AI를 사용하면 알고리즘이 결정을 내리는 이유를 더 쉽게 이해할 수 있다. 인간이 인지 및 학습에서 최고의 모범 사례다. 인간은 적은 양의 정보로도 많은 것을 이해하고 패턴을 파악할 수 있기 때문인데, 이러한 현상을 연구하고 AI로 이를 모방하는 데에는 큰 의의가 있다.
전문가들은 대규모 데이터 세트에서 대규모 모델을 훈련하는 것의 이익이 점점 줄어들고 있다고 지적한다. 이는 고품질 데이터를 확보하는 것이 어려워지고, 에너지 비용이 증가하며, 모델의 성능이 더 이상 빠르게 향상되지 않는다는 것을 의미한다. 그 대신, 더 얇은 신경망에 집중하고 다양한 훈련 전략을 실험함으로써 머신 러닝 분야에서 혁신을 이뤄내야 할 시기라는 점을 강조한다. 축소형 AI를 연구하면서 지능의 최소 요소를 발견하고 이해하면 그것을 기반으로 혁신적인 모델을 구축할 수 있다. 더 작은 모델을 통해 큰 질문에 접근하여 AI를 경제적으로 개선하고자 많은 연구들이 진행 중이다.
When It Comes to AI Models, Bigger Isn’t Always Better
Artificial intelligence models are getting bigger, along with the data sets used to train them. But scaling down could solve some big AI problems
Artificial intelligence has been growing in size. The large language models (LLMs) that power prominent chatbots, such as OpenAI’s ChatGPT and Google’s Bard, are composed of well more than 100 billion parameters—the weights and variables that determine how an AI responds to an input. That’s orders of magnitude more information and code than was common among the most advanced AI models just a few years ago.
In broad strokes, bigger AI tends to be more capable AI. Ever larger LLMs and increasingly massive training datasets have resulted in chatbots that can pass university exams and even entrance tests for medical schools. Yet there are drawbacks to all this growth: As models have gotten bigger, they’ve also become more unwieldy, energy-hungry and difficult to run and build. Smaller models and datasets could help solve this issue. That’s why AI developers, even at some of the largest tech companies, have begun to revisit and reassess miniaturized AI models.
In September, for instance, a team of Microsoft researchers released a technical report on a new language model named phi-1.5. Phi-1.5 is made up of 1.3 billion parameters, which is about one one-hundredth the size of GPT-3.5, the model that underlies the free version of ChatGPT. GPT-3.5 and phi-1.5 also share the same general architecture: they are both transformer-based neural networks, meaning they work by mapping the context and relationships of language.
But despite its relatively diminutive size, phi-1.5 “exhibits many of the traits of much larger LLMs,” the authors wrote in their report, which was released as a preprint paper that has not yet been peer-reviewed. In benchmarking tests, the model performed better than many similarly sized models. It also demonstrated abilities that were comparable to those of other AIs that are five to 10 times larger. And recent updates made in October even allow phi-1.5 to display multimodality—an ability to interpret images as well as text. Last week Microsoft announced the release of phi-2, a 2.7-billion-parameter follow-up to phi-1.5, which demonstrates even more ability in a still relatively compact package, the company claims.
Make no mistake, massive LLMs such as Bard, GPT-3.5 and GPT-4 are still more capable than the phi models. “I would say that comparing phi-1.5 to GPT-4 is like comparing a middle school student and an undergraduate student,” says Ronen Eldan, a principal AI researcher at Microsoft Research and one of the authors of the September report. But phi-1.5 and phi-2 are just the latest evidence that small AI models can still be mighty—which means they could solve some of the problems posed by monster AI models such as GPT-4.
For one, training and running an AI model with more than 100 billion parameters takes a lot of energy. A standard day of global ChatGPT usage can consume as much electricity as about 33,000 U.S. households do in the same time period, according to one estimate from University of Washington computer engineer Sajjad Moazeni. If Google were to replace all of its users’ search engine interactions with queries to Bard, running that search engine would use as much power as Ireland does, according to an analysis published last month in Joule. That electricity consumption comes, in large part, from all the computing power required to send a query through such a dense network of parameters, as well as from the masses of data used to train mega models. Smaller AI needs far less computing power and energy to run, says Matthew Stewart, a computer engineer at Harvard University. This energy payoff is a sustainability boost.
Plus, less resource-intensive AI is more accessible AI. As it stands now, just a handful of private companies have the funds and server space to build, store, train and modify the biggest LLMs. Smaller models can be developed and studied by more people. Thinking small “can in some sense democratize AI,” says Eva Portelance, a computational and cognitive linguistics researcher at the Mila-Quebec Artificial Intelligence Institute. “In not requiring as much data and not requiring the models to be as big…, you’re making it possible for people outside of these large institutions” to innovate. This is one of multiple ways that scaled-down AI enables new possibilities.
For one thing, smaller AI can fit into smaller devices. Currently, the size of most LLMs means they have to run on the cloud—they’re too big to store locally on an unconnected smartphone or laptop. Smaller models could run on personal devices alone, however. For example, Stewart researches so-called edge computing, in which the goal is to stuff computation and data storage into local machines such as “Internet of Things” gadgets. He has worked on machine-learning-powered sensor systems compact enough to run on individual drones—he calls this “tiny machine learning.” Such devices, Stewart explains, can enable things like much more advanced environmental sensing in remote areas. If competent language models were to become similarly small, they would have myriad applications. In modern appliances such as smart fridges or wearables such as Apple Watches, a smaller language model could enable a chatbotesque interface without the need to transmit raw data across a cloud connection. That would be a massive boon for data security. “Privacy is one of the major benefits,” Stewart says.
And although the general rule is that larger AI models are more capable, not every AI has to be able to do everything. A chatbot inside a smart fridge might need to understand common food terms and compose lists but not need to write code or perform complex calculations. Past analyses have shown that massive language models can be pared down, even by as much as 60 percent, without sacrificing performance in all areas. In Stewart’s view, smaller and more specialized AI models could be the next big wave for companies looking to cash in on the AI boom.
Then there’s the more fundamental issue of interpretability: the extent to which a machine-learning model can be understood by its developers. For larger AI models, it is essentially impossible to parse the role of each parameter, explains Brenden Lake, a computational cognitive scientist researching artificial intelligence at New York University. This is the “black box” of AI: developers build and run models without any true knowledge of what each weight within an algorithm accomplishes. In smaller models, it is easier, though often still difficult, to determine cause and effect and adjust accordingly. “I’d rather try to understand a million parameters than a billion parameters,” Lake says.
For both Lake and Portelance, artificial intelligence isn’t just about building the most capable language model possible but also about gaining insight into how humans learn and how we can better mimic that through machines. Size and interpretability are key factors in creating models that help illuminate things about our own mind. With mega AI models—generally trained on much bigger datasets—the breadth of that training information can conceal limitations and make it seem like an algorithm understands something it doesn’t. Conversely, with smaller, more interpretable AI, it is far easier to parse why an algorithm is producing an output. In turn, scientists can use that understanding to create “more cognitively plausible” and possibly better overall AI models, Portelance says. Humans, they point out, are the gold standard for cognition and learning: we can absorb so much and infer patterns from very small amounts of information. There are good reasons to try to study that phenomenon and replicate it through AI.
At the same time, “there are diminishing returns for training large models on big datasets,” Lake says. Eventually, it becomes a challenge to find high-quality data, the energy costs rack up and model performance improves less quickly. Instead, as his own past research has demonstrated, big strides in machine learning can come from focusing on slimmer neural networks and testing out alternate training strategies.
Sébastien Bubeck, a senior principal AI researcher at Microsoft Research, agrees. Bubeck was one of the developers behind phi-1.5. For him, the purpose of studying scaled-down AI is “about finding the minimal ingredients for the sparks of intelligence to emerge” from an algorithm. Once you understand those minimal components, you can build on them. By approaching these big questions with smaller models, Bubeck hopes to improve AI in as economical a way as possible.
“With this strategy, we’re being much more careful with how we build models,” he says. “We’re taking a slower and more deliberate approach.” Sometimes slow and steady wins the race—and sometimes smaller can be smarter.
Picture
Member for
2 months 2 weeks
Real name
이시호
Position
연구원
Bio
[email protected]
세상은 다면적입니다. 내공이 쌓인다는 것은 다면성을 두루 볼 수 있다는 뜻이라고 생각하고, 하루하루 내공을 쌓고 있습니다. 쌓아놓은 내공을 여러분과 공유하겠습니다.
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
입력
수정
오리지널 예능으로 쓴맛 본 넷플릭스, <솔로지옥> 기점으로 '재도전' 본격화
넷플릭스의 '허점' 파고들어 급성장한 쿠팡플레이, 토종 OTT 1위까지 올라서
모회사 '쿠팡' 따라 적자 내며 고속 질주 준비, 최강자 넷플릭스 위협할 수 있을까
넷플릭스와 쿠팡플레이 사이에서 '경쟁 기류'가 감지되고 있다. 쿠팡플레이가 드라마에 비해 인기가 저조한 예능으로 이용자를 대거 끌어모으자, 과거 여러 차례 쓴맛을 본 넷플릭스도 국내 'OTT 예능' 시장에 재도전장을 내민 것이다. 쿠팡플레이의 주요 콘텐츠인 스포츠 분야에도 점차 넷플릭스의 그림자가 드리우기 시작했다. '넷플릭스 천하'였던 국내 OTT 시장에 경쟁의 기운이 감도는 가운데, 쿠팡플레이는 과연 모회사 쿠팡이 쌓아 올린 성장 노선을 따라 넷플릭스에 위협을 가할 수 있을까.
예능·스포츠로 발 뻗는 넷플릭스
넷플릭스는 2019년 <킹덤>을 시작으로 <스위트홈>, <오징어게임>, <마스크걸>, <이두나!> 등 흡입력 있는 오리지널 드라마를 선보이며 이용자를 끌어모았다. 매력적인 오리지널 드라마를 주기적으로 출시하며 국내 OTT 시장의 정점에 선 것이다. 하지만 시장의 독재자인 넷플릭스도 '굴욕'을 겪은 분야가 있다. 바로 오리지널 예능이다.
넷플릭스가 2018년 5월 선보인 예능 프로그램 <범인은 바로 너!>는 유재석, 김종민, 이광수 등 국내 인기 방송인을 전면에 내세워 기대를 샀으나, 공개 후 시청자의 혹평을 받으며 미적지근하게 마무리됐다. 쓴맛을 본 넷플릭스는 이후 <박나래의 농염주의보>, <유병재: B의 농담>, <이수근의 눈치코치> 등 유명 방송인을 앞세운 스탠딩 코미디 형식의 예능 쇼를 꾸준히 선보였지만, 모두 국내에서 크게 흥행하지는 못했다. 문제는 넷플릭스가 한국 시청자의 '감성'을 캐치하지 못한 데 있었다.
이후 넷플릭스는 데이트 프로그램 <솔로지옥> 시리즈로 한국 시청자의 민심을 돌리는 데 성공했다. 특히 <솔로지옥> 시즌2는 지난해 12월 넷플릭스 글로벌 랭킹 6위에 오르는 등 흥행에 성공하며 올해 1월 성황리에 종영했다. 기세를 틈타 넷플릭스는 오는 28일 코미디 프로그램 <코미디 로얄>을 방영할 예정이다. <코미디 로얄>은 이경규를 비롯한 20여 명의 인기 코미디언들이 동시에 출연해 웃음 대결을 벌이는 형식의 예능 쇼다.
이에 더해 넷플릭스는 쿠팡플레이의 주력 콘텐츠인 '스포츠' 분야에도 발을 뻗고 있다. 오리지널 골프 다큐멘터리 시리즈 <풀스윙>을 선보이며 골프 팬들을 사로잡은 것이 대표적인 예다. 이후 넷플릭스는 스포츠 생중계 분야에 진출하지 않겠다는 기존 입장을 철회, 애드버타이징 위크 뉴욕(Advertising Week New York) 2023 행사에서 골프 토너먼트인 '넷플릭스 컵(Netflix Cup)'을 개최 및 생중계한다고 밝히기도 했다.
쿠팡플레이, 넷플릭스 '빈틈' 파고들어 급성장
넷플릭스의 '예능 빈틈'을 파고든 것은 쿠팡플레이의 <SNL 코리아>였다. 2021년 9월 공개된 코미디 프로그램 <SNL 코리아> 시리즈는 쿠팡플레이가 이름을 알리는 발판 역할을 수행했고, 이후 시즌4까지 순항하며 쿠팡플레이의 '효자 프로그램'으로 거듭났다. 게스트로 출연한 유명 연예인들의 우스꽝스러운 모습, <SNL 코리아> 시리즈 특유의 사회 풍자 등이 국내 시청자의 시선을 사로잡은 것이다.
이에 더해 쿠팡플레이는 락인 효과(특정 플랫폼이 독점적인 지위를 확립해 이용자 이탈을 막는 현상)가 확실한 스포츠 생중계 분야에 힘을 쏟으며 '콘크리트 구독자'를 빠르게 확보해 왔다. 넷플릭스의 영향력이 채 미치지 않는 예능과 스포츠 시장은 결국 쿠팡플레이 성장의 열쇠가 됐다. 올해 8월 쿠팡플레이는 월간활성이용자수(MAU) 563만 명을 기록, 티빙(540만 명)을 누르고 국내 2위 자리에 올라섰다. 1위 넷플릭스를 바짝 뒤쫓으며 '토종 OTT 1위' 칭호를 거머쥔 것이다.
이처럼 예능과 스포츠로 중무장한 쿠팡플레이는 모회사 쿠팡과 유사한 '업계 독주' 전철을 밟고 있다. 쿠팡은 유통업계 전체가 소비 침체로 고전한 올 3분기에 매출 8조원을 넘기며 5분기 연속 흑자를 달성했다. 올해 첫 연간 흑자 달성과 함께 신세계, 롯데를 넘어선 국내 유통 업계 1위에 등극할 것으로 전망된다. 진입 장벽을 낮추고 다양한 상품을 제공하며 이용자를 확보하는 성장 전략이 빛을 발한 것이다.
쿠팡플레이 역시 유사한 성장 전략을 채택하고 있다. 쿠팡플레이는 와우 멤버십에 포함된 '조건부 무료' 혜택으로, 기존 이커머스 서비스를 이용하는 와우 회원들의 진입 장벽이 상당히 낮은 편이다. 손쉽게 이용자 풀을 확보한 쿠팡플레이는 스포츠와 예능 등 국내 소비자에게 친숙한 콘텐츠를 제공, 순식간에 토종 OTT 1위 자리까지 올랐다. 쿠팡 특유의 '고속 성장' 기조가 쿠팡플레이에도 고스란히 녹아 있다는 의미다.
쿠팡 '계획된 적자' 전략의 전승, 넷플릭스와 본격 경쟁하나
쿠팡을 키운 '계획된 적자' 전략이 쿠팡플레이로 계승되는 정황도 포착됐다. 쿠팡은 2014년 로켓배송 시행 이후 6조원에 가까운 적자를 기록했지만, 모든 적자는 계획된 것이라는 주장을 펼치며 사업을 이어왔다. 실제 쿠팡은 지난해 누적 적자를 벗어던지고 흑자 전환에 성공한 바 있다. 적자를 내며 대규모 회원을 확보해 시장 점유율을 확대하고, 이를 기반으로 규모의 경제를 이루는 계획된 적자 전략의 효과를 입증한 것이다.
업계에서는 쿠팡이 OTT를 비롯한 신사업 육성에도 이 같은 전략을 적용하고 있다는 분석이 제기된다. 쿠팡의 3분기 영업이익 규모는 직전 분기 1억 달러(약 1,300억원)에서 약 40%가량 감소했다. 쿠팡플레이, 쿠팡이츠 등 신사업 부문의 적자가 급증한 영향이다. 조정 상각전영업이익(EBITDA) 기준 신사업 부문의 손실은 전년 대비 2.6배 폭증했다. 흑자 전환 이후 이익 규모 확대에 집중하던 쿠팡이 재차 적자를 감수한 '사업 성장'에 힘을 쏟기 시작한 것이다.
쿠팡의 '도전장'에 업계는 공포에 떨고 있다. 쿠팡은 더 이상 황무지를 '개척'하는 입장이 아니다. 핵심 사업인 커머스 부문의 안정적인 수익을 기반 삼아 투자를 확대하고 있다는 의미다. 마음만 먹으면 커머스 부문의 막대한 트래픽을 활용해 엄청난 투자 효율을 뽑아낼 수도 있다. 쿠팡플레이는 쿠팡이라는 든든한 지원군을 등에 업고 본격적인 시장 질주를 준비하고 있는 셈이다.
현재 국내 OTT 시장에서 넷플릭스의 영향력은 절대적이다. 공정거래위원회에 따르면 지난 6월 기준 넷플릭스의 국내 OTT 시장 점유율은 38%에 달한다. 토종 OTT가 좀처럼 넘볼 수 없는 수치다. 하지만 쿠팡플레이는 넷플릭스의 그림자에 주저하지 않고 달리며 본격적으로 '정상'을 노리고 있다. 넷플릭스가 쿠팡플레이의 '주력 분야'에 침투하며 본격적인 경쟁이 시작된 가운데, 업계에서는 차후 시장 판도 변화에 촉을 곤두세우고 있다.
Picture
Member for
2 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
"샘 알트먼 돌아왔다" 오픈AI 이사회, 직원 반발에 알트먼 해임 닷새 만에 CEO 복귀 결정
Picture
Member for
2 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
입력
수정
오픈AI의 갑작스러운 해임 발표, 직원·투자자 "알트먼 복귀해라" 항의
MS까지 가세해 복귀 압박, 결국 일주일도 안 돼 알트먼 CEO 복귀
이사회의 수익화 시도 결국 좌절, 향후 국내서도 VC 주도 이사회가 역풍 맞을 가능성도
샘 알트먼 오픈AI 공동창업자가 최고경영자(CEO) 자리를 되찾았다. 알트먼의 복귀를 촉구하는 오픈AI 투자자와 직원들의 목소리에 결국 이사회가 뜻을 꺾은 것이다. 지난 17일(현지시간) 오픈AI 이사회의 급작스러운 퇴출 발표 후 닷새 만이다. 혼란을 틈타 대주주인 마이크로소프트(MS)는 오픈AI에 경영 구조 변화를 요구, 본격적으로 입김을 넣겠다는 뜻을 드러내고 나섰다.
돌아온 샘 알트먼, MS는 "경영 구조 문제 있다"
오픈AI는 22일 알트먼의 해임을 결정한 이사회의 부분적 재구성 및 알트먼의 CEO직 복귀 소식을 전했다. 오픈AI는 이날 소셜미디어(SNS) 엑스(옛 트위터) 공식 계정을 통해 "새로운 이사회 구성원 브렛 테일러(의장, 전 세일즈포스 공동 CEO), 래리 서머스(전 미국 재무부 장관) 그리고 애덤 단젤로(쿼라 CEO, 기존 의사회 구성원)와 함께 알트먼의 CEO직 복귀에 합의했다"고 밝혔다. 알트먼의 해고에 앞장섰다가 이후 태세를 전환한 일리야 수츠케버 수석 과학자 등 기존 이사 3명의 거취는 언급하지 않았다.
알트먼도 엑스를 통해 오픈AI의 복귀를 알렸다. 그는 "나는 오픈AI를 사랑한다. 지난 며칠 동안 내가 한 모든 일은 이 팀(오픈AI)과 그 사명을 함께 지키기 위한 것이었다"고 밝혔다. 이어 "일요일(19일) 저녁 MS에 합류하기로 했을 때, 그것이 저와 팀을 위한 최선의 길이라는 것이 분명했다"며 "새로운 이사회와 사티아(나델라 MS CEO)의 지원으로 다시 오픈AI로 돌아와 MS와 강력한 파트너십을 구축할 수 있기를 기대한다"고 적었다.
오픈AI의 대주주인 MS는 본격적인 경영 방식 변화를 요구할 것으로 전망된다. 지금까지 오픈AI는 인류 전체를 위한 인공지능(AI)을 개발하겠다며 외부 투자자들의 경영 참여를 일체 허용하지 않았다. 하지만 사티야 나델라 MS CEO는 MS가 오픈AI 이사진의 결정에 관여할 수 없는 점에 대해 "좋지 않다. 변화가 필요하다는 점에는 절대적으로 동의한다"고 발언, 차후 오픈AI 경영에 관여하겠다는 뜻을 내비쳤다.
급작스러운 해고에 폭발적 항의 이어져
오픈AI 이사회는 지난 17일 '경영 능력을 확신할 수 없고, 소통에 솔직하지 않았다'는 이유로 알트먼의 해임을 결정했다. 대주주인 MS마저 발표 직전에야 소식을 접할 만큼 갑작스러운 해고였다. 이에 공동창업자인 그렉 브록만은 항의 표시로 즉각 사임했고, 수석 연구원 3명도 즉시 퇴사한 것으로 알려졌다. 이사회는 이후 미라 무라티 최고기술책임자(CTO)가 임시 CEO직을 맡게 된다고 설명했다.
이사회의 해임 발표에 오픈AI 직원들은 강력하게 반발했다. 알트먼과 브룩먼이 새로운 AI 연구팀을 이끌기 위해 MS에 합류할 것이라는 소식까지 전해지자, 이들과 함께 MS로 이직하겠다는 으름장을 놓기도 했다. 이사회의 퇴진 및 알트먼의 복귀를 요구하는 연판장에 서명한 직원은 오픈AI 전체 임직원의 95%에 달한다. 쓰라이브캐피털, 코슬라벤처스, 타이거글로벌매니지먼트 등 오픈AI의 투자자 역시 알트먼의 복귀를 요구하며 오픈AI에 압박을 가했다.
대주주인 MS까지 '알트먼 복귀' 주장에 가세했다. 알트먼을 따라 MS로 이직하겠다고 주장하는 오픈AI 직원들을 기꺼이 수용하겠다는 뜻을 내비친 것이다. 이에 더해 MS는 공개적으로 오픈AI 지배 구조의 문제점을 언급하고, 관련 개선 사항을 오픈AI 측에 요구하기도 했다. 예상외의 격렬한 항의가 이어지자 오픈AI 이사회 측은 결국 닷새 만에 백기를 들었고, 알트먼은 오픈AI CEO 자리를 되찾았다.
'이사회 멋대로' 스타트업 경영진 퇴출, 녹록지 않다
스타트업계는 이번 사건을 두고 수익화를 시도하려는 이사회와 연구 기업으로 운영하려는 직원들 간의 갈등으로 이해하고 있다. 그간 오픈AI 경영진과 이사회 양측은 수익보다 기술 개발 및 회사 홍보에 초점을 맞추는 것에 동의해 왔다. 하지만 이사회 측은 최근 들어 태세를 전환, 챗GPT를 비롯한 오픈AI 서비스의 '수익화'에 힘을 싣기 시작했다. 지난 14일부터 챗GPT 플러스의 신규 가입자 가입을 차단하고, GPT-4 등의 가격을 인상한 것이 대표적인 예다. 업계는 이 같은 이사회의 수익화 움직임에 알트먼을 포함한 대부분의 직원들이 반발했다고 보고 있다.
연구 기업으로 출발한 스타트업이 경영과 연구 사이에서 갈등하는 사례는 생각보다 쉽게 찾아볼 수 있다. 갈등이 이어지다가 결국 기존 경영진이 퇴출되고, 이사회가 새로운 CEO를 임명하는 경우도 많다. 지난 1985년 애플의 창업자인 스티브 잡스가 같은 방식으로 퇴출됐으며, 최근 한국에서는 메쉬코리아의 창업자 유정범 전 대표가 투자자들의 결정에 따라 결국 자리에서 내려오기도 했다. 익히 알려진 대로 잡스는 새로운 사업을 창업해 결국 애플에 복귀했고, 유정범 전 대표는 현재 로칼(LOEKAL)에서 물류 및 이커머스 전문가들과 새로운 하이퍼 로컬 플랫폼을 기획 중이다.
이번 오픈AI의 ‘알트먼 퇴출 사태’는 이사회의 독단에 따른 수익화 압박이 직원과 투자자의 ‘반발’을 이길 수 없다는 사실을 보란 듯 입증한 셈이다. 이에 일각에서는 국내 VC들이 차후 이사회에서 대표이사를 퇴출시키는 선택을 할 경우, 오픈AI의 이번 선례를 고려할 것이라는 해석이 제기된다. 역량을 갖춘 인재들이 모인 기업의 대표이사가 자본의 논리에 따라 퇴출될 경우, '내부 반란'에 대한 우려를 무시할 수 없을 것이라는 분석이다.
Picture
Member for
2 months 2 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.
입력
수정
NH투자증권, AI 자동투자 서비스 콴텍에 통 큰 투자
'비용 절감에 수익률 확대까지', RA 선호도↑
독보적 위험관리 시스템으로 시장 선도 노린다
인공지능(AI) 자동 투자 서비스 기업 콴텍이 90억원 규모의 시리즈 C 라운드 투자 유치에 성공했다고 22일 밝혔다. NH투자증권의 이번 투자로 콴텍의 총 누적 투자 유치 규모는 283억원을 기록했다.
퇴직연금 RA 시장 확대 나선다
로보어드바이저(Robo-Advisor, RA) 기반의 비대면 투자일임 서비스를 제공하는 콴텍은 증권사 프랍트레이더로 활동하던 이상근 대표의 ‘자산관리는 고액 자산가들뿐 아니라 일반 소규모 투자자들에게도 제공될 수 있어야 한다’는 생각에서 2016년 설립됐다. 설립 후 줄곧 개별주식과 상장지수펀드(ETF)로 알고리즘 매매를 할 수 있는 프로그램 개발에 주력한 콴텍은 개인화 자산관리 솔루션 큐엔진(Q-Engine), 위험관리 시스템 큐엑스(Q-X) 등을 연이어 선보이며 적극적으로 사업을 전개했다.
사업 초창기 기업 간 거래(B2B) 시장의 투자자문을 중심으로 성장한 콴텍은 지난해 모바일 애플리케이션(앱)을 선보이며 기업 대 소비자(B2C) 시장으로 영역을 넓혔다. 콴텍 앱은 출시 1년 만에 누적 다운로드 60만 건을 돌파하며 빠르게 인지도를 쌓았다. 올해 4월 기준 관텍 고객의 80%가 수익을 냈으며, 앱 출시 이후 1년간 최대 수익률은 32.8%다.
NH투자증권은 콴텍의 △다양한 소비자 성향에 맞춘 폭넓은 전략 △우수한 수익률 △독자적 위험관리 시스템 등을 높게 판단해 투자를 결정했다고 전해진다. 양사는 그동안 함께 전개해 온 퇴직연금 RA 시장을 위한 디지털 운용 개발 등에 속도를 높일 방침이다. 정영채 NH투자증권 사장은 “지금은 정부의 퇴직연금 운용 고도화를 비롯해 금융계의 디지털 전환 의지가 매우 강한 시기”라고 진단하며 “이와 같은 시기에 고객 서비스를 다양화하고 궁극적으로는 고객가치를 극대화하기 위해 콴텍을 파트너로 선택했다”고 밝혔다.
콴텍은 이번 투자를 기반으로 자사의 RA 역량을 금융 플랫폼에 탑재해 퇴직연금, 비대면 하이브리드 자산관리에서 차별화된 고객 서비스를 제공한다는 계획이다. 이상근 콴텍 대표는 “오랜 시간 축적해 온 알고리즘 개발 능력과 성장 가능성을 인정받아 대규모 투자 유치에 성공했다”며 “이번 투자자인 NH투자증권 외에도 많은 기업이 관심을 보이고 있어 연내 시리즈 C 클로징이 기대되는 상황”이라고 전했다.
주관적 개입 최소화, 장기적 수익 노리는 'RA'
NH투자증권과 콴텍의 동행은 최근 RA 관련 기업들과 업무협약(MOU)을 체결하고 지분투자를 진행하는 등 AI 역량 강화에 주력하고 있는 증권 업계의 움직임과 일맥상통한다. AI 신기술에 대한 관심이 사회 전반으로 퍼지면서 방대한 데이터를 통합·분석하는 능력을 투자에 적용해 수익 극대화를 기대하는 투자자가 급증했기 때문이다.
AI 투자일임 서비스 핀트 운영사 디셈버앤컴퍼니, RA 전문기업 파운트와 손잡고 모바일 트레이딩 시스템(MTS) 내 AI 투자일임 서비스 확대에 나선 KB증권이 대표적 예다. KB증권은 이번 협력으로 투자자의 개별 성향과 시장 상황에 따라 포트폴리오를 구성하고 자동으로 투자하는 핀트의 AI 투자 전략 엔진 아이작을 활용할 수 있게 됐으며, 파운트와는 글로벌 ETF에 자동으로 투자하는 서비스를 출시할 방침이다.
SK증권도 최근 알파브릿지와 MOU를 체결해 AI 기반 포트폴리오 분석 서비스를 제공한다. 알파브릿지는 에셋플러스자산운용이 전액 출자해 설립한 자회사로, AI 기술을 활용한 투자 플랫폼 탱고픽을 운영 중이다. 이번 협약으로 양사는 챗GPT 기반 AI 투자비서, AI 포트폴리오 등 다양한 서비스를 내년 상반기 중 선보일 계획이다.
신한투자증권도 최근 AI 스타트업 웨이커와 클라우드 기술 기반 오픈 플랫폼 개발 MOU를 체결했다. 웨이커는 런던증권거래소그룹(LSEG)과 AI 데이터 서비스에 관한 독점 실증 계약 등 인공지능과 데이터 기술을 보유한 기업으로, 양사는 적극적인 협업을 통해 오픈 플랫폼 론칭을 기획 중이다. 증권 업계의 적극적인 AI 도입과 관련해서 한 관계자는 “AI 투자는 룰베이스(Rule-based) 알고리즘으로, 사람의 개입이 최소화돼 동일한 방식으로 장기간 꾸준히 운용할 수 있다는 점에서 높은 수익률이 기대된다”며 “펀드 운용비용과 인건비 등을 대폭 줄일 수 있다는 점도 증권사들이 관련 서비스를 앞다퉈 도입하려는 배경”이라고 설명했다.
“AI 자동투자 서비스 확대는 지금부터”
독보적인 서비스를 제공하려는 RA 서비스 기업들과 증권 업계의 경쟁이 치열해진 가운데 콴텍은 자사의 강점으로 ‘위험관리 시스템’을 꼽았다. 콴텍의 위험관리 모델 큐엑스는 시장의 이상 현상을 감지하면 투자 항목 내 위험자산의 비중을 두 단계에 걸쳐 현금화하고, 이를 통해 포트폴리오의 변동성을 방어하는 특징이 있다. 실제로 지난해 증시에 큰 영향을 준 우크라이나 사태 직전 이를 감지해 위험자산을 대폭 정리하고 현금자산을 확대하기도 했다.
이 대표는 “지금까지 판매자 중심이던 금융투자의 흐름을 깨기 위해 노력하고 있다”며 “팬데믹 후 하락장이 조금씩 회복되는 가운데 각종 지수가 전고점을 돌파하는 시점에는 콴텍을 비롯한 AI 자동투자 서비스들이 더 주목받을 것으로 기대하고 있다”고 전했다. 이어 “아직 가야 할 길이 멀지만, 투자자 중심의 시장을 앞당기는 데 일조하도록 노력하겠다”고 밝혔다.
Picture
Member for
2 months 2 weeks
Real name
안현정
Position
연구원
Bio
[email protected]
정보 범람의 시대를 함께 헤쳐 나갈 동반자로서 꼭 필요한 정보, 거짓 없는 정보만을 전하기 위해 노력하겠습니다. 오늘을 사는 모든 분을 응원합니다.
[email protected]
미디어의 영향력을 무겁게 인지하고 있습니다. 예리한 시각과 분석력을 바탕으로 공정하고 신뢰할 수 있는 정보만을 전달하겠습니다.
입력
수정
AI 대체 가능성 높은 상위 20% 국내 일자리 약 341만 개로 추정
‘AI 노출지수’, 일반의사·한의사 가장 높고 기자·성직자·교수는 낮게 나타나
AI에 많이 노출된 일자리가 고용 비중 감소 및 임금 상승률 낮을 것
20년 안에 일자리 약 400만 개가 인공지능(AI)으로 대체될 가능성이 크다는 연구 결과가 나왔다. 특히 인지적이고 분석적인 업무를 하는 의사·변호사·회계사 등 고소득 전문직의 AI 대체 위험이 가장 크다는 분석이다. 반면 사회적 기술이나 의사소통 능력이 중요한 성직자·대학교수·기자 등은 AI 대체 가능성이 낮은 것으로 나타났다.
고학력·고소득 근로자일수록 AI에 더 많이 노출
20일 한국은행이 발간한 'AI와 노동시장 변화' 보고서에 따르면, AI 노출지수 상위 20%에 달해 대체 가능성이 큰 일자리는 전체 일자리의 12%에 해당하는 약 341만 개로 추산됐다. 임계점을 상위 25%로 확대할 경우 약 398만 개(전체의 14%)로 늘어난다. 노출 지수는 현재 AI 기술로 수행할 수 있는 업무가 해당 직업의 업무에 얼마나 집중돼 있는지를 나타낸 수치다.
먼저 임금과 학력 수준별로 보면, 고학력·고소득 근로자일수록 AI에 더 많이 노출돼 있다. 이는 저학력(고졸 이하) 및 중간 소득 근로자에게 큰 영향을 미쳤던 산업용 로봇이나 소프트웨어 기술과 가장 차별화되는 지점이다. AI가 비반복적·인지적(분석) 업무를 대체하는 데 적합하기 때문에 고학력·고소득 일자리의 AI 대체 위험이 상대적으로 더 크게 나타나는 것으로 보인다고 한은은 분석했다.
성별로 보면 남성 일자리의 AI 노출 지수가 여성 일자리에 비해 다소 높게 나타났다. 산업용 로봇이나 소프트웨어 기술과 마찬가지로 남성 일자리가 AI 기술에 더 많이 노출돼 있는데, 이는 AI 노출 지수가 낮은 대면 서비스업에 상대적으로 많은 여성이 종사하고 있기 때문이다. 한편 연령별로는 AI 노출 지수가 뚜렷한 차이를 보이지 않았다.
산업별로 보면 정보통신업, 전문과학기술, 제조업 등 고생산성 산업을 중심으로 AI 노출 지수가 높게 나타났다. 실제로 최근 정보통신업의 무선 네트워크, 제조업의 장비·모니터링 솔루션 등에 AI 기술이 광범위하게 활용되고 있다.
AI 노출 지수가 높은 직업을 세부적으로 살펴보면 일반 의사와 한의사가 상위 1% 이내로 최상위권에 들었다. 전문 의사(7%), 회계사(19%), 자산운용가(19%), 변호사(21%) 등도 상위권이었다. 한은은 최근 AI 관련 특허 중 의학산업 분야가 많아져 단순 진단 등의 일부 의사 업무는 AI 대체 가능성이 높은 것으로 나타났다고 전했다.
이 밖에도 한국표준직업 분류상의 소분류 기준, AI 노출 지수가 높은 일자리에는 화학공학 기술자, 발전장치 조작원, 철도 및 전동차 기관사, 상하수도 처리 장치 조작원, 재활용 처리 장치 조작원, 금속 재료공학 기술자 등이 미래에 AI로 대체될 확률이 높은 것으로 나타났다. 이러한 일자리들은 대용량 데이터를 활용해 업무를 효율화하기에 적합하다는 특징이 있다.
대면 및 관계 형성 중요한 일자리는 대체 위험 낮아
반면 대면 접촉 및 관계 형성이 중요한 일자리는 AI 노출 지수가 낮게 나타나는 경향이 있는 것으로 분석됐다. AI 노출 지수가 낮은 직업으로는 음식 관련 단순 종사자, 상품 대여 종사자, 종교 관련 종사자, 식음료 서비스 종사자, 운송 서비스 종사자 등이 제시됐다.
구체적으로 기자(86%), 서비스 종사원(87%), 성직자(98%) 등이 상위권에 꼽혔으며, 대학교수(99%), 가수나 경호원(하위 1% 이내) 등은 최상위권에 들었다. 특히 기자의 경우 AI가 주어진 정보로 기사 작성은 할 수 있으나, 대면 취재 업무 및 분석 업무까지는 대체할 수준이 아니기 때문에 AI 대체 지수가 낮게 나온 것으로 보인다고 설명했다.
AI가 노동시장에 미칠 영향
AI가 노동시장에 미칠 잠재적 영향을 종합해 보면, AI 노출 지수가 높은 일자리일수록 고용이 줄어들고 임금 상승률도 낮아질 가능성이 큰 것으로 예상된다. 이는 지난 20년간 산업용 로봇 및 소프트웨어 노출 지수가 높은 일자리의 고용 비중과 임금 상승률이 낮아진 결과에 기반한다. 구체적으로 AI 노출 지수가 10퍼센타일(percentile) 높을 경우, 향후 20년간 해당 일자리의 고용 비중은 7%p 줄어들고, 임금 상승률은 2%p 낮아질 것으로 예상해 볼 수 있다.
다만 한은은 AI와 같은 새로운 기술은 신규 일자리를 창출하기도 하지만 기존 일자리를 대체하기도 한다고 분석했다. 그러면서 기존 일자리 내에서도 업무를 수행하는 방식에 큰 변화가 나타날 수 있는 만큼 이러한 변화에 적응하기 위해서는 적절한 교육 및 직업훈련을 통해 필요한 숙련도를 유지하는 것이 한층 더 중요하다고 덧붙였다.
아울러 AI가 도입과 동시에 근로자들에게는 기존과 다른 능력이 요구될 것으로 내다봤다. 물론 STEM(과학·기술·공학·수학) 기술에 대한 수요는 여전히 견고할 것으로 예상되나, 이와 더불어 소프트 스킬에 대한 수요도 크게 늘어날 것으로 전망했다. AI는 반복적 업무뿐만 아니라 기존 기술로는 한계가 있는 인지적 업무까지 대체할 수 있다는 점에서 사회적 기술, 팀워크 능력, 의사소통 능력과 같은 소프트 스킬이 앞으로 더 많은 보상을 받을 가능성이 크다는 설명이다.
Picture
Member for
2 months 2 weeks
Real name
임선주
Position
기자
Bio
[email protected]
미디어의 영향력을 무겁게 인지하고 있습니다. 예리한 시각과 분석력을 바탕으로 공정하고 신뢰할 수 있는 정보만을 전달하겠습니다.
영국 에너지 기업 코리오제너레이션 & BP, 런던서 투자신고서 제출
코리오의 ‘차세대 해상풍력 프로젝트’, 넷제로 달성의 중추적 역할 수행
에퀴노르·오스테드 등도 국내 시장 진출, 향후 폭발할 잠재력에 기대
영국 에너지기업 두 곳이 우리나라 해상풍력 개발 사업에 총 11억6,000만 달러(약 1조5,000억원)를 투자한다. 이번 투자는 윤석열 대통령의 영국 국빈 방문 중에 결정됐다. 정권 교체와 함께 입지가 흔들리고 있는 태양광과 다르게 해상풍력은 윤 정부가 적극적으로 시장 육성을 공약한 만큼 향후 전망이 밝은 상황이다. 국내 해상풍력 시장에 진출한 글로벌 기업들이 우리 정부 정책에 기대를 품고 있는 가운데, 향후 본격적인 사업 추진에도 이목이 쏠린다.
이번 투자로 해상풍력 '트랙 레코드' 확보 전망
산업통상자원부는 22일(현지시간) 영국 런던에서 영국 에너지 기업 코리오제너레이션(이하 코리오)와 브리티시 페트롤리엄(BP)이 총 11억6,000만 달러(약 1조5,000억원) 규모의 한국 투자를 확정하고 투자신고서를 제출했다고 밝혔다. 산업부는 영국 에너지 기업이 우리나라의 해상풍력 발전단지를 개발하면서 타워 구조물, 터빈, 전력 케이블 등 해상풍력 핵심 기자재를 제작하는 국내 기업을 활용할 것으로 기대했다. 특히 우리나라 해상풍력 하부구조물 기업은 세계적으로 경쟁력을 갖춘 것으로 평가받는데, 이번 투자로 해상풍력 '트랙 레코드'를 확보할 것으로 전망된다.
산업부는 또 해상풍력 발전단지 유지·보수사업에 지역기업·인력이 참여하면서 해상풍력 발전단지 인근 지역 경제 활성화, 일자리 창출에도 기여할 것으로 내다봤다. 두 기업의 투자로 2030년에 목표한 해상풍력 발전용량 가운데 20%가 넘는 부분을 충당할 수 있게 됐다. 방문규 산업부 장관은 “이번 투자는 탄소중립 선도 국가인 영국과 무탄소에너지 협력이 강화되고 있음을 보여준다”며 “큰 잠재력을 가지고 있는 우리 해상풍력 산업 생태계 발전에 도움이 되길 기대한다”고 말했다.
코리오 “한국 해상풍력 사업에 박차”
코리오는 해상풍력 사업 투자·개발·운영을 전담하기 위해 설립된 글로벌 전문기업으로, 영국 정부가 세계 최초로 설립한 녹색투자은행(GIB)이 전신이다. 현재 코리오는 파트너 기업들과 해상풍력 사업의 발굴, 개발, 건설 및 운영에 이르기까지 긴밀하게 협력하고 있다. 코리오가 추진하는 30GW(기가와트) 규모 이상의 해상풍력 개발 포트폴리오는 기존 및 신흥 시장 전반에 걸쳐 있으며, 고정식과 부유식 기술을 망라하는 세계 최대 규모의 파이프라인 중 하나로 손꼽힌다. 이러한 차세대 해상풍력 프로젝트는 넷제로 달성을 위한 글로벌 에너지 시스템 형성에 중추적 역할을 수행할 것으로 기대되고 있다.
우리나라에선 토탈에너지스, SK에코플랜트와 함께 해상풍력 합작 사업 포트폴리오인 '바다에너지'를 설립, 울산·전남 바다에 부유식·고정식 해상풍력 사업을 개발 중이다. 현재 바다에너지는 울산항에서 약 60km 떨어진 배타적 경제수역(EEZ)에 원자력발전소 1기와 맞먹는 규모(1.5GW)의 부유식 해상풍력 발전단지 개발 프로젝트(귀신고래 1,2,3호)를 추진하고 있어 이번 코리오의 대규모 투자계획 발표로 해당 프로젝트 추진에도 속도가 붙을 것으로 보인다. 귀신고래 1,2,3호는 빠르면 오는 2025년부터 단계적으로 착공해 2028년 상업 운전개시(COD)를 목표로 하고 있으며, 3단계까지 완공되면 세계 최대 규모의 부유식 해상풍력발전단지 가운데 하나가 될 전망이다.
코리오는 지난 5월 대우건설과 부산 해상풍력 개발을 위한 업무협약을 체결한 바 있으며, 최근에는 한∙영 해상풍력 공급망 기업 협력 워크샵을 후원하는 등 해상풍력을 통한 지역 경제 활성화를 위해 꾸준히 노력하고 있다. 최우진 코리오 한국 총괄 대표는 “전 세계 탄소중립 목표를 위해 2050년까지 건설해야 하는 해상풍력 사업의 규모는 2,000GW고 이를 현재 기준 사업비로 환산하면 약 1경2,000조원”이라며 “이번 투자를 통해 한국 해상풍력 사업에 박차를 가해 국내 파트너들과 기술 국산화 및 공급망 구축에 힘쓰겠다”고 강조했다.
글로벌 해상풍력 기업들의 러브콜
글로벌 해상풍력 기업들의 국내 시장 진출이 이번이 처음은 아니다. 노르웨이의 국영 에너지기업이자 글로벌 부유식 해상풍력 선두기업으로 꼽히는 에퀴노르는 지난 6월 투자 신고식을 진행하고, 현재 울산 동쪽 해상에서 부유식 해상풍력단지 동해1(200MW·메가와트)과 반딧불(804MW) 발전소 사업을 허가받아 개발하고 있으며, 추자도에서도 해상풍력 개발을 추진 중이다. 이 중 반딧불 프로젝트는 울산 앞바다 150㎢ 넓이 해역에 800MW 규모의 반잠수식 해상풍력 발전단지를 건설하는 것으로, 오는 2028년에서 2029년 시운전을 목표로 한다. 에퀴노르가 이미 세계 첫 부유식 해상풍력단지인 하이윈드 스코틀랜드와 세계 최대 규모의 하이윈드 탐펜을 운영하며 부유식 해상풍력 부문에서 독보적인 위치를 확보했다는 점에서 반딧불 프로젝트에 국내외의 많은 관심이 모이고 있다.
지난해 1월에는 덴마크 해상풍력 개발업체인 오스테드가 한국전력 산하의 발전자회사인 남부발전·중부발전과 800MW 규모의 인천시 옹진군 해상풍력단지 개발 MOU(양해각서)를 각각 체결했으며, 주민참여형 해상풍력 추진을 위한 지역 주민 대상 설명회, 지역 기업에 잠재 기회를 소개하는 공급망 행사 개최 등 다양한 활동을 펼치고 있다. 이와 더불어 1.6GW 규모의 인천 해상풍력발전 사업도 적극 추진 중이다.
글로벌 풍력 기업들이 국내 해상풍력 시장에 진출, 활발한 움직임을 보이고 있는 이유는 향후 폭발할 잠재력에 기대를 걸고 있기 때문이다. 우리 정부는 지난 1월 발표한 ‘제10차 전력수급기본계획’을 통해 2021년 7.1%인 풍력발전 등 재생에너지 비중을 2036년 28.9%까지 확대하기로 했다. 이를 위해 현재 1.8GW 규모인 풍력발전 설비를 2036년까지 20배 증가한 34GW 수준까지 늘린다는 계획이다. 해당 목표를 달성하기 위해선 풍력발전 설비를 현재 연간 설치 규모보다 매년 10배 넘게 늘려야 하며 2030년까지는 매년 2.2GW(국내 원전 약 2기 설비 용량) 규모의 신규 설비가 필요하다.
이렇듯 정권이 바뀌자마자 천덕꾸러기 신세가 된 태양광과 달리 해상풍력은 윤 정부가 적극적으로 드라이브를 걸고 있어 향후 기대치가 높은 상황이다. 실제로 윤 대통령은 올해 1월 스위스 다보스포럼에서의 세일즈 외교를 시작으로 글로벌 해상풍력 기업으로부터 잇단 투자 유치 성과를 올리고 있다. 이어 지난 9월에는 김두겸 울산시장이 이끄는 해외 사절단이 세계 최초 해상풍력 상용화 단지인 포르투갈의 윈드플로트 아틀란틱을 방문해 대주주 오션윈즈와 투자의향서(LOI)를 체결하는 등 훈풍이 불고 있어 새로운 모멘텀으로 작용할 여지가 클 것으로 전망된다.