Skip to main content

C커머스의 국내 시장 장악 속도 '주춤', 발암물질 검출·짝퉁에 등돌린 소비자들

C커머스의 국내 시장 장악 속도 '주춤', 발암물질 검출·짝퉁에 등돌린 소비자들
Picture

Member for

5 months 4 weeks
Real name
김민주
Position
기자
Bio
[email protected]
기술의 발전으로 우리는 지금 정보의 바다에 살고 있습니다. 독자 여러분들이 표류하지 않도록, 정확한 정보만 골라 빠르게 전달하겠습니다.

수정

1분기 해외 직구에서 중국 비중 역대 최대
유해성분·배송·짝퉁 등 소비자 민원 폭증
이용자 불만 증가, 추가 시장 확대에 걸림돌
ch_commerce_te_20240507

올해 1분기 해외 직접구매(직구)에서 중국이 차지하는 비중이 역대 최대를 기록했다. 알리익스프레스·테무 등 저가 제품을 앞세운 중국 온라인 쇼핑몰, 이른바 C커머스의 국내 공습이 영향을 미친 것으로 풀이된다. 다만 배송·반품에 대한 소비자 불만과 잇단 발암물질 등 유해성분 검출로 인해 추가 시장 확대에는 큰 장애가 되고 있다는 분석이 나온다.

1분기 해외직구 중국 비중, 57%로 급등

7일 유통업계에 따르면 1분기 온라인 해외 직접 구매액은 1조6,476억원으로 전년 동기 대비 9.4% 증가했다. 역대 1분기 가운데 최대 규모다. 국가별로는 중국(9,384억원), 미국(3,753억원), 유럽연합(1,421억원) 순으로 많았다. 작년 동기와 비교해 중국(53.9%), 기타 아시아(87%) 등은 늘었고, 미국은 19.9% 감소했다.

중국이 차지하는 해외 직구 비중은 지난해 1분기 40.5%에서 올해 1분기 57.0%로 16.5%포인트 증가했다. 관련 통계 집계 이래 가장 큰 비중이다. 상품군별로는 생활·자동차용품(49.9%), 컴퓨터·주변기기(72.7%) 등이 증가했고, 의류·패션 관련 상품(-2.4%)에서 감소했다. 해외 직접 판매액은 3,991억원으로 작년 1분기보다 37.0% 늘었다. 국가별로 중국(71.7%), 미국(17.9%)의 증가세가 두드러졌다.

1분기 온라인쇼핑 거래액은 59조6,768억원으로 작년보다 10.7% 증가한 것으로 집계됐다. 이 역시 역대 1분기 가운데 가장 많은 수준이다. 설 연휴 영향 등으로 여행·교통서비스(23.9%), 음·식료품(15.8%), 농·축·수산물(26.8%) 등에서 증가했다. 상품군별 온라인쇼핑 거래액 구성비는 음·식료품(13.9%), 여행·교통서비스(11.0%), 음식 서비스(10.9%) 순으로 높았다.

온라인 쇼핑 중 모바일쇼핑 거래액도 44조3,606억원으로 작년보다 10.8% 늘었다. 3월 온라인쇼핑 거래액은 20조4,523억원으로 1년 전보다 9.1% 증가했다. 특히 전기차 보조금 지급이 시작되면서 자동차·자동차용품 거래액이 79.3% 뛰었다.

기하급수적으로 증가하는 중국발 물품에 '군산세관' 신설도

중국발 해외직구 물품 반입이 기하급수적으로 증가하자 관세청은 중국발 소포를 전담할 물류센터를 군산항에 건립하기도 했다. 그간 군산항에는 자체 통관시설이 없어 평택·인천으로 물품을 보내야 했다. 하지만 물건을 옮겨 싣는 과정에서 물품을 바꿔치기 되는 등 부작용이 속출했다.

지난달 말 군산항에 마련된 군산세관 특송물류센터는 군산항으로 들어오는 특송화물을 통관할 수 있도록 1년간 사업비 총 18억원을 투입해 구축한 시설이다. 관세청은 비교적 적은 비용으로 신속히 사업을 완료하기 위해 건물을 신축하지 않고 전북도와 군산시의 지원을 받아 군산물류지원센터에 입주(1층, 3,153㎡)하는 방식으로 특송물류센터를 구축한 것으로 알려졌다.

특송물류센터는 연간 600만 건 이상을 처리할 수 있는 엑스레이(X-ray) 검색기(3세트), 특송화물 정보와 X-ray 이미지를 함께 표시하는 동시 구현시스템(3세트), 마약·폭발물 탐지기 등 최신 감시장비를 갖추고 있다. 관세청은 군산세관에 자체 통관시설을 갖춤으로써 입항지에서 즉시 물품을 검사할 수 있게 되는 만큼 마약이나 총기류, 불법 식·의약품 등 위해물품에 대해 보다 효과적인 위험 관리가 가능해질 것으로 기대하고 있다.

ali_express_Tech_001_20240507

폭주하던 중국 직구, 성장세 주춤한 이유

다만 중국 직구가 전체 직구에서 차지하는 비중이 확대되는 속도는 최근 다소 주춤하는 모양새다. 총 직구에서 중국 직구가 차지하는 비중은 지난해 1분기 40.5%, 2분기 46.8%, 3분기 49.9%, 4분기 54.3%, 올 1분기 57%를 기록했다. 그러나 중국 직구 비중 증가폭은 지난해 2분기 6.3%포인트로 정점을 찍고 내리막길을 걷고 있다. 올 1분기엔 중국 직구의 증가폭이 2.7%포인트에 그쳤고, 전년 동기 대비 중국 직구 구매액 증감율도 정점을 찍은 모양새다. 전년 동기 대비 중국 직구 구매액 증감률 역시 작년 4분기 67.5%로 고점을 찍고 올 1분기 53.9%로 내려왔다.

폭주하던 중국 직구가 주춤한 이유는 제품을 경험해 본 소비자들이 서비스와 제품, 배송에 대해 지속적으로 불만을 제기한 데 따른 결과로 해석된다. 어린이 제품에서 유해성품이 다량 검출되고 있는 것도 중국 플랫폼의 확장에 제동을 걸고 있다. 최근 관세청이 발표한 자료를 보면 알리익스프레스에서 판매한 어린이용 반지에서 중금속인 카드뮴이 기준치의 무려 3,026배까지 검출됐다. 뿐만 아니라 가방, 머리띠, 신발, 필기구 등에서도 기준치를 훌쩍 넘긴 유해성분이 검출됐다.

지식재산권을 침해한 소위 중국산 '짝퉁' 제품이 많다는 점도 소비자의 발길을 돌리게 만든 요인이다. 지난해 관세청에 적발된 중국산 지식재산권 침해 물품(특송목록 기준)은 6만5,000건으로 전년(6만 건)보다 8.3% 늘었다. 지난해 국경 단계에서 적발된 지식재산권 침해 물품은 총 6만8,000건이었다. 중국에서 온 경우(6만5,000건)가 96%에 달하는 것으로 짝퉁의 대다수가 중국산이었던 셈이다.

이에 소비자 민원 건수도 크게 늘었다. 더불어민주당 양경숙 의원이 한국소비자원에서 받은 자료에 따르면 알리익스프레스와 관련해 접수된 소비자 민원은 지난해 673건으로 전년(228건)의 약 3배였다. 2년 전(133건)과 비교하면 5배 이상으로 늘었다. 올해도 1, 2월에만 이미 352건의 알리익스프레스 관련 민원이 접수됐다. 테무 관련 소비자 민원 역시 올해 두 달 만에 17건으로 지난해 전체 민원(7건)을 넘어섰다.

Picture

Member for

5 months 4 weeks
Real name
김민주
Position
기자
Bio
[email protected]
기술의 발전으로 우리는 지금 정보의 바다에 살고 있습니다. 독자 여러분들이 표류하지 않도록, 정확한 정보만 골라 빠르게 전달하겠습니다.

'배민클럽'으로 구독경제 맞불 놓은 배달의민족, 구독 피로 넘어 시장 안착 가능할까

'배민클럽'으로 구독경제 맞불 놓은 배달의민족, 구독 피로 넘어 시장 안착 가능할까
Picture

Member for

5 months 4 weeks
Real name
박창진
Position
연구원
Bio
[email protected]
지근거리를 비추는 등불은 앞을 향할 때 비로소 제빛을 발하는 법입니다. 과거로 말미암아 나아가야 할 방향성을 비출 수 있도록 노력하겠습니다.

수정

구독제로 고객 끌어모은 쿠팡, 배달의민족도 '배민클럽' 출시 나섰다
전환비용 높이는 구독제, 유동 고객의 '충성고객화' 노리는 플랫폼들
구독 포화 상태로 접어든 시장, '후발주자' 배민클럽 성공할 수 있을까
BaeMinClub_BaedalMinjok_20240507-1
배달의민족 앱에 노출된 '배민클럽' 광고/사진=배달의민족

배달의민족이 유료 구독제 출시를 예고하고 나섰다. 쿠팡이 유료 구독 서비스인 와우회원을 통해 공세적인 마케팅을 펼치는 가운데 배민도 본격적인 구독 경쟁에 합류한 것이다. 다만 시장에선 배민의 구독제 전략이 성공적으로 안착하기는 어려울 수 있다는 전망이 나온다. 최근 들어 국내에서도 구독제 과중에 따른 '구독 피로'를 호소하는 이들이 부쩍 늘어나고 있기 때문이다.

유료 구독제 시사한 배민, 쿠팡과의 경쟁에 '맞불'

7일 업계에 따르면 국내 배달앱 1위 업체 배민은 지난달 25일부터 자사 앱에 유료 구독 멤버십인 '배민클럽'을 시행하겠다는 광고를 노출했다. 쿠팡이츠가 유료멤버십 회원을 대상으로 묶음배달 무료화를 시작하자 유료 구독제 도입으로 맞불을 놓은 셈이다.

시장에선 배민이 구독 서비스를 통해 고객 락인(Lock-In) 효과를 노리고 있는 것으로 보고 있다. 쿠팡의 유료 멤버십인 와우 회원이 1,400만 명을 웃도는 상황에서 쿠팡이츠로 갈아타는 고객을 돌리기 위해선 배민도 차별화된 유료 구독제가 필요했단 것이다. 이에 대해 한 시장 관계자는 "쿠팡이츠가 공격적인 마케팅을 시작한 만큼 배민 역시 다양한 혜택을 통해 고객 이탈을 방지하려는 것이 아니겠나"라고 설명했다.

배민 측도 배민클럽을 통해 기존 고객 유치 및 신규 고객 유입이 가능할 것으로 기대하고 있다. 다양한 혜택이 경쟁력 강화에 큰 기반이 될 수 있지 않겠냐는 시선에서다. 배민에 따르면 배민클럽을 가입할 시 여러 집 배달을 함께하는 알뜰배달의 배달비가 무료화된다. 단건 배달인 한집배달의 경우 기본 배달비를 1,000원 이하로 낮출 수도 있다. 배민 측 관계자는 "무료 배송의 횟수 제한은 아직 결정되지 않았지만, 구독 서비스를 이용하면서 할인 쿠폰 중복 사용이 가능하도록 할 것"이라며 "타사와 차별화된 혜택을 제공해 충성고객층을 확보해 나갈 계획"이라고 전했다.

delivery_app_TE_20240507

'멤버십 구독'으로 유동 고객 잡기 나선 배달앱 업계

배민의 사례에서 볼 수 있듯, 최근 배달앱 업계의 주안점은 무료 배달에서 멤버십 구독으로 옮겨 갔다. 유동적으로 움직이는 고객 풀에 대응할 필요가 있기 때문이다. 실제 배달앱을 이용하는 고객들은 쿠폰 하나에도 갈아타는 경우가 많다. 예컨대 그동안 배달앱 업계에 부동의 2위로 자리매김하고 있던 요기요는 쿠팡이츠가 무료 배달을 선언하면서 돌연 3위로 내려앉았다.

결국 차별화된 혜택이 있다면 판도가 순식간에 뒤바뀔 수 있음이 쿠팡이츠의 공격적인 마케팅을 통해 가시화한 셈이다. 이로 인해 현재 점유율에 안주하기보단 각사의 차별화된 혜택을 개발하는 데 주력해야 한다는 분위기가 업계에서 확산하기 시작했고, 결과적으로 멤버십 구독이 이를 위한 주요 전략으로 선정됐다는 게 전문가들의 설명이다.

전문가들은 멤버십 구독제가 특별히 선정된 이유로 '전환비용'을 꼽고 있다. 오프라인에서의 구매는 시간, 거리, 교통 등 다양한 요소가 영향을 미치기 때문에 소비자가 단골 가게를 쉽게 바꾸기 어렵다. 반면 온라인은 물리적인 제약이 없어 소비자들이 특정 구매처에 매이기보다는 더 낮은 가격을 찾아 구매처를 바꾼다. 즉 온라인은 소비자 입장에서 전환비용이 적은 셈이다. 반면 멤버십 구독제가 적용된 온라인 플랫폼은 소비자의 전환비용을 자연스럽게 높일 수 있다. 소비자 입장에서는 그동안 구독을 통해 쌓아놓은 마일리지와 각종 혜택을 한 번에 버리고 가는 게 어려워진다는 의미다.

배민 구독제에 시장은 "글쎄", 만연한 '구독 피로'가 발목 잡을 수도

다만 일각에선 배민의 멤버십 구독제 전략이 성공하기는 어려울 것이란 분석이 나온다. 최근 구독경제가 확산하며 회의론이 불거진 상태에서 후발주자로 등장한 배민 멤버십이 소비자들의 눈에 들 수 있을지 미지수라는 것이다. 멤버십 구독제는 이미 다양한 업계에서 시행 중인 대표적인 판매 전략 중 하나다.

넷플릭스, 디즈니플러스 등 OTT 서비스의 경우 구독제의 대표 격으로 불리는 상황이고, 아마존웹서비스(AWS), 슬랙(Slack) 등 클라우드 서비스도 구독제로 운영되는 경우가 많다. 이외 요기요 등 배달, 노벨피아 등 웹소설, 쿠팡 로켓와우 등 유통, 멜론 등 음악, LG유플러스 등 통신사, 네이버·카카오 등 빅테크와 같은 서비스에서도 구독제가 시행 중이다. 멤버십 구독제는 이미 만연화했다고 봐도 무방하다.

문제는 구독경제가 급성장하면서 소비자들의 피로감도 덩달아 높아졌다는 점이다. 인터넷 커뮤니티나 SNS 등지에서 구독 해지를 선언하는 이들이 속속 보이고 있다는 점이 이를 방증한다. 이렇다 보니 전문가들 사이에선 구독제 과중이 구독 서비스 규모 축소로 이어진 미국의 모습을 그대로 답습할 수 있다는 의견도 나온다.

실제 미국에선 이미 구독경제가 주춤하기 시작한 모양새다. 지불·결제 분야 전문 매체 페이먼츠닷컴에 따르면 미국에서 상품 구독 서비스 이용자의 평균 이용 개수는 2021년 2월 2.5개에서 10월 5개까지 증가했다가 2022년 5월 3.9개로 줄었다. 모바일 결제 플랫폼 방고(Bango)가 지난 4월 미국 소비자 2,500명을 대상으로 집계한 설문조사에선 응답자의 72%가 구독 피로감을 느끼고 있다 응답하기도 했다. 미국과 국내 상황이 별반 다르지 않은 시점에서 배민의 멤버십 구독제가 무난히 안착하기는 어려울 수 있다는 게 시장의 대체적인 평가다.

Picture

Member for

5 months 4 weeks
Real name
박창진
Position
연구원
Bio
[email protected]
지근거리를 비추는 등불은 앞을 향할 때 비로소 제빛을 발하는 법입니다. 과거로 말미암아 나아가야 할 방향성을 비출 수 있도록 노력하겠습니다.

'무빙'과 함께 끝나버린 전성기, 디즈니+ 이용자 수 감소 본격화

'무빙'과 함께 끝나버린 전성기, 디즈니+ 이용자 수 감소 본격화
Picture

Member for

5 months 4 weeks
Real name
김서지
Position
기자
Bio
[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.

수정

4월 디즈니+ MAU, 국내 주요 OTT 5개사 중 최하위
'무빙' 흥행 이후 소비자 잡아둘 콘텐츠 부족했다
줄줄이 흥행 실패하는 오리지널 콘텐츠, 활로 어디에
disney_plus_falling_20240507

한국 진출 당시 넷플릭스의 대항마로 꼽히던 디즈니+가 국내 시장 영향력을 잃어가고 있다. 이용자 수가 꾸준히 감소하는 가운데, 최근 선보인 새 오리지널 콘텐츠 ‘지배종’마저 이렇다 할 시장 반응을 이끌어내지 못하면서다. 디즈니+는 올해 하반기까지 다양한 오리지널 작품을 선보이며 '부활'의 기회를 엿볼 예정이다.

디즈니+ 이용자 이탈 가속화

7일 모바일인덱스에 따르면 지난달 디즈니+의 월간활성이용자수(MAU)는 229만 명으로 주요 OTT 5개 가운데 최하위 수준이자, 4위인 웨이브(408만 명)의 절반 수준이다. 월별 평균 이용자수도 작년 9월 70만8,000명으로 최고치를 기록한 뒤 10월 61만6,000명, 11월 49만5,000명, 12월 42만2,000명, 올해 1월 36만4,000명, 2월 39만4,000명, 3월 33만8,000명으로 꾸준히 감소하는 추세다. 신규 설치 건수 역시 지난해 9월 119만 건으로 정점을 기록한 이후 올해 3월 16만 건까지 미끄러졌다.

디즈니+는 한국 진출 당시 '부동의 1위' 넷플릭스의 대항마로 주목을 받았으나, 이후 미흡한 서비스 대처 등으로 비판을 받았다. 가장 큰 문제로 떠오른 것은 자막 문제였다. △오번역·문법 오류 △콘텐츠 시청을 방해하는 자막 인터페이스 △수시로 바뀌는 자막 위치 등이 시청 편의성을 저해한 것이다. 디즈니+에서 사용하는 한글 폰트가 사파리 등 특정 브라우저에서는 반영되지 않는다는 점 또한 감점 요인으로 작용했다.

가파른 가격 인상 정책 역시 소비자들의 반발을 샀다. 디즈니+는 오리지널 콘텐츠 '무빙'이 흥행한 지난해, 한국에서 월 이용료 가격(당시 월 9,900원)을 4,000원가량 인상한 바 있다. 이에 당시 소비자 사이에서는 “무빙을 제외하면 볼 것도 없는데 요금을 올린다”는 비판이 쏟아지기도 했다.

넷플릭스 대비 '한국산 콘텐츠' 부족해

누적된 소비자 불만은 가입자 이탈로 이어졌다. KT그룹 디지털 마케팅 플랫폼 기업 나스미디어의 ‘2024 인터넷 이용자 조사’에 따르면, 최근 6개월 이내에 디즈니+를 해지한 경험이 있는 이용자는 전체의 59.3%로 나타났다. 이는 여타 국내 주요 OTT 대비 18%p가량 높은 수치다. 같은 기간 각 OTT별 해지 경험자 비중은 쿠팡플레이·티빙·웨이브 42%, 넷플릭스 28%, 유튜브 프리미엄 20% 수준이었다.

해당 조사에서 디즈니+ 해지 경험 비율이 유독 높게 나타난 원인은 무빙의 종영이었다. 지난해 8월~9월 20일까지 순차적으로 공개된 무빙은 디즈니+ 내 오리지널 콘텐츠 1위 자리를 거머쥐며 세계적인 흥행을 거뒀다. 문제는 무빙을 통해 대거 유입된 신규 유료 가입자들을 붙잡아둘 만한 콘텐츠가 사실상 전무했다는 점이다.

moving_20240507
사진=디즈니+

업계 일각에서는 디즈니+가 무빙 흥행 이후 '한국 고객'을 위한 콘텐츠 확보에 더욱 매진해야 했다는 지적이 제기된다. 그도 그럴 것이 한국 시장에서 부동의 1위를 지키고 있는 넷플릭스는 CJ ENM과 제휴를 맺고, 지상파 콘텐츠 대거 수급하며 한국 이용자들의 발길을 사로잡았다. 하지만 디즈니+는 마블, 스타워즈 등 마니아층 수요가 대부분인 디즈니 오리지널 IP만을 앞세우며 한국산 콘텐츠 수급에는 힘을 싣지 않았다.

오리지널 콘텐츠 인기도 '지지부진'

무빙 이후 공개된 디즈니+ 오리지널 콘텐츠 역시 무빙만큼 흥행하지 못했다. 최근 넷플릭스의 △황야 △닭강정 △선산 △로기완, 티빙의 △이재, 곧 죽습니다 △LTNS △피라미드 게임 △환승연애3 △크라임씬 리턴즈 등 다양한 OTT 오리지널 콘텐츠가 대중적인 인기를 끈 것과는 사뭇 대조되는 분위기다.

디즈니+는 상황을 뒤집기 위해 지난달 새 오리지널 시리즈 ‘지배종’을 공개했지만, 이 역시 이용자 이탈 현상을 막지는 못했다. 디즈니+의 10부작 스릴러 드라마 지배종은 배우 주지훈, 한효주, 이희준, 이무생 등 스타 캐스팅과 ‘인공 배양육’이라는 신선한 소재 등을 앞세워 4월 최고의 기대작으로 손꼽힌 바 있다.

다만 부진한 성적에도 불구, 디즈니+는 한동안 한국 콘텐츠에 대한 투자를 이어갈 예정이다. 오는 5월 15일 오리지널 콘텐츠 '삼식이 삼촌’을 공개하고, 하반기에는 ‘화인가 스캔들’, ‘폭군’, ‘트리거’, ‘조명가게’ 등의 작품을 새롭게 선보인다. 이에 업계에서는 디즈니+ 측이 올해까지 K콘텐츠 시장 내 투자 성과를 지켜볼 것이라는 전망에 힘이 실린다. 투자가 성과로 이어지지 않을 경우, 디즈니+가 본격적으로 한국 시장 철수를 검토할 수 있다는 분석이다.

Picture

Member for

5 months 4 weeks
Real name
김서지
Position
기자
Bio
[email protected]
매일같이 달라지는 세상과 발을 맞춰 걸어가고 있습니다. 익숙함보다는 새로움에, 관성보다는 호기심에 마음을 쏟는 기자가 되겠습니다.

"정답은 말레이시아에" 한국 직원 줄이는 SK넥실리스, 해외 생산 기지에 힘 싣는다

"정답은 말레이시아에" 한국 직원 줄이는 SK넥실리스, 해외 생산 기지에 힘 싣는다
Picture

Member for

5 months 4 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.

수정

"생산 기지 해외로" SK넥실리스, 희망퇴직 단행
비용 절감의 열쇠는 말레이시아 소재 공장
현지 정부 지원 등으로 가격 경쟁력 확보 성공해
sk_nexilis_20240507_2

SKC의 2차전지용 동박 생산 자회사 SK넥실리스가 희망퇴직을 진행한다. 국내 대비 생산 비용이 저렴한 해외로 생산 거점을 이전, 본격적으로 수익성을 제고하겠다는 구상이다. 업계에서는 말레이시아에 위치한 '쌍둥이 공장'이 추후 SK넥실리스의 동박 생산 전반을 견인할 것이라는 전망에 힘이 실린다.

말레이시아로 생산 중심축 이동

7일 업계에 따르면 SK넥실리스는 이달부터 근속 5년 이상 직원을 대상으로 희망퇴직 신청을 받고 있다. 이와 관련 SK넥실리스 측은 “(희망퇴직을 진행하는 것은) 장기적으로 글로벌 생산 체제를 만들기 위해 국내 고정비를 선제적으로 줄여나가는 차원”이라고 밝혔다. 사실상 해외로 생산 중심축을 옮기겠다는 의지를 표명한 셈이다.

SK넥실리스 측은 지난 3일 실적 설명회에서도 “지금 가장 큰 과제는 원가 경쟁력이 상대적으로 떨어지는 정읍 공장의 (생산)물량을 최대한 빨리 말레이시아로 이관해 수익성을 개선하는 부분”이라고 밝힌 바 있다. SK넥실리스는 향후 말레이시아 공장을 중심으로 동박을 양산하고, 정읍 본사는 점차 생산량을 낮추면서 차세대 제품 연구개발(R&D) 기지로 활용하겠다는 계획이다.

이처럼 SK넥실리스가 과감한 수익성 제고 전략을 펼치는 원인으로는 △얼리어답터 초기 수요 급감 △고금리·고물가 △경기 위축 등에 따른 전기차 ‘캐즘(Chasm, 초기 시장과 주류 시장 사이에 나타나는 수요의 하락·정체 현상)’이 꼽힌다. 글로벌 전기차 시장 전반이 위축되며 SK넥실리스의 실적 압박 역시 가중됐다는 시각이다. 실제 SK넥실리스는 지난 1분기 399억원의 영업손실을 기록하며 직전 분기보다 적자 규모를 소폭 키운 바 있다.

낮은 전력비, 높은 생산성

SK넥실리스 측이 수익성 개선 전략의 '핵심'으로 언급한 말레이시아 생산 기지는 코타키나발루에 위치한 두 개의 공장을 일컫는다. 현재 SK넥실리스는 말레이시아에서 1공장을 가동 중이며, 추가로 2공장을 조성하고 있다. 특히 준공 이후 상업 가동 중인 1공장은 동박 제조원가의 상당 비중을 차지하는 전력비를 대폭 절감하며 시장 경쟁력 강화에 성공한 상태다.

SK넥실리스 말레이시아 1공장의 한 달 전력 사용량은 사바주(코타키나발루) 전체 사용량의 절반 수준(80MW) 규모에 달한다. 하지만 현재 SK넥실리스 말레이시아 공장의 전력비는 기존 대비 절반 이하, 타 동남아시아 국가와 비교해도 70% 수준인 것으로 전해진다. 현지 정부가 글로벌 기업 유치를 위해 법인세 면제, 전기 요금 인하 등 각종 혜택을 제공한 결과다.

sk_nexilis_20240507
SK넥실리스 말레이시아 동박 공장/사진=SKC

SK넥실리스의 말레이시아 생산기지는 같은 규모와 구조를 갖춘 쌍둥이 공장 형태를 띤다. 현재 막바지 공사를 진행하고 있는 2공장이 완공될 경우, SK넥실리스 측은 5만7,000톤 규모의 생산성을 갖춘 해외 생산 기지를 확보하게 된다. 코타키나발루가 1~6공장이 운영되는 정읍공장과 함께 글로벌 핵심 사업장으로 자리매김하게 되는 셈이다. 2공장은 올해 2분기 완공 예정이다.

말레이시아 공장의 경쟁력은?

시장에서는 SK넥실리스가 말레이시아 진출을 통해 중국의 '저가 동박' 공세에 본격적으로 대응할 것이라는 전망이 흘러나온다. 자체 동박 제조 기술력을 보유한 SK넥실리스가 가격 경쟁력까지 갖출 경우, 보다 확실하게 글로벌 시장 입지를 점할 수 있을 것이라는 분석이다. SK넥실리스는 세계에서 가장 얇은 두께(4㎛(마이크로미터))의 동박을 제조하는 기업으로, 이를 가장 넓고 길게 양산하는 기술도 보유하고 있다. 단순 제조를 넘어 자체 기술력을 바탕으로 고객사가 요구하는 다양한 두께·너비·길이의 동박 제품을 생산할 수 있다는 의미다.

말레이시아 공장이 '친환경성'을 인정받고 있다는 점 역시 호재로 꼽힌다. SK넥실리스는 신재생에너지공급인증서(REC) 사전 확보, 전력 장기 계약 등을 통해 사용 전력의 100%를 재생에너지로 충당할 준비를 마쳤다. RE100(Renewable Electricity 100%, 기업 활동에 필요한 전력의 100%를 재생에너지로 대체하는 자발적인 글로벌 캠페인) 달성을 위한 발판을 다지며 글로벌 시장 추세에 발을 맞추고 있는 것이다.

이 같은 시도는 2공장의 완공을 위한 밑거름이 됐다. 지난 2월 SK넥실리스 말레이시아 법인은 그린론으로 자금을 확보했다. 그린론은 전기차·신재생에너지 등 친환경 사업 용도로 자금을 조달하는 방식으로, 사업의 친환경성을 인정받으며 일반 기업 대출보다 낮은 금리로 자금을 빌릴 수 있다는 장점이 있다. 그린론을 통해 조달한 자금은 말레이시아 2공장 건설에 투입될 예정이다.

Picture

Member for

5 months 4 weeks
Real name
전수빈
Position
연구원
Bio
[email protected]
독자 여러분과 '정보의 홍수'를 함께 헤쳐 나갈 수 있는 뗏목이 되고 싶습니다. 여행 중 길을 잃지 않도록 정확하고 친절하게 안내하겠습니다.

"HBM 큰손 엔비디아 잡아라" 삼성전자, 반도체 에이스 400명 투입

"HBM 큰손 엔비디아 잡아라" 삼성전자, 반도체 에이스 400명 투입
Picture

Member for

5 months 4 weeks
Real name
이동진
Position
기자
Bio
[email protected]
흑백의 세상에서 회색지대를 찾고 있습니다. 산업 현장을 취재한 경험을 통해 IT 기업들의 현재와 그 속에 담길 한국의 미래를 전하겠습니다.

수정

삼성전자, 반도체 에이스로 TF·개발팀 꾸려
SK하이닉스-삼성전자, 차세대 HBM 기술 개발에 총력
HBM 가격 낮추려 경쟁 유발? '엔비디아의 큰 그림' 분석도
SAMSUNG_HBM3E_TE_20240507_007

삼성전자가 차세대 고대역폭메모리(HBM)를 엔비디아에 납품하기 위해 반도체 에이스 임직원 400여 명을 투입한 것으로 알려졌다. 삼성전자가 특정 고객사를 뚫기 위해 이렇게 많은 인력을 투입한 것은 이례적인 일이다. HBM 큰손인 엔비디아를 잡아야 시장 주도권을 거머쥘 수 있다는 판단에 따라 회사의 역량을 총동원한 것이라는 분석이 나온다.

삼성전자, HBM 전담 개발팀 400명 규모로 조직

6일 산업계에 따르면 삼성전자는 현존 최고 성능 HBM인 ‘HBM3E 12단’ 제품을 오는 3분기 엔비디아에 납품하기 위해 최근 100명 규모의 태스크포스(TF)를 조직했다. “HBM의 품질·수율을 올려 납품을 서둘러달라”는 엔비디아의 요청에 따라 해당 TF는 수율 향상에 집중적으로 매달리고 있는 것으로 알려졌다. 나머지 300여 명은 HBM4 개발팀에 배속됐다. 이들은 이르면 연말께 HBM4 개발을 완료해 내년 엔비디아 문을 두드린다는 계획이다.

삼성전자 사안에 밝은 한 관계자는 "지난 3월 초 이정배 메모리사업부장이 HBM 개발조직 신설 검토를 지시한 뒤, 빠르게 조직 개편이 이뤄지고 있다"며 "3월 중순부터 AVP팀 등 인력들이 HBM 개발팀으로 이동했다"고 설명했다. 이어 "개발조직 규모는 팀으로 정해졌는데, 팀은 통상적으로 400여 명 규모 조직으로 구성된다"고 부연했다.

삼성전자의 HBM 개발팀 신설은 HBM3E 시장부터 헤게모니를 되찾겠다는 구상으로 읽힌다. 3세대 제품인 HBM2E의 경우 D램 3사 중 삼성전자의 점유율이 가장 높았으나, HBM3부터는 SK하이닉스가 독주하고 있는 양상이다. HBM개발팀은 HBM3E 수율 안정화, HBM4 개발 등 업무를 담당할 것으로 예상된다. 특히 HBM4는 핀펫(FinFET) 공정을 로직다이 등에 적용하고, HBM3E 대비 입출력(I/O)이 2배 늘어나는 등 HBM3E와 비교해 개발 난도가 높다.

HBM개발팀의 첫 과제는 HBM3E 수율 안정화와 엔비디아 퀄테스트 통과 등일 것으로 추정된다. SK하이닉스와 마이크론 등 경쟁사가 엔비디아에 HBM3E 제품을 상반기 내 공급하는 것으로 보이는 가운데, 삼성전자 HBM3E의 경우 아직 퀄테스트를 진행 중인 것으로 알려졌다.

반도체 게임체인저 HBM, 차세대 제품 놓고 경쟁 치열

최근 HBM 시장을 주도하고 있는 SK하이닉스와 이를 바짝 추격 중인 삼성전자의 기술 경쟁이 치열하다. 5일 업계에 따르면 SK하이닉스는 최근 경기도 이천 본사에서 열린 'AI 시대, SK하이닉스 비전과 전략' 기자간담회에서 이달 중으로 5세대 제품인 HBM3E 12단 샘플을 제공하고 올해 3분기 양산할 것이라는 계획을 밝혔다. SK하이닉스는 HBM3E 8단 제품도 지난 3월 세계 최초로 양산해 엔비디아에 가장 먼저 공급하고 있다. 엔비디아가 전 세계 인공지능(AI) 시장의 80%를 장악하는 만큼 AI 분야에서 SK하이닉스 영향력 또한 커지고 있다.

이에 더해 SK하이닉스는 현재 6세대·7세대 제품인 'HBM4'와 'HBM4E'를 준비 중이다. 차세대 제품들을 선제적으로 개발해 HBM 1위를 공고히 하겠다는 의지로 풀이된다. SK하이닉스는 HBM의 성능을 높이기 위해 HBM 핵심 패키지 기술 'MR-MUF'를 활용한다. 이 기술은 과거 공정 대비 칩 적층 압력을 6% 수준까지 낮추고 공정시간을 줄여 생산성을 4배로 높였다. SK하이닉스가 도입한 어드밴스드 MR-MUF는 신규 보호재를 적용해 기존보다 방열 특성을 10% 더 개선했다. 이를 16단 등 고단 적층 HBM 생산에 적극 도입할 방침이다. 이와 함께 최근 낸드플래시 생산에 쓰일 것으로 알려진 'M15X' 팹(공장)의 용도를 D램으로 결정했다. HBM 생산능력을 확대하기 위해서다.

현재 HBM 2위인 삼성전자도 추격에 속도를 올리고 있다. 삼성전자는 지난달부터 HBM3E 8단 제품의 양산에 들어갔다. 또 HBM3E 12단 제품도 2분기 내 양산 예정이다. 이르면 하반기에 엔비디아에 HBM3E 12단을 공급할 것으로 보인다. 삼성전자는 최근 차세대 HBM에서 기술력 격차를 내기 위해 메모리와 파운드리, 어드밴스드패키징 등 사업부 역량과 리소스를 모두 모으겠다는 전략을 밝혔다. 전사적 차원에서 HBM 시장에 대응하겠다는 뜻이다.

삼성전자는 또 '설계-제조-패키징'을 한 번에 하는 '턴키(일괄시행)' 전략으로 점유율을 늘려나갈 전략이다. 메모리와 시스템반도체, 패키징 등 전 공정을 모두 수행할 수 있는 장점을 살린 것이다. 아울러 올해 HBM의 출하량도 전년 대비 2.9배로 늘릴 계획이다. 연초까지만 해도 목표치는 2.5배였지만 빠른 시장 선점을 위해 이를 상향 조정했다.

papatonybear_20240507
최태원 SK그룹 회장이 4월 24일(현지시간) 미국 실리콘밸리를 찾아 미국 반도체 기업 엔비디아 젠슨 황 최고경영자(CEO)와 만나 대화하고 있다/사진=최태원 회장 인스타그램

SK하이닉스·삼성전자 경쟁 부추기는 엔비디아

이처럼 HBM 경쟁이 격화하는 가운데, 그 열쇠를 쥔 AI 칩 선두 주자인 엔비디아의 행보에도 업계의 관심이 쏠린다. 특히 일각에선 엔비디아가 HBM 시장에서 경쟁하고 있는 삼성전자와 SK하이닉스 간 경쟁을 부추기고 있다는 지적도 나온다. 최근 HBM 시장에서 엔비디아를 둘러싸고 나오는 각종 정보가 불명확해 의도적인 경쟁 유발에 대한 의구심을 키우고 있다는 것이다.

실제로 업계에선 엔비디아가 현 공급사, 잠재적인 공급사 간의 관계를 곧바로 정립하지 않고 군불을 때는 듯한 정보만 흘려 경쟁을 유도, HBM 가격을 내리려 하고 있다는 분석이 적지 않다. 최태원 SK그룹 회장이 지난달 25일 짧게라도 시간을 내 미국 실리콘밸리에서 젠슨 황 엔비디아 최고경영자(CEO)를 급히 만난 것도 이와 무관치 않은 것으로 풀이된다.

엔비디아는 삼성전자가 업계 최초로 개발한 HBM3E 12단 제품을 "'테스트하고 있다"며 공급 가능성을 열어둔 지 한 달 이상이 지났지만, 아직까지 공급에 대한 명확한 발표를 내놓지 않고 있다. 업계에선 이를 삼성전자를 움직이게 하려는 전략으로 해석한다. 삼성전자가 2분기부터 HBM3E 12단 제품을 양산하겠다고 발표하며 먼저 전면에 나선 것도 이런 엔비디아의 미적지근한 행보를 빼고는 설명이 어렵다. 엔비디아가 자사로 공급되는 HBM의 가격을 낮추기 위해 두 기업의 경쟁을 의도적으로 유발하고 있다는 것이다.

다만 업계 일각에서는 가격 경쟁의 부대효과로 기술 경쟁도 쉬지 않고 계속 발생해 장기적으론 긍정적으로 보는 평가들도 나온다. 기본적으로 삼성전자, SK하이닉스가 모두 기술력을 높이면서 HBM의 가성비에 궁극적인 목적을 두고 있기 때문이다. 결과적으로 엔비디아를 통해 가격 경쟁력을 갖추면 전체 시장에서의 경쟁력도 상승하는 효과를 기대해 볼 수 있는 만큼, 자칫 불편할 수 있는 상황을 기회로 이용할 수 있다는 것이다.

Picture

Member for

5 months 4 weeks
Real name
이동진
Position
기자
Bio
[email protected]
흑백의 세상에서 회색지대를 찾고 있습니다. 산업 현장을 취재한 경험을 통해 IT 기업들의 현재와 그 속에 담길 한국의 미래를 전하겠습니다.

Class 8. Summary of Deep Learning

Class 8. Summary of Deep Learning
Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Model examination is available from above link. The last class solves previous year's (or similar) exam while covering key components of the earlier classes.

Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Class 7. Deep Generative Models

Class 7. Deep Generative Models
Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Generative models are simply repeatedly updated model. Unlike discriminative models that we have learned from all previous lectures, such as linear/non-linear regressions, SVM, tree models, and Neural Networks, Generative models are closely related to Bayesian type updates. RBM (Restricted Boltzmann Machine) is one of the example models that we learned in this class. RNN, depending on the weight assignment for memory, can qualify generativeness.

To further help you to understand the difference, let's think about K-means. Once you have a fixed group, there is not much we can do, unless we run the same code to find another matching group. Then, what if there is a point that is nearly arbitrary to claim either group A or B. We may assign 50:50 probability, but K-means does not support such vagueness. Gaussian Mixture Model (GMM), however, assumes that there are N number of gaussian processes in the data, so a point at an overlapping area between group A and B can earn some probability (in terms of Z-stat) for its group assignment. The grouping is updated recursively, which qualifies generativeness.

COM503 Class7 p2

With some Bayesian type updating between Prior and Posterior, we term them as EM algorithm.

  • E-step: Compute the posterior probability that each Gaussian generates each datapoint
  • M-step: Assuming that the data really was generated this way, change the parameters of each Gaussian to maximize the probability that it would generate the data it is currently responsible for

Like we did with Gibbs sampling (and RBM), the model eventually converges as long as it fits all mathematical properties.

COM503 Class7 p7

The same process can be applied to any data that we don't know the hidden forms of underlying distribution and target distribution. For example, Latent Dirichlet Allocation (LDA), one of the most fundamental and popular natural language model, assumes that words in paragraphes have hidden variables, which it calls 'topic'. Simply put, each paragrah should have a few topics, but until one reads the paragraph carefully, it is not easy to capture the topics. LDA, with a vague assumption of the hidden variables, without any deterministic density information of words, finds hidden topics. The topics help us to find what are the contents of the paragraph, the section, and the book.

COM503 Class7 p16

From autoencoder to GMM and LDA, due to interdependency between the input and output layers of network, all neural network models need some level of generative construction process, unless the universally fitted form of network is known.

It may sound too cumbersome, especially for researchers from analytic solutions, but the data that we have is highly irregular that we often have to rely on computational solutions.

Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Class 6. Recurrent Neural Network

Class 6. Recurrent Neural Network
Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Recurrent Neural Network (RNN) is a neural network model that uses repeated processes with certain conditions. The conditions are often termed as 'memory', and depending on the validity and reliance of the memory, there can be infinitely different variations of RNN. However, whatever the underlying data structure it can fit, the RNN model is simply an non-linear & multivariable extension of Kalman filter.

Given that NN models are just an extension of Factor Analysis for non-linear & multivariable cases with network structure, Kalman filter to RNN follows the same logic. The Kalman filter process updates previous state's variables after an observation and potential errors. Say, one can predict a car to move from position A to B. But in reality, you maybe able to find the car in position D. The error, e=(D-B), should be used to fix the model's next stage prediction. Assume that you give 50% weight to the error correction, because the error is not always that large. Then, the updated model will give the expected position C=B+0.5e. In other words, in every stage, previous stage's error helps correction so that we can hopefully minimize errors in later stages.

COM503 Class6 p4

Then, we can see two aspects of RNN is just another combination of traditional stat models. From autogressive processes, we can see that memory is preserved. It does not mean that memory is completely preserved (like LSTM, a variation of RNN), but ARMA keeps memory to some distant future.

The error correction part by the state variable is similar to Kalman filter. RNN uses the state variable whether to turn on memory or skip it. When it turns on memory, depending on the choice of weights, the model reflects proportional amount of memory with some correction by the new input. In Kalman, it is called weighted error correction, like we end up with C, instead of B or D. In RNN, it is just feed forward and back propagation.

COM503 Class6 p2
COM503 Class6 p2

The reason RNN can perform superior to many time series processes with memory is due to its power to fit to non-linear and multivariable cases. Below is an equational form comparison between Kalman filter and RNN that illustrates the spectacular similarity in functional forms, except non-linear transformation like activation function.

Although one can construct a non-linear Kalman filter and even include more than one variable, but then VAR(Vector AutoRegressive) models are required with fixed functional form. RNN, on the other hand, relies more on data. Though the dependency to data creates similar problems that we have seen with other regular NN models, additional computational costs for certain data processes can be decently compensated for the better fit and flexibility.

COM503 Class6 p12
Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Class 5. Image recognition

Class 5. Image recognition
Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

As shown by RBM's autoencoder versions, if the neural network is well-designed, it can perform better than PCA in general when it comes to finding hidden factors. This is where image recognition relies on neural network.

Images are first converted to a matrix with RGB color value, (R, G, B), entries. The matrix is for the coordination of each RGB color value. If three dimensional image, then you need a tensor with RGB color value entries. In below sample, I took the average value of RGB entries for better understanding. In fact, if it is black/white, you only need the matrix, because (R, G, B) can be translated to a single 0~1 value.

COM503 Class5 p2

When a modeler tries to feed the image data to the model, it relies on sliding for various reasons. The slider is also known as a filter, which is widely used for photo filtering. SNS images, for example, are frequently modified. The filter you can find in the photo app or an SNS app is basically the same as the slider that we use in image recognition.

COM503 Class5 p3

Depending on your choice of the filter, the output matrix becomes different. It may help you to have black/white effect or sharpening. There are thousands of different filters.

One of the key reasons that we rely on the slider in image recognition is, after the sliding, the feed data size becomes smaller. The higher resolution the image is, the more data the Neural Network has to process. Given that Neural Network model is known as one of the the most computational cost consuming method, it is strictly preferred to reduce the image data size. One does not want to lose the important features of the data, just like we use PCA. This is why the choice of filter is a key component of the successful image recognition. For some images, filter A can perform magnificently better than filter B.

COM503 Class5 p7

Another technique that we rely on for image recognition is convolutioning. From the slided, or scanned, image data, fully connected neural network forces us to find weights for all links. The convolution helps us to avoid such overlaps, which can further minimize computational costs.

COM503 Class5 p14

To help you to understand that CNN based image recognition model is still an extension of factor analysis, let's talk little bit of Generative Adversarial Networks (GAN).

The model captures a couple of latent features of the image at the beginning. Just like the first stage of autoencoder, the choise of latent nodes is a key to build a winning model in accuracy and speed. From the latent components, the CNN's convolutioning helps us to further speed up finding weights. The GAN model itself is just another variation of MCMC sampling. You just create a lot of images with some random error from the same latent space. The error imposed images are considered fake images. Your discreminator is supposed to exclude the fakes. It then becomes a simple classification problem. By the artificially created fake image data, the model can learn from more number of data. As discussed in COM501: Scientific Programming, the simulation can help us to find the true population in that $I_M \rightarrow I$ as $M \rightarrow \infty$.

Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Class 4. Boltzmann machine

Class 4. Boltzmann machine
Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI

Constructing an Autoencoder model looks like an art, if not computationally heavy work. A lot of non-trained data engineers rely on coding libraries and a graphics card (that supports 'AI' computation), and hoping the computer to find an ideal Neural Network. As discussed in previous section, the process is highly exposed to overfitting, local maxima, and humongous computational cost. There must be more elegant, more reasonable, and more scientific way to do so.

Let's think about a multi-layered neural network model. From the eyes of Factor Analysis, each layer is one round of factor analysis. The factor analysis is in fact a re-contruction of vector space, as was discussed in PCA. In sum, the multi-layered neural network model is a series of re-constructions in vector space. What is the re-construction doing? By PCA, it orthogonalizes data's dimension. Factor analysis in general changes the vector space's key axes. In statistical terms, it is a transformation of density functions from one to another. Both processes preserve the data's hidden information. The vector space as a whole is the same. Only axes are different. Density functions are different, but information in the data set is still the same.

COM503 Class4 p2

Since each node is a marginal density function and the combination of them on each layer is a joint density, moving from one layer to another layer is a transformation of one joint density to another. In the density, it is no more than a multiplication of functions, if they are independent. However, between two layers, we know that the deep learning structure has dependency to each other. Assuming that the first layer is the data input, then the second layer depends on how much weights are assigned to each link. Depending on the structure of the second layer and weights, the third layer is affected. Once the feed forward process is done, then the back propagation is the opposite process. Though the chain rule helps us to avoid painstaking calculations in each step, nonetheless, the dependency to each layer remains.

This is where we need MCMC, or more specifically Gibbs sampling type approximation. Note that Gibbs sampling assumes input data's distribution, and expects what will be the outcome's density. Once done, then the outcome's density becomes the new input, and we use the information to re-construct the outcome, which is the original input. By running back and forth, the process is expected to converge. Although the correlation between nodes can be a bothersome issue, either over- or under-estimating key weights, such irregularity can be handled by Metropolis-Hastings type corrections. Gibbs class samplings are, in short, two groups of dependent sampling process, instead of a single group. The Bayesian technique precisely fits to our autoencoder problem.

COM503 Class4 p5

Note that constructing a belief network for rational model has to deal with multiple intrinsic problems. (Mentioned in the aboved screen-captured lecture note). All of them can be successfuly handled by Gibbs type autoencoder.

The structure is known as 'Restricted Boltzmann Machine (RBM)'.

COM503 Class4 p13

As is illustrated in the above lecture note, the model can capture key hidden factor components better than PCA.

Picture

Member for

5 months 4 weeks
Real name
Keith Lee
Bio
Head of GIAI Korea
Professor of AI/Data Science @ SIAI