
서비스의 개발 논리를 이해하고 구현하는 것보다 무슨 '기술'인지 정보를 알아서 베끼는데 초점 맞춘 기업인들 많아대부분 연구직 출신들이 아니라 IT 개발자들이 머신러닝 코드 몇 줄을 배운 다음 '머신러닝 개발자'가 되었기 때문개발 직군들로 고급 AI상품 만들기 어려워, 한국 인력 상황 감안할 때 AI산업에 계속 투자하는 것은 밑빠진 독에 물 붓기 될 것 한국IT업계에서 개발자로 불리는 기술직군 관계자들을 기업 미팅에서 만날 때마다 자주 듣는 질문 중 하나로 "무슨 기술로 만들었나요?"가 있다. 특정한 사건을 관찰하고, 수식 기반으로 적절한 모델을 만들어서 그 사건 속에 담긴 문제를 해결하는 방식의 훈련을 받았던 입장에서 '무슨 기술'이라는 표현이 처음에는 잘 이해가 안 됐다. 그래서 '무슨 기술'이라는게 무슨 뜻이냐고 물으니 짜증난다는 말투로 "무슨 라이브러리로 만들었냐구요"라며 문제 해결 방식 뒤에는 개발자들에게 제공되는 코드 묶음집이 있을 것이라는 확신을 갖고 있다는 것을 보여줬다.
Read More



지루한 반복 업무 대신하는 챗GPT하지만 지적이고 도전적인 업무에는 벽 느껴챗GPT, 수학적 한계 극복하지 못하면 ‘헛소리 생성기’에 불과해 지난 1년 동안 대형언어모델(LLM)을 둘러싼 과대 광고가 끊임없이 이어졌다. 처음 대형언어모델이 등장했을 때, 사람들은 자신의 일자리가 로봇으로 대체될까봐 두려워했다. 그러나 1년이 넘는 기간 동안 챗GPT를 시험한 지금, 그 걱정은 많이 사그라들었다. 미국의 유명한 언어학자인 노엄 촘스키 교수는 “챗GPT가 헛소리를 내뱉는 고급 챗봇에 지나지 않는다”라며 챗GPT의 본질을 짚었다.
Read More
서울대 A교수, 김박사넷에 올라온 평가에 명예훼손 소송했지만 패소법원, 개인정보의 공익성 판단할 때 김박사넷 위법 행위 아냐교수 사회, 제대로 연구하면 김박사넷 D급 평가 받는다 불만 제기연구 역량보다 학생들 취직 지원하는데 더 집중해야하는 대학원 세태에 대한 지적도같은 사건 계속되면 국내 귀국 고민하는 교수들 늘어날 것이라는 불만도 나와 지난달 17일, 대법원은 서울대 A 교수가 '김박사넷' 운영업체 팔루썸니를 상대로 낸 명예훼손 및 인격권 침해 손해배상 소송에서 원고 패소 판결을 내렸다. 1달 동안 서울대 A교수가 다른 법적 조치를 취하지 않으면서 이달 17일 대법원 판결이 최종 확정됐다.
Read More

Many people think machine learning is some sort of magic wand. If a scholar claims that a task is mathematically impossible, people start asking if machine learning can make an alternative. The truth is, as discussed from all pre-requisite courses, machine learning is nothing more than a computer version of statistics, which is a discipline that heavily relies on mathematics.
Read More
WSJ, 미국 테크 기업들 AI 인재 채용 줄여, A급 인재만 채용단순 지식 뿐만 아니라 응용력, 협업 능력까지, 팔방미인 따져가며 채용국내도 늦었지만 개발자와 AI전문가 구분하기 시작해 26일 월스트리트저널(WSJ)에 따르면, 미국 테크 기업들이 AI에 막대한 투자를 이어가고 있는 와중에도 예전처럼 AI개발자 채용을 대규모로 진행하지는 않는다고 한다. 일부 A급 인재를 제외하면 해고 압박이 심하고, 재교육 부담이 가중되고 있다는 것이다. 지난 2018년부터 줄기차게 주장했던대로, 진작부터 이렇게 됐었어야 했는데, 투자금과 정부 지원금이 넘쳐났던 덕분에 시장의 교정 작업이 좀 늦어졌다고 본다. IT업계의 개발자라는 직군과 데이터 과학자, 혹은 AI 연구자(Researcher)로 불리는 직군 사이에는 아이돌과 판소리 급의 격차가 있다는 것이 조금씩 시장에 받아들여지는 모습이다.
Read More

Generative models are simply repeatedly updated model. Unlike discriminative models that we have learned from all previous lectures, such as linear/non-linear regressions, SVM, tree models, and Neural Networks, Generative models are closely related to Bayesian type updates. RBM (Restricted Boltzmann Machine) is one of the example models that we learned in this class. RNN, depending on the weight assignment for memory, can qualify generativeness.
Read More
Recurrent Neural Network (RNN) is a neural network model that uses repeated processes with certain conditions. The conditions are often termed as 'memory', and depending on the validity and reliance of the memory, there can be infinitely different variations of RNN. However, whatever the underlying data structure it can fit, the RNN model is simply an non-linear & multivariable extension of Kalman filter.
Read More

Constructing an Autoencoder model looks like an art, if not computationally heavy work. A lot of non-trained data engineers rely on coding libraries and a graphics card (that supports 'AI' computation), and hoping the computer to find an ideal Neural Network. As discussed in previous section, the process is highly exposed to overfitting, local maxima, and humongous computational cost. There must be more elegant, more reasonable, and more scientific way to do so.
Read More