최저임금 단상

  • 직원의 위험: 최저임금이 오른다 -> 그만큼의 시간 생산성을 제공하지 못하는 직원은 일자리를 잃는다
  • 기업의 위험: 최저임금이 오른다 -> 직원의 시간당 노동에서 그만큼의 가치를 만들어낼 수 없는 기업은 망한다
본문 보기

정책 경사(Policy Gradient)

배경

그냥 쉽게 생각해보자. 특정한 상황이 주어지고 내가 어떤 행동을 취하면 모종의 규칙에 따라서 즉각적인 보상을 받는 게임이 있다. 상황과 행동은 의미를 알 수 없는 숫자로 표현되기 때문에 추정할 수 없으며, 경우의 수는 무척 많다. 이 게임이 계속 반복된다고 할 때, 최대한 많은 보상을 받으려면 어떻게 해야 할까?

각 상황에서 보상이 가장 큰 행동이 무엇인지를 찾는 일 자체도 물론 어렵지만, 그것만으로는 부족하다. 문제의 정답만 외우는 것과 같아서 조금만 다른 상황이 와도 제대로 대응할 수 없기 때문이다. 상황과 행동과 보상의 관계를 학습해야 한다. 이 문제를 지도학습(Supervised Learning)으로 풀 수 있을까? 보상을 일종의 레이블로 생각할 수 있겠지만 상황과 행동의 관계를 어떻게 포뮬레이션할지가 좀 막막하다.

본문 보기

문제의 수준과 지속적인 개선

사람이 모인 곳에 문제와 갈등이 없을 수는 없다. 겉으로 드러나는 갈등의 존재 여부만 가지고 성과를 판단하면 안 된다. 기존과 똑같다고 단정해서도 안 된다. 모든 갈등의 수준이 동일한 것은 아니기 때문이다. 아직 기초적인 수준의 문제를 놓고 다투는 곳이 있는가 하면, 그런 문제는 진작에 해결하고 훨씬 고차원의 문제로 씨름하는 곳이 있다.

본문 보기

Gradient Boosting 알고리즘: 개념

기계학습에서 부스팅(Boosting)이란 단순하고 약한 학습기(Weak Learner)를 결합해서 보다 정확하고 강력한 학습기(Strong Learner)를 만드는 방식을 의미한다. 정확도가 낮더라도 일단 모델을 만들고, 드러난 약점(예측 오류)은 두 번째 모델이 보완한다. 이 둘을 합치면 처음보다는 정확한 모델이 만들어지고, 그럼에도 여전히 남아 있는 문제는 다음 모델에서 보완하여 계속 더하는 과정을 반복하는 원리다.

본문 보기

경험적 베이즈 방법에 대해서

경험적 베이즈(Empirical Bayes, EB) 방법에 대해서 간단히 알아보자. 위키피디아에서 찾아보면, 통계적 추론을 할 때 사전확률 분포(Prior Distribution)를 데이터로부터 추정하는 방식이라고 설명한다. 데이터를 보기 전에 사전확률을 고정(Fix)하는 베이지안 방법과 대비된다는 내용이 이어진다. 하지만 이런 설명만으로는 개념을 잡기가 쉽지 않은데, 마침 구체적인 사례와 함께 이 방법론을 설명하는 시리즈 글이 두 개가 있다. 첫 번째는 야구 타자의 타율을 추정하는 문제에 대한 David Robinson의 글이고 두 번째는 전자상거래 사이트에서 상품의 노출 대비 판매율을 추정하는 문제에 관해 이베이 테크 블로그에 올라온 David Goldberg의 글이다.

본문 보기

Active Learning: 무엇을 먼저 배울 것인가

어떤 데이터를 먼저 레이블링해서 알고리즘이 학습하게 할 것인지가 액티브 러닝(Active Learning, 번역하면 능동학습?)의 핵심 질문이다. 우리의 경험에 비추어보자. 자신을 발전시키고 싶을 때, 스스로에게 무엇을 먼저 배우게 할 것인가?

첫 번째 방법은 알쏭달쏭한 것부터 물어보는 것이다. “Q1 문제에 대한 답은 A1이라고 생각하고 정답을 확신해. 그런데 Q2에 대한 답은 A2같기는 한데 자신은 없어.”라는 상황에서 무엇을 물어야 할지는 자명하다. 이런 방식을 Uncertainty Sampling이라고 하고, 불확실성을 정량화하기 위해 아래의 방식들이 제안되었다.

본문 보기

blog built using the cayman-theme by Jason Long. LICENSE