로그인 바로가기 하위 메뉴 바로가기 본문 바로가기

인공지능 및 기계학습 개론Ⅰ

임시 이미지 KAIST 산업및시스템공학과 문일철
http://kooc.kaist.ac.kr/machinelearning1_17/forum/29089
좋아요 3574 수강생 17094

안녕하세요. 강의를 보다가 두가지 부분에 대해서 궁금한 부분이 있습니다. 

Q1. 베르누이 실험의 theta를 mu(x)로 표현한 이유 

https://www.edwith.org/machinelearning1_17/forum/12860 에 올라온 답변을 봤지만, 조금 이해가 안 가는 부분이 있어서 다시 질문드립니다. 기존 MLE관점에서는 P(D|$theta$)를 극대화하는 $theta$값이었는데, 여기에서는 P(y=1|x)를 극대화하는 x의 함수값이라고 생각해도 무방할까요? 그리고 이때의 함수가 로지스틱 함수를 따른다고 생각하는게 맞는 지 궁금합니다. 


그렇다면, 이전의 MLE에서는 빈도주의 관점에서 theta는 상수가 되는 것이고 여기서는 베이지안 관점에서 확률 변수로 해석해야하는 것인가요? 이전의 $theta$가 로지스틱으로 넘어오면서 어떤 식으로 바뀌었는 지 궁금합니다. 



Q2.  Ax+B = log(x/(1-x))으로 피팅해주는게 정확히 어떤 의미인가요? x = P(Y|X)를 따르는데, 이때에 좌변의 x와 우변의 x가 값인가요? X * THETA = log(p/(1-p))의 식만 봐서는 좌변의 x는 logit 변형을 해주기 전의 x를 의미하는 것 같은데, logit function이 선형회귀에 피팅해준다는 의미가 어떤 것인지 잘 모르겠습니다.!!


추가) argmin_theta(P(Y=1|X) - AX+B)에서 logit변화가 세타에는 영향을 주지 않으니 저렇게 변화한 것인가요?