로그인 바로가기 하위 메뉴 바로가기 본문 바로가기

인공지능 및 기계학습 개론 II

임시 이미지 KAIST 산업및시스템공학과 문일철 교수
http://kooc.kaist.ac.kr/machinelearning2__17/forum/30627
좋아요 1115 수강생 5473

친절한 답변 진심으로 감사드립니다 ㅜㅜ


아직까지 명확하게 이해가 안되는거 같아 질문을 다시 남깁니다.

질문이 정말깁니다 ㅜㅜ
튜터님의 소중한 시간 다시한번 내어주시길 부탁합니다.


1) 튜터님께서
10p 의 marginalize 를 만족해야 한다고 하셨는데

10p 식을보면

w(w) = {씨그마v-w} w(v)
라는식이 있는데

w(w)를 marginalizez 해서 w(v) 가 나왔는데
요게 ㅠ 랑 무슨 관련이 있는건가요??



2) 그리고 normalize 를 하면 확률이 된다는말씀을 하셨는데, 이부분이 이해가 안됩니다 ㅜㅜ
확률이 된다는게 무슨 확률을 의미하는건가요??

10p의 w 후보군 ㅠ 후보군으로
결합확률을 만드는건 이해가되는데

이 ㅠ 와 w 를 조합해서 다른 확률을 만들수 있다는건가요?




3) 다음식이 항상 성립하도록 업데이트 하는것 맞나요?
어떤 정보가 주어지면 해당 노드는 변하게되는데
저 두 식을 항상 만족해야하므로 저 두식을 만족하면서 전파를 하는게 신뢰전파 알고리즘 맞는지 궁금합니다.

**11p 식을 참고했습니다.**

1. {씨그마A}w(A,B) = {씨그마C}w(B,C) = ㅠ(B)

2. 11p의 absorption rule

4) 1. 과 2.식은 같은의미를 지니는 식인지 별개의 식인지 궁금합니다.

그리고 11p 에서는 1. 식이 P(B) 가된다고 하셨는데
이건 w(A,B) 가 P(A,B)로 되었을 때인데,

w(A,B) 가 P(A|B) 이면 말이 안되는 상황인데
왜 P(B) 인지 궁금합니다.



5) 12p 에서
두 예제 모두 w(a,b) 를 a 로 marginalize 하면서
식을 시작하는데
이 이유가 명확히 궁금합니다.

p(b)나
p(b|a c)
에 대해서 구하는 것이라서
즉 b가 변수인 확률에 관련해서 구하는거라

b 만남겨두고 a 와 c 를 marginalizez 하는건가요?


w(a,b) 를 b 로 marginalize 하는거나
w(b,c) 를 c 로 margjnalize 하는것의 의미는 어떻게될까요?

6) 12p ex1) ex2) 모두 해당하는 질문인데

그래서 궁극적으로 구한
P(b) 는 뭐고
P(b|a=1,c=1) 은 뭐인건가요??
저렇게 전파를해서
결국엔 우리가 구하고자 하는 답은 뭔가요?

그냥 신뢰전파를 앞뒤로 여러번 왓다갔다 하다가
ㅠ*(b) ㅠ**(b) 가 정답인건가요??




7)
정말 번거로우실 수도 있지만 ㅜㅜ
모든 경우를 보지않으면 제가 이해를 못할것 같습니다..

ex1 ex2 에서는


P(b)
P(b|a=1,c=1) 만 있는데

P(a)
P(b|a=1)
P(c|b=1, a=1)
P(a|c=1)
P(c)

...
번거로우시겠지만...
예제 몇개만 더 부탁드립니다 ㅜㅜ

정말 감사합니다...!!