로그인 바로가기
하위 메뉴 바로가기
본문 바로가기
검색
로그인 / 회원가입
인공지능 및 기계학습 개론Ⅰ
KAIST 산업및시스템공학과 문일철
공유하기
URL복사
밴드
페이스북
트위터
인공지능 및 기계학습 개론Ⅰ
인공지능 및 기계학습 개론Ⅰ
http://kooc.kaist.ac.kr/machinelearning1_17/lecture/10610/
좋아요
3563
수강생
17081
전체 메뉴 열기
하위 메뉴
강의목록
강좌 전체목록보기
CHAPTER 1. Motivations and Basics
강좌 수강을 환영합니다! 여기부터 꼭 보고 넘어가세요-!
1.1. Motivations
1.2. MLE
1.3. MAP
1.4. Probability and Distribution
Ch1. Quiz
CHAPTER 2. Fundamentals of Machine Learning
2.1. Rule Based Machine Learning Overview
2.2. Introduction to Rule Based Algorithm
2.3. Introduction to Decision Tree
2.4. Entropy and Information Gain
2.5. How to create a decision tree given a training dataset
Ch2. Quiz
CHAPTER 3. Naive Bayes Classifier
3.1. Optimal Classification
3.2. Conditional Independence
3.3. Naive Bayes Classifier
3.4. Naive Bayes Classifier Application (Matlab Code)
Ch3. Quiz
CHAPTER 4. Logistic Regression
4.1. Decision Boundary
4.2. Introduction to Logistic Regression
4.3. Logistic Regression Parameter Approximation 1
4.4. Gradient Method
4.5. How Gradient method works
4.6. Logistic Regression Parameter Approximation 2
4.7. Naive Bayes to Logistic Regression
4.8. Naive Bayes vs Logistic Regression
Ch4. Quiz
CHAPTER 5. Support Vector Machine
5.1. Decision Boundary with Margin
5.2. Maximizing the Margin
5.3. SVM with Matlab
5.4. Error Handling in SVM
5.5. Soft Margin with SVM
5.6. Rethinking of SVM
5.7. Primal and Dual with KKT Condition
5.8. Kernel
5.9. SVM with Kernel
Ch5. Quiz
CHAPTER 6. Training Testing and Regularization
6.1. Over-fitting and Under-fitting
6.2. Bias and Variance
6.3. Occam's Razor
6.4. Cross Validation
6.5. Performance Metrics
6.6. Definition of Regularization
6.7. Application of Regularization
Ch6. Quiz
★강의 수강 후 의견을 부탁드리겠습니다.★
교수님 강의에 대한 별점을 매겨주세요. 여러분의 의견이 많은 도움이 됩니다:D
공지게시판
Q&A 게시판
토론 게시판
추가 학습자료
수강 후기
6.2. Bias and Variance
#Bias
#Error
#Variance
공유하기
URL복사
밴드
페이스북
트위터
6.2. Bias and Variance - 신승재
6.2. Bias and Variance - 신승재
좋아요 39
댓글
연관 토론
comment
최신순
등록순
추천순
나의 글만 보기
OFF
페이지 이동
First
Prev
Next
Last
페이지 이동
First
이전
다음
Last
수강완료
수강이 완료되었습니다.
닫기
수강이 완료되었습니다.
이제
다음 강의
를 확인하세요.
닫기
닫기
6.1. Over-fitting and Under-fitting
6.3. Occam's Razor
comment