앙상블 학습: Difference between revisions
From CS Wiki
No edit summary |
No edit summary |
||
Line 13: | Line 13: | ||
! 하드 보팅 !! 소프트 보팅 | ! 하드 보팅 !! 소프트 보팅 | ||
|- | |- | ||
| [[파일:하드 보팅.png]] || [[파일:소프트 보팅.png]] | | [[파일:하드 보팅.png|350px]] || [[파일:소프트 보팅.png|350px]] | ||
|- | |- | ||
| 예측 결과를 그대로 보팅 || 예측 확률의 평균값으로 보팅 | | 예측 결과를 그대로 보팅 || 예측 확률의 평균값으로 보팅 | ||
Line 27: | Line 27: | ||
** '''[[OOB 샘플|OOB(Out-of-Bag) 샘플]]''': 샘플링 되지 않은 나머지 샘플 | ** '''[[OOB 샘플|OOB(Out-of-Bag) 샘플]]''': 샘플링 되지 않은 나머지 샘플 | ||
== 부스팅 == | === 부스팅 === | ||
;성능이 약한 학습기(weak learner)를 여러 개 연결하여 강한 학습기(strong learner)를 만드는 앙상블 학습기법 | ;성능이 약한 학습기(weak learner)를 여러 개 연결하여 강한 학습기(strong learner)를 만드는 앙상블 학습기법 | ||
== [[랜덤 포레스트]] == | === [[랜덤 포레스트]] === | ||
;배깅을 적용한 [[의사결정 나무]] 앙상블 학습 기법 | ;배깅을 적용한 [[의사결정 나무]] 앙상블 학습 기법 | ||
Revision as of 11:16, 7 January 2020
- Ensemble Learning
- 하나의 데이터를 여러개의 분류기를 통해 다수의 학습 모델을 만들어 학습시키고 학습 결과를 결합함으로써 과적합을 방지하고 정확도를 높이는 학습 기법
유형
보팅
- 여러 모델에서 구해진 예측값들을 대상으로 다수결 투표를하여 최종 클래스를 예측
- 하드 보팅과 소프트 보팅
하드 보팅 | 소프트 보팅 |
---|---|
예측 결과를 그대로 보팅 | 예측 확률의 평균값으로 보팅 |
배깅
- 배깅(Bagging)은 Bootstrap Aggregating의 줄임말
- 부트스트래핑: 학습 데이터셋에서 중복을 허용하여 랜덤하게 추출하는 방식(aka. 리샘플링)
- 페이스팅: 학습 데이터셋에서 중복 없이 랜덤하게 추출하는 방식
- 배깅은 부트스트래핑을 이용한 앙상블 학습법
- 장점: 분산 감소
- 단점: 중복으로 인해, 특정 샘플은 사용되지 않고 특정 샘플은 여러번 사용되어 편향될 가능성
- OOB(Out-of-Bag) 샘플: 샘플링 되지 않은 나머지 샘플
부스팅
- 성능이 약한 학습기(weak learner)를 여러 개 연결하여 강한 학습기(strong learner)를 만드는 앙상블 학습기법
랜덤 포레스트
- 배깅을 적용한 의사결정 나무 앙상블 학습 기법
- 종류
종류 | 설명 |
---|---|
아다부스팅
(AdaBoost) |
|
그래디언트 부스팅
(Gradient Boosting) |
|