앙상블 학습: Difference between revisions

From CS Wiki
No edit summary
(앙상블 기법 문서로 넘겨주기)
Tag: New redirect
 
(5 intermediate revisions by 2 users not shown)
Line 1: Line 1:
[[분류:인공지능]][[분류:데이터 분석]]
#넘겨주기 [[앙상블 기법]]
;Ensemble Learning
;하나의 데이터를 여러개의 분류기를 통해 다수의 학습 모델을 만들어 학습시키고 학습 결과를 결합함으로써 과적합을 방지하고 정확도를 높이는 학습 기법
 
== 유형 ==
=== 보팅 ===
;여러 모델에서 구해진 예측값들을 대상으로 다수결 투표를하여 최종 클래스를 예측
[[파일:앙상블 학습.png|400px]]
 
* 하드 보팅과 소프트 보팅
{| class="wikitable"
|-
! 하드 보팅 !! 소프트 보팅
|-
| [[파일:하드 보팅.png|350px]] || [[파일:소프트 보팅.png|350px]]
|-
| 예측 결과를 그대로 보팅 || 예측 확률의 평균값으로 보팅
|}
 
=== 배깅 ===
;배깅(Bagging)은 Bootstrap Aggregating의 줄임말
* 부트스트래핑: 학습 데이터셋에서 중복을 허용하여 랜덤하게 추출하는 방식(aka. 리샘플링)
* 페이스팅: 학습 데이터셋에서 중복 없이 랜덤하게 추출하는 방식
* '''배깅은 부트스트래핑을 이용한 앙상블 학습법'''
* '''장점''': 분산 감소
* '''단점''': 중복으로 인해, 특정 샘플은 사용되지 않고 특정 샘플은 여러번 사용되어 편향될 가능성
** '''[[OOB 샘플|OOB(Out-of-Bag) 샘플]]''': 샘플링 되지 않은 나머지 샘플
 
=== 부스팅 ===
;성능이 약한 학습기(weak learner)를 여러 개 연결하여 강한 학습기(strong learner)를 만드는 앙상블 학습기법
 
=== [[랜덤 포레스트]] ===
;배깅을 적용한 [[의사결정 나무]] 앙상블 학습 기법
 
* 종류
{| class="wikitable"
|-
! 종류 !! 설명
|-
| 아다부스팅
(AdaBoost)
||
* Adaptive Boosting
* [[언더피팅]] 됐던 학습 데이터 샘플의 가중치를 높여감
|-
| 그래디언트 부스팅
(Gradient Boosting)
||
* 가중치 업데이트를 경사 하강법(Gradient Descent)을 이용
* 학습 전단계 모델에서의 잔여 오차에 대해 새로운 모델을 학습시키는 방법
|}
 
== 참고 문헌 ==
* [https://excelsior-cjh.tistory.com/166 앙상블 학습 및 랜덤 포레스트]

Latest revision as of 19:25, 13 December 2020

  1. 넘겨주기 앙상블 기법