에이다 부스트
약한 학습기들을 순차적으로 결합하여 강력한 예측 모델을 생성하는 앙상블 기법입니다.
설명
에이다 부스트(AdaBoost, Adaptive Boosting)는 여러 개의 약한 학습기를 순차적으로 학습시키면서, 이전 학습기가 틀린 샘플에 더 높은 가중치를 부여하여 다음 학습기가 이를 집중적으로 학습하도록 합니다.
각 학습기의 예측 결과를 가중 투표 방식으로 결합하여 최종 예측을 수행하며, 이를 통해 단일 모델보다 훨씬 높은 정확도를 달성할 수 있습니다.
특히 약한 학습기(Decision Stump 등)만으로도 높은 성능을 낼 수 있어, 계산 비용이 적으면서도 효과적인 모델입니다.
포트 구성
입력 포트
없음
출력 포트
- 미학습 모델: 학습되지 않은 에이다 부스트 모델 (학습 노드에 연결하여 사용)
속성
앙상블에 사용할 추정기 수 설정
앙상블에 사용할 약한 학습기(결정 트리)의 개수를 입력합니다.
- 많은 추정기: 모델 복잡성과 성능 향상, 과적합 위험 증가
- 적은 추정기: 단순한 모델, 성능 제한적
학습률 설정
각 약한 학습기의 기여도를 조절하는 학습률을 설정합니다.
-
작은 학습률:
- 약한 학습기의 가중치를 작게 만듦
- 모델이 조금씩 학습되어 안정성 높음
- 더 많은 추정기 필요
- 과적합 방지
-
큰 학습률:
- 약한 학습기의 가중치를 크게 만듦
- 빠른 학습 속도
- 적은 추정기로도 학습 가능
- 과적합 위험 증가
권장: 학습률을 낮게 설정하고 추정기 수를 늘리는 것이 일반적으로 더 좋은 성능을 제공합니다.
사용 방법
- 에이다 부스트 노드를 캔버스에 추가합니다
- 추정기 개수를 설정합니다
- 학습률을 설정합니다
- 출력된 미학습 모델을 모델 학습 노드에 연결합니다
- 학습용 데이터셋을 모델 학습 노드에 연결합니다
- 학습이 완료되면 학습된 모델을 일괄 예측 노드와 모델 평가 노드에서 사용할 수 있습니다
예제
