Skip to main content

에이다 부스트

약한 학습기들을 순차적으로 결합하여 강력한 예측 모델을 생성하는 앙상블 기법입니다.


설명

에이다 부스트(AdaBoost, Adaptive Boosting)는 여러 개의 약한 학습기를 순차적으로 학습시키면서, 이전 학습기가 틀린 샘플에 더 높은 가중치를 부여하여 다음 학습기가 이를 집중적으로 학습하도록 합니다.

각 학습기의 예측 결과를 가중 투표 방식으로 결합하여 최종 예측을 수행하며, 이를 통해 단일 모델보다 훨씬 높은 정확도를 달성할 수 있습니다.

특히 약한 학습기(Decision Stump 등)만으로도 높은 성능을 낼 수 있어, 계산 비용이 적으면서도 효과적인 모델입니다.


포트 구성

입력 포트

없음

출력 포트

  • 미학습 모델: 학습되지 않은 에이다 부스트 모델 (학습 노드에 연결하여 사용)

속성

앙상블에 사용할 추정기 수 설정

앙상블에 사용할 약한 학습기(결정 트리)의 개수를 입력합니다.

  • 많은 추정기: 모델 복잡성과 성능 향상, 과적합 위험 증가
  • 적은 추정기: 단순한 모델, 성능 제한적

학습률 설정

각 약한 학습기의 기여도를 조절하는 학습률을 설정합니다.

  • 작은 학습률:

    • 약한 학습기의 가중치를 작게 만듦
    • 모델이 조금씩 학습되어 안정성 높음
    • 더 많은 추정기 필요
    • 과적합 방지
  • 큰 학습률:

    • 약한 학습기의 가중치를 크게 만듦
    • 빠른 학습 속도
    • 적은 추정기로도 학습 가능
    • 과적합 위험 증가

권장: 학습률을 낮게 설정하고 추정기 수를 늘리는 것이 일반적으로 더 좋은 성능을 제공합니다.


사용 방법

  1. 에이다 부스트 노드를 캔버스에 추가합니다
  2. 추정기 개수를 설정합니다
  3. 학습률을 설정합니다
  4. 출력된 미학습 모델을 모델 학습 노드에 연결합니다
  5. 학습용 데이터셋을 모델 학습 노드에 연결합니다
  6. 학습이 완료되면 학습된 모델을 일괄 예측 노드와 모델 평가 노드에서 사용할 수 있습니다

예제

에이다 부스트 예제