11-2. Quiz 5
1번
하이퍼 파라미터 튜닝 방법 중 몇 가지의 잠재적 파라미터들의 후보군들을 조합하여 가장 최적의 조합을 찾는 방식으로 적절한 것을 고르시오.
1) GridSearch
2) Manual Search
3) Random Search
4) Bayesian optimization
몇가지의 잠재적 파라미터들의 후보군들을 조합하여 가장 최적의 조합을 찾는 하이퍼파라미터 튜닝 방식은 Grid Search 입 니다. Manual Search는 자동화 툴을 사용하지 않고 실험할 하이퍼 파라미터셋을 하나씩 바꿔가면서 테스트 하는 방식을 말합니다.
2번
경계 내에서 하이퍼파리미터의 임의 조합을 추출하여 최적의 하이퍼파라미터 조합을 찾는 방식으로 적절한 것을 고르시오.
1) Random Search
2) Bayesian optimization
3) Manual Search
4) GridSearch
경계 내에서 하이퍼파라미터의 임의 조합을 추출하여 최적의 하이퍼파라미터 조합을 찾는 방식은 Random Search 입니다.
3번
앙상블(Ensemble) 기법에 대한 설명으로 옳지 않은 것을 고르시오.
1) 여러 개의 결정트리를 결합하여 성능을 향상시키는 기법이다.
2) 여러 개의 약 분류기(Weak Classifier)를 결합하여 강 분류기(Strong Classifier)를 만드는 과정이다.
3) 예시로 보팅(Voting), 배깅(Bagging), 부스팅(Boosting)이 있다.
4) 성능을 분산시키기 때문에 과적합(Overfitting)이 증가하는 효과가 있다.
성능을 분산시키기 때문에 과적합(Overfitting)을 감소시켜 성능을 향상시키는 효과가 있습니다.
4번
앙상블(Ensemble) 기법 중 보팅(Voting)에 대한 설명으로 옳지 않은 것을 고르시오.
1) 하드보팅(Hard Voting)은 결과물에 대한 최종값을 투표해서 결정하는 방식이다.
2) 소프트보팅(Soft Voting)은 분류기들의 레이블 값 결정확률을 모두 더하고 이를 평균내어 확률이 가장 높은 값을 결과로 선정하는 방식이다.
3) 같은 알고리즘 내에서 다른 샘플 조합을 사용한다.
4) 투표를 통해 결정하는 방식이다.
보팅(Voting)은 다른 알고리즘 모델을 조합해서 사용하며, 같은 알고리즘 내에서 다른 샘플 조합을 사용하는 경우는 배깅(Bagging)에 대한 설명입니다.
5번
여러 가지 모델들의 예측값을 최종 모델의 학습 데이터로 사용하는 예측 방법으로 적절한 것을 고르시오.
1) 부스팅(Boosting)
2) 보팅(Voting)
3) 배깅(Bagging)
4) 스태킹(Stacking)
여러 가지 모델들의 예측값을 최종 모델의 학습 데이터로 사용하는 예측 방법은 스태킹(Stacking) 입니다.
6번
Tabular Data를 위한 딥러닝 모델인 TabNet에 대한 설명으로 옳지 않은 것을 고르시오.
1) Feature selection이 가능한 신경망 모델이다.
2) TabNet은 전처리 과정이 필요하다.
3) 설명가능한 모델이다.
4) Sequential Attention을 사용하였다.
TabNet은 전처리 과정이 필요하지 않습니다.
© NAVER Connect Foundation. All Rights Reserved
'취업준비 > 인공지능' 카테고리의 다른 글
[AI Tech] 2주차 13차시 프로젝트 5 (1) | 2024.01.27 |
---|---|
[AI Tech] 2주차 12차시 프로젝트 4 (0) | 2024.01.27 |
[AI Tech] 2주차 11-1차시 앙상블 (1) | 2024.01.27 |
[AI Tech] 2주차 10-2차시 하이퍼 파라미터 튜닝 연습 (0) | 2024.01.24 |
[AI Tech] 2주차 10-1차시 하이퍼 파라미터 튜닝 (0) | 2024.01.24 |