5-3. Quiz 3
1번
과소적합(Underfitting)을 방지하는 방식에 해당하지 않은 것을 고르시오.
1) 피처를 더 많이 반영한다.
2) 복잡한 모델을 사용한다.
3) 더 많은 데이터로 훈련한다.
4) 훈련시간을 줄인다.
정답: 4)
2번
정형데이터의 과적합(Overfitting)을 방지하는 방법에 해당하지 않은 것을 고르시오.
1) Dropout
2) Early Stopping
3) Label smoothing
4) Data Augmentation
정답: 3)
3번
다음에 해당하는 교차검증(Cross Validation) 방식을 고르시오.
1) Time Series Split Cross Validation
2) Stratified k-Fold Cross Validation
3) Group k-Fold Cross Validation
4) k-Fold Cross Validation
정답: 1)
4번
머신러닝 작업절차(ML workflow) 단계에서 데이터추출 후 모델링 과정 전단계로 적절하지 않은 절차를 고르시오.
1) Feature scaling
2) Feature selection
3) Deploy
4) Data preprocessing
정답: 3)
5번
다음 <예시>에서 설명하는 방식으로 가장 적절한 것을 고르시오.
<예시>
- 데이터셋을 샘플링하여 모델을 만들어 나가는 것이 특징.
- 샘플링한 데이터셋을 하나당 하나의 결정트리를 생성 후 모두 종합(Ensemble)하여 최종적으로 하나의 결정트리를 생성하는 방식.
1) 부스트랩(Boostrap)
2) 배깅(Bagging)
3) 보팅(Voting)
4) 부스팅(Boosting)
정답: 2)
6번
다음 중 배깅(Bagging)과 부스팅(Boosting)의 특징으로 옳지 않은 것을 고르시오.
1) 부스팅(Boosting)은 정밀한 트리를 생성한다.
2) 부스팅(Boosting)은 비순차적으로 트리를 생성한다.
3) 배깅(Bagging)은 병렬적으로 트리를 생성한다.
4) 배깅(Bagging)은 다양한 트리를 생성한다.
정답: 2)
7번
다음 중 Category 변수를 입력으로 사용하기 위한 머신러닝 기법의 특징으로 옳지 않은 것을 고르시오.
1) Catboost는 cat features 값으로 category feature index를 지정하지 않아도 된다.
2) LightGBM과 CatBoost는 Category 데이터타입 변수 처리가 가능하다.
3) XGBoost는 Numeric 데이터타입 변수 처리가 가능하다.
4) XGBoost는 Category 데이터타입 변수 처리를 위해 전처리가 필요하다.
정답: 1)
© NAVER Connect Foundation. All Rights Reserved
'취업준비 > 인공지능' 카테고리의 다른 글
[AI Tech] 1주차 7차시 프로젝트 3 (0) | 2024.01.21 |
---|---|
[AI Tech] 1주차 6차시 프로젝트 2 (1) | 2024.01.21 |
[AI Tech] 1주차 5-2차시 트리 모델 연습 (1) | 2024.01.21 |
[AI Tech] 1주차 5-1차시 트리 모델 (2) | 2024.01.21 |
[AI Tech] 1주차 4-2차시 머신러닝 기본 개념 소개 (2) (3) | 2024.01.21 |