일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- mlxtend
- seaborn
- resolve()
- nearestneighbor
- conda install error
- catplot
- Python
- 힙큐
- counterfactual
- GA4
- 영어 팟캐스트
- 티스토리 초보자 팁
- 설치에러
- Path parent
- associationrule
- 패키지 설치
- NN
- 구글애널리틱스
- sklearn
- PCAcorr
- GA
- knn
- pathlib
- heapq
- Apriori
- transcript
- 파이썬
- dataanalysis
- 힙정렬
- cnn student news
- Today
- Total
데이터, 그로스 마케팅 연구와 기록
[sklearn] GridsearchCV _scoring key 본문
싸이킷런의 GridsearchCV 돌릴 때, 보통 'Accuracy'로 scoring기준을 잡지만, 아주 다양한 scoring 기준으로 돌려볼 수 있다.
sklearn.metrics.SCORERS.keys()
dict_keys(['explained_variance', 'r2', 'max_error', 'neg_median_absolute_error', 'neg_mean_absolute_error', 'neg_mean_absolute_percentage_error', 'neg_mean_squared_error', 'neg_mean_squared_log_error', 'neg_root_mean_squared_error', 'neg_mean_poisson_deviance', 'neg_mean_gamma_deviance', 'accuracy', 'top_k_accuracy', 'roc_auc', 'roc_auc_ovr', 'roc_auc_ovo', 'roc_auc_ovr_weighted', 'roc_auc_ovo_weighted', 'balanced_accuracy', 'average_precision', 'neg_log_loss', 'neg_brier_score', 'adjusted_rand_score', 'rand_score', 'homogeneity_score', 'completeness_score', 'v_measure_score', 'mutual_info_score', 'adjusted_mutual_info_score', 'normalized_mutual_info_score', 'fowlkes_mallows_score', 'precision', 'precision_macro', 'precision_micro', 'precision_samples', 'precision_weighted', 'recall', 'recall_macro', 'recall_micro', 'recall_samples', 'recall_weighted', 'f1', 'f1_macro', 'f1_micro', 'f1_samples', 'f1_weighted', 'jaccard', 'jaccard_macro', 'jaccard_micro', 'jaccard_samples', 'jaccard_weighted'])