본문 바로가기
Machine Learning

[ML] ROC Curve

by ram_ 2023. 1. 6.
정확도 Accuracy 전체 데이터 중 맞게 예측한 것의 비율
오차행렬 Confusion Matrix  
정밀도 Precision 양성이라고 예측한 것 중에서 실제 양성의 비율
재현율 Recall = TPR True Positive Rate
참인 데이터들 중에서 참이라고 예측한 경우
  Fall-Out = FPR False Positive Rate
실제 양성이 아닌데, 양성이라고 잘못 예측한 경우
  TNR True Nagative Rate
실제 음성을 음성이라고 맟춘 경우
  FNR False Nagative Rate
실제 양성을 음성이라고 잘못 예측한 경우
  F1-Score Recall과 Precosion을 결합한 지표
둘이 한쪽으로 치우치지 않고 둘다 높은 값을 가질수록 높은 값 나옴
  ROC Curve FRR이 변할 때, TRR의 변화를 그린 그림
FRR을 x축, TRR을 y축으로 지정
직선에 가까울 수록 머신러닝 모델의 성능이 떨어지는 것으로 판단
  AUC ROC 곡선 아래의 면적
일반적으로 1에 가까울 수록 좋은 수치
기울기가 1인 직선 아래의 면적이 0.5 -> AUC는 0.5보다 커야함

분류 모델은 그 결과를 속할 비율(확률)을 반환한다.

- 지금까지는 그 비율에서 threshold를 0.5라 하고 0, 1로 결과를 반환했다.(이진분류)

- iris의 경우 가장 높은 확률값이 있는 클래스를 해당 값이라고 했다.


'Machine Learning' 카테고리의 다른 글

[ML] Cost Function_ Boston 집값 예측  (0) 2023.01.07
[ML] Cost Function _poly1d  (0) 2023.01.06
[ML] Hyperparameter Tuning  (0) 2023.01.06
[ML] Hyperparameter Tuning_ 교차검증  (0) 2023.01.05
[ML] Pipeline  (0) 2023.01.05