conversation_by_h7j
-
czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?
-
czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?
W kontekście rozmów o metrykach w AI, false positive (FP) i false negative (FN) są dwoma rodzajami błędów, które mogą wystąpić w modelach AI.
False Positive (FP): To sytuacja, w której model AI sklasyfikuje przykład jako pozytywny (np. chory), podczas gdy w rzeczywistości jest on negatywny (np. zdrowy). Inaczej mówiąc, model AI zdiagnozuje chorobę u osoby, która w rzeczywistości nie ma tej choroby.
False Negative (FN): To sytuacja, w której model AI sklasyfikuje przykład jako negatywny (np. zdrowy), podczas gdy w rzeczywistości jest on pozytywny (np. chory). Inaczej mówiąc, model AI nie zdiagnozuje choroby u osoby, która w rzeczywistości ją ma.
W zależności od kontekstu, FP i FN mogą mieć różne konsekwencje. Na przykład, w przypadku modelu AI, który ma za zadanie wykrywać choroby, FP mogą prowadzić do niepotrzebnych leczeń, podczas gdy FN mogą prowadzić do opóźnień w leczeniu.
Warto zauważyć, że FP i FN są częścią macierzy pomyłek, która jest używana do oceny jakości modelu AI.
-
Jaki jest wzór na obliczanie dokładności modelu w kontekście metryk?
-
Jaki jest wzór na obliczanie dokładności modelu w kontekście metryk?
Wzór na obliczanie dokładności modelu w kontekście metryk jest następujący:
Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
Gdzie:
- TP to liczba prawdziwie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne i są rzeczywiście pozytywne)
- TN to liczba prawdziwie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne i są rzeczywiście negatywne)
- FP to liczba fałszywie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne, ale są rzeczywiście negatywne)
- FN to liczba fałszywie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne, ale są rzeczywiście pozytywne)
Dokładność modelu jest miarą, która określa, jak dobrze model sklasyfikował przykłady. Im wyższa dokładność, tym lepiej model sklasyfikował przykłady.
-
Podaj wzory na dokładność modelu i precyzje modelu w kontekście metryk. Poproszę tylko wzory
-
Podaj wzory na dokładność modelu i precyzje modelu w kontekście metryk. Poproszę tylko wzory
Wzory na dokładność modelu i precyzję modelu w kontekście metryk są następujące:
Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
Precyzja (Precision) = TP / (TP + FP)
Gdzie:
- TP to liczba prawdziwie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne i są rzeczywiście pozytywne)
- TN to liczba prawdziwie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne i są rzeczywiście negatywne)
- FP to liczba fałszywie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne, ale są rzeczywiście negatywne)
- FN to liczba fałszywie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne, ale są rzeczywiście pozytywne)
-
podaj wszystkie wzory na omówione metryki z kursu
-
podaj wszystkie wzory na omówione metryki z kursu
Wzory na omówione metryki z kursu to:
- Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
- Precyzja (Precision) = TP / (TP + FP)
- Wzór na obliczanie dokładności modelu w kontekście metryk jest taki sam jak wzór na dokładność, czyli:
Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
Dodatkowo, w kursie omówiono, że metryki są to miary jakości modelu Uczenia Maszynowego, które umożliwiają porównywanie modeli między sobą. Cztery omawiane przez nas metryki to:
- Dokładność (Accuracy)
- Precyzja (Precision)
- Wrażliwość (Sensitivity)
- Specyficzność (Specificity)
Wzory na te metryki nie zostały omówione w kursie, ale są powszechnie używane w Uczeniu Maszynowym.
-
a co z recall i fscore
-
a co z recall i fscore
Wzory na recall i F-score są następujące:
Recall (Czułość) = TP / (TP + FN)
F-score = 2 * Precision * Recall / (Precision + Recall)
lub
F-score = (1 + β^2) * Precision * Recall / (β^2 * Precision + Recall)
gdzie:
- TP to liczba prawdziwie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne i są rzeczywiście pozytywne)
- FN to liczba fałszywie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne, ale są rzeczywiście pozytywne)
- Precision to precyzja modelu (liczba prawdziwie pozytywnych przykładów / liczba przykładów sklasyfikowanych jako pozytywne)
- Recall to czułość modelu (liczba prawdziwie pozytywnych przykładów / liczba rzeczywiście pozytywnych przykładów)
- β to parametr, który określa wagę, jaką przyznaje się precyzji w stosunku do czułości.