conversation_by_ly0
-
jak liczyć precyzję i jakie są rużnice w dobrośći wybrania między precyzją a dokładnością ?
Aby obliczyć precyzję, musimy wiedzieć, ile przykładów zostało poprawnie zaklasyfikowanych jako pozytywne i ile jest to w stosunku do wszystkich przykładów, które zostały zaklasyfikowane jako pozytywne.
W naszym przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę poprawnie wykrytych chorób, czyli 27, i dzielimy przez liczbę wszystkich osób, które zostały zaklasyfikowane przez model jako chore, czyli 31. Otrzymujemy w zaokrągleniu 87%.
Precyzja i dokładność są dwiema różnymi miarami jakości modelu Uczenia Maszynowego. Dokładność to stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych, natomiast precyzja to stosunek poprawnie zaklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytwnie.
Oznacza to, że precyzja skupia się na poprawności diagnoz pozytywnych, podczas gdy dokładność skupia się na poprawności wszystkich diagnoz. Im większa precyzja, tym lepiej model rozpoznaje przypadki pozytywne, ale może to oznaczać, że model ma tendencję do pomijania przypadków negatywnych. Im większa dokładność, tym lepiej model rozpoznaje wszystkie przypadki, zarówno pozytywne, jak i negatywne.
Dlatego też, jeśli chcemy, aby model był skuteczny w rozpoznawaniu przypadków pozytywnych, powinniśmy wybrać precyzję. Jeśli chcemy, aby model był skuteczny w rozpoznawaniu wszystkich przypadków, zarówno pozytywnych, jak i negatywnych, powinniśmy wybrać dokładność.
-
a jak ma się do tego czułość
-
a jak ma się do tego czułość
Czułość (recall) jest miarą, która określa, jaki procent wszystkich pozytywnych przypadków wykrywa model. Jest to stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości.
W naszym przykładzie z ilustracji, aby obliczyć czułość, bierzemy liczbę chorych poprawnie sklasyfikowanych jako chorych, czyli 27, i dzielimy przez liczbę wszystkich chorych osób w zbiorze testowym, czyli 30. Otrzymujemy w zaokrągleniu 90%.
Czułość jest ważna w sytuacjach, w których zależy nam, by wykryć jak najwięcej przykładów z jednej klasy, nawet jeśli to oznacza, że będziemy błędnie zaklasyfikować niektóre przypadki jako pozytywne. Im większa czułość, tym lepiej model wykrywa przypadki pozytywne, ale może to oznaczać, że model ma tendencję do błędnych zaklasyfikowań przypadków negatywnych.
W porównaniu z precyzją i dokładnością, czułość skupia się na wykrywaniu wszystkich przypadków pozytywnych, niezależnie od tego, czy są one poprawnie zaklasyfikowane czy nie.
-
czy jest jakaś metryka która bieżr pod uwagę wszystkie powyższe ?
-
czy jest jakaś metryka która bieżr pod uwagę wszystkie powyższe ?
Tak, istnieje metryka, która bierze pod uwagę wszystkie powyższe - F-score. F-score stanowi kompromis pomiędzy precyzją (precision) i czułością (recall), co oznacza, że ocenia model bardziej obiektywnie niż każda z tych dwóch metryk z osobna.
F-score jest obliczany jako średnia arytmetyczna z precyzji i czułości:
F-score = (2 * precyzja * czułość) / (precyzja + czułość)
Im wyższy F-score, tym lepiej model wykrywa przypadki pozytywne i nie błędnie zaklasyfikuje przypadki negatywne.
W naszym przykładzie z ilustracji, aby obliczyć F-score, bierzemy precyzję (87%) i czułość (90%), i obliczamy:
F-score = (2 * 0,87 * 0,90) / (0,87 + 0,90) = 0,87
Otrzymujemy w zaokrągleniu 87%.
F-score jest ważna w sytuacjach, w których chcemy, aby model był skuteczny w rozpoznawaniu wszystkich przypadków, zarówno pozytywnych, jak i negatywnych.
-
ale f scoree łączy tylko dwie z wymienionych przezenie 3 metryk czy jest taka która łączy wszystkie 3 ?
-
ale f scoree łączy tylko dwie z wymienionych przezenie 3 metryk czy jest taka która łączy wszystkie 3 ?
F-score łączy tylko dwie z wymienionych metryk: precyzję i czułość. Nie łączy wszystkich trzech metryk, w tym dokładności.
W kontekście, nie ma wzmianki o metryce, która łączy wszystkie trzy metryki: precyzję, czułość i dokładność. F-score jest jedną z metryk, która łączy precyzję i czułość, ale nie ma informacji o metryce, która łączy wszystkie trzy.
-
jak obliczyć dokładność podaj mi wzory na tp fp fn tn
-
jak obliczyć dokładność podaj mi wzory na tp fp fn tn
Dokładność (accuracy) jest określana jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych. Wzór na dokładność to:
Dokładność = (TP + TN) / (TP + TN + FP + FN)
gdzie:
- TP - liczba przykładów prawdziwie pozytywnych
- TN - liczba przykładów prawdziwie negatywnych
- FP - liczba przykładów fałszywie pozytywnych
- FN - liczba przykładów fałszywie negatywnych
W naszym przykładzie, aby obliczyć dokładność, bierzemy liczbę poprawnie zaklasyfikowanych diagnoz (TP + TN) i dzielimy przez liczbę wszystkich przykładów testowych (TP + TN + FP + FN).
Przykład:
- TP = 27 (poprawnie wykryte choroby)
- TN = 143 (poprawnie wykluczone choroby)
- FP = 4 (fałszywie wykryte choroby)
- FN = 0 (fałszywie wykluczone choroby)
Dokładność = (27 + 143) / (27 + 143 + 4 + 0) = 170 / 174 = 0,978 (lub 97,8%)
Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.
-
teraz precyzje a potem czyłość
-
teraz precyzje a potem czyłość
Aby obliczyć precyzję i czułość, musimy wiedzieć, ile przykładów zostało poprawnie zaklasyfikowanych jako pozytywne i ile jest to w stosunku do wszystkich przykładów, które zostały zaklasyfikowane jako pozytywne.
Precyzja to stosunek poprawnie zaklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytwnie. Wzór na precyzję to:
Precyzja = TP / (TP + FP)
gdzie:
- TP - liczba przykładów prawdziwie pozytywnych
- FP - liczba przykładów fałszywie pozytywnych
Czułość (recall) to stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości. Wzór na czułość to:
Czułość = TP / (TP + FN)
gdzie:
- TP - liczba przykładów prawdziwie pozytywnych
- FN - liczba przykładów fałszywie negatywnych
W naszym przykładzie, aby obliczyć precyzję i czułość, bierzemy liczbę poprawnie wykrytych chorób (TP) i dzielimy przez liczbę wszystkich chorób w rzeczywistości (TP + FN).
Przykład:
- TP = 27 (poprawnie wykryte choroby)
- FP = 4 (fałszywie wykryte choroby)
- FN = 3 (fałszywie wykluczone choroby)
Precyzja = 27 / (27 + 4) = 0,87 (lub 87%)
Czułość = 27 / (27 + 3) = 0,90 (lub 90%)
Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.
-
jak obliczyć czułośc podaj mi wzory na tp fp fn tn
-
jak obliczyć czułośc podaj mi wzory na tp fp fn tn
Czułość (recall) jest określana jako stosunek przykładów prawdziwie pozytywnych (TP) do wszystkich pozytywnych przykładów w rzeczywistości (TP + FN). Wzór na czułość to:
Czułość = TP / (TP + FN)
gdzie:
- TP - liczba przykładów prawdziwie pozytywnych
- FN - liczba przykładów fałszywie negatywnych
W naszym przykładzie, aby obliczyć czułość, bierzemy liczbę poprawnie wykrytych chorób (TP) i dzielimy przez liczbę wszystkich chorób w rzeczywistości (TP + FN).
Przykład:
- TP = 27 (poprawnie wykryte choroby)
- FN = 3 (fałszywie wykluczone choroby)
Czułość = 27 / (27 + 3) = 0,90 (lub 90%)
Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.
-
Załóżmy, że pojawiłby się przykład testowy w postaci niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8. Jak można by poprawić klasyfikowanie przez model tego przypadku?
-
Załóżmy, że pojawiłby się przykład testowy w postaci niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8. Jak można by poprawić klasyfikowanie przez model tego przypadku?
Aby poprawić klasyfikowanie przez model niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8, należy dostarczyć modelowi dodatkowych danych, które mogą pomóc mu w rozróżnieniu tych dwóch cyfr.
W naszym przypadku, model został wytrenowany na danych, które zawierają wyraźnie narysowane cyfry 6 i 8. Jednak w przypadku niewyraźnie narysowanej cyfry, model może mieć trudności z rozróżnieniem jej od innych cyfr.
Aby poprawić klasyfikowanie przez model, można:
- Dodawać więcej danych do modelu, które zawierają niewyraźnie narysowane cyfry 6 i 8. To pozwoli modelowi nauczyć się rozróżniać te cyfry w różnych kontekstach.
- Ulepszyć model, aby był bardziej elastyczny i mógł radzić sobie z niewyraźnie narysowanymi cyframi.
- Zastosować techniki post-processing, które mogą pomóc modelowi poprawić swoje klasyfikowanie w przypadku niewyraźnie narysowanych cyfr.
Warto zauważyć, że poprawienie klasyfikowania przez model niewyraźnie narysowanej cyfry wymaga dodatkowych danych i ulepszeń modelu.