Metryka recall i precision są dwiema ważnymi miarami wydajności modelu klasyfikacyjnego. Różnią się one w sposobie obliczania i interpretacji.
Metryka recall (czułość) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model. Jest to ułamek wszystkich prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich prawdziwie pozytywnych przypadków w danych. Im wyższa wartość recall, tym lepszy model jest w wykrywaniu prawdziwie pozytywnych przypadków.
Metryka precision (precyzja) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich przypadków, które zostały sklasyfikowane jako pozytywne przez model. Im wyższa wartość precision, tym lepszy model jest w unikaniu fałszywie pozytywnych przypadków.
Przykładem może być następująca sytuacja:
Model klasyfikacyjny został wytrenowany na rozróżnianiu orłów od kaczek.
W danych testowych znajduje się 100 orłów i 100 kaczek.
Model klasyfikuje 90 orłów jako orły i 10 kaczek jako orły.
Model klasyfikuje 5 orłów jako kaczki i 95 kaczek jako kaczki.
W tym przypadku:
Recall (czułość) modelu wynosi 90/100 = 0,9, ponieważ model wykrył 90 orłów spośród 100.
Precision (precyzja) modelu wynosi 90/95 = 0,95, ponieważ model sklasyfikował 90 orłów jako orły spośród 95 przypadków, które sklasyfikował jako orły.
W tym przykładzie model ma wysoką wartość recall, co oznacza, że jest dobry w wykrywaniu orłów. Jednak ma również wysoką wartość precision, co oznacza, że jest dobry w unikaniu fałszywie pozytywnych przypadków (kaczek sklasyfikowanych jako orły).