conversation_by_bds
-
Jak można naprawić problem z błędnie klasyfikowanym przypadkiem granicznym pomiędzy dwiema klasami?
-
Jak można naprawić problem z błędnie klasyfikowanym przypadkiem granicznym pomiędzy dwiema klasami?
Aby naprawić problem z błędnie klasyfikowanym przypadkiem granicznym pomiędzy dwiema klasami, można zastosować jedną z dwóch metod:
- Stworzenie klasy pośredniej: w tym przypadku można stworzyć klasę pośrednią, np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.
- Dodanie dodatkowych danych: jeśli dysponujemy dodatkowymi danymi łącznie z ich prawidłową, jednoznaczną identyfikacją, możemy poszukać w nich więcej podobnych przypadków granicznych i dodać je do prawidłowych dla nich klas.
W obu przypadkach ważne jest, aby mieć wystarczająco dużo danych, aby model mógł się nauczyć rozróżniać przypadki graniczne od innych przypadków.
-
jaka powinna być proporcja danych testowych do danych uczących dla optymalnego modelu?
-
jaka powinna być proporcja danych testowych do danych uczących dla optymalnego modelu?
Odpowiedź na to pytanie jest zawarta w kontekście "Training, validation, and test data sets - Introduction". W tym kontekście jest napisane, że "zbiór uczący powinien być znacząco większy od zbioru testowego" i że "zbiór testowy musi być jakościowo reprezentatywny dla całości danych".
Jednak w kontekście "Data analysis - Quality of data" jest również napisane, że "w Google Teachable Machine, dane są zawsze automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15".
Dlatego odpowiedź na to pytanie jest następująca:
Proporcja danych testowych do danych uczących dla optymalnego modelu powinna być tak, aby zbiór uczący był znacząco większy od zbioru testowego, a zbiór testowy był jakościowo reprezentatywny dla całości danych. W Google Teachable Machine, proporcja 85:15 jest automatycznie stosowana, ale nie oznacza to, że jest to jedyny słusznym wybór.
-
jeżeli mam 400 przykładowych obrazów i wielkość wsadu równa 32 to z ilu wsadów będzie składać się epoka
-
jeżeli mam 400 przykładowych obrazów i wielkość wsadu równa 32 to z ilu wsadów będzie składać się epoka
Aby odpowiedzieć na to pytanie, musimy wiedzieć, ile przykładów jest w jednym wsadzie. W opisanym kontekście, wielkość wsadu jest równa 32, ale nie wiemy, ile przykładów jest w jednym wsadzie.
Jednak w innym miejscu opisanego kontekstu, jest napisane, że "cały zbiór uczący składa się ze 170 przykładów" i że "domyślnie mamy ustaloną wielkość wsadu na 16". Z tego możemy wywnioskować, że w jednym wsadzie jest 16 przykładów.
Jeśli wielkość wsadu jest równa 32, to w jednym wsadzie jest 32 przykłady. Aby znaleźć liczbę wsadów w epoce, możemy podzielić liczbę przykładów w zbiór uczący przez liczbę przykładów w jednym wsadzie:
400 przykładów / 32 przykłady na wsad = 12,5 wsadów
Ponieważ nie możemy mieć połówki wsadu, to musimy zaokrąglić liczbę wsadów do najbliższej liczby całkowitej. W tym przypadku, zaokrąglenie do najbliższej liczby całkowitej daje nam 13 wsadów.
Dlatego odpowiedź na to pytanie jest następująca:
Jeśli mam 400 przykładów i wielkość wsadu równa 32, to z 13 wsadów będzie składać się epoka.
-
Czy w macierzy pomyłek są pokazywane tylko przykłady testowe?
-
Czy w macierzy pomyłek są pokazywane tylko przykłady testowe?
Nie, w macierzy pomyłek nie są pokazywane tylko przykłady testowe. Macierz pomyłek pokazuje wszystkie przykłady, zarówno te, które zostały poprawnie sklasyfikowane, jak i te, które zostały błędnie sklasyfikowane.
W opisanym kontekście, macierz pomyłek jest opisana jako "tablica pomyłek", która ma kluczowe znaczenie dla oceny modeli i umożliwia porównywanie modeli między sobą. Nie ma wzmianki o tym, żeby macierz pomyłek pokazywała tylko przykłady testowe.
Dodatkowo, w innym miejscu opisanego kontekstu, jest napisane, że "czułość (ang. recall) mówi nam, jaki procent wszystkich pozytywnych przypadków wykrywa model". To sugeruje, że macierz pomyłek zawiera wszystkie przykłady, zarówno te, które zostały poprawnie sklasyfikowane, jak i te, które zostały błędnie sklasyfikowane.
-
czym różni sie metryka recall od precision?
-
czym różni sie metryka recall od precision?
Metryka recall i precision są dwiema ważnymi miarami wydajności modelu klasyfikacyjnego. Różnią się one w sposobie obliczania i interpretacji.
Metryka recall (czułość) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model. Jest to ułamek wszystkich prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich prawdziwie pozytywnych przypadków w danych. Im wyższa wartość recall, tym lepszy model jest w wykrywaniu prawdziwie pozytywnych przypadków.
Metryka precision (precyzja) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich przypadków, które zostały sklasyfikowane jako pozytywne przez model. Im wyższa wartość precision, tym lepszy model jest w unikaniu fałszywie pozytywnych przypadków.
Przykładem może być następująca sytuacja:
- Model klasyfikacyjny został wytrenowany na rozróżnianiu orłów od kaczek.
- W danych testowych znajduje się 100 orłów i 100 kaczek.
- Model klasyfikuje 90 orłów jako orły i 10 kaczek jako orły.
- Model klasyfikuje 5 orłów jako kaczki i 95 kaczek jako kaczki.
W tym przypadku:
- Recall (czułość) modelu wynosi 90/100 = 0,9, ponieważ model wykrył 90 orłów spośród 100.
- Precision (precyzja) modelu wynosi 90/95 = 0,95, ponieważ model sklasyfikował 90 orłów jako orły spośród 95 przypadków, które sklasyfikował jako orły.
W tym przykładzie model ma wysoką wartość recall, co oznacza, że jest dobry w wykrywaniu orłów. Jednak ma również wysoką wartość precision, co oznacza, że jest dobry w unikaniu fałszywie pozytywnych przypadków (kaczek sklasyfikowanych jako orły).