conversation_by_invalid
-
Czy wielkość wsadu może być mniejsza niż 16?
-
Czy wielkość wsadu może być mniejsza niż 16?
Odpowiedź na to pytanie jest zawarta w treści kursu. W tym miejscu mówi się, że domyślnie wielkość wsadu jest ustawiona na 16, ale nie ma informacji, która potwierdzałaby, że wielkość wsadu nie może być mniejsza niż 16.
-
Co jest gorsze dla modelu - przeuczenie czy niedouczenie?
-
Co jest gorsze dla modelu - przeuczenie czy niedouczenie?
Odpowiedź na to pytanie jest zawarta w treści kursu. Przeuczenie i niedouczenie są dwoma przeciwieństwami, które mogą wystąpić w modelu. Przeuczenie (overfitting) występuje, gdy model jest zbyt skomplikowany i dobrze dopasowany do danych uczących, ale nie jest w stanie ogólniejszego uchwycenia wzorców w danych. Niedouczenie (underfitting) występuje, gdy model jest zbyt prosty i nie jest w stanie skutecznie uchwycić wzorców w danych.
W tym kontekście, przeuczenie jest gorsze dla modelu niż niedouczenie. Przeuczenie może prowadzić do bardzo dobrych wyników na danych uczących, ale model nie będzie w stanie ogólniejszego uchwycenia wzorców w danych, co oznacza, że nie będzie w stanie poprawnie przewidzieć wyników na danych testowych. Niedouczenie, z drugiej strony, może prowadzić do słabych wyników na danych uczących, ale model będzie w stanie ogólniejszego uchwycenia wzorców w danych, co oznacza, że będzie w stanie poprawnie przewidzieć wyników na danych testowych.
Przykładem jest sytuacja, w której model jest zbyt prosty i nie jest w stanie skutecznie uchwycić wzorców w danych, ale jest w stanie ogólniejszego uchwycenia wzorców w danych. W takim przypadku model będzie w stanie poprawnie przewidzieć wyników na danych testowych, nawet jeśli nie jest w stanie skutecznie uchwycić wzorców w danych.
W przeciwieństwie do tego, przeuczenie może prowadzić do bardzo dobrych wyników na danych uczących, ale model nie będzie w stanie ogólniejszego uchwycenia wzorców w danych, co oznacza, że nie będzie w stanie poprawnie przewidzieć wyników na danych testowych.
-
czym sie rozni na wykresie model przeuczony od niedouczonego
-
czym sie rozni na wykresie model przeuczony od niedouczonego
Model przeuczony (overfitting) i model niedouczony (underfitting) różnią się na wykresie funkcji straty.
Model przeuczony charakteryzuje się tym, że jego strata na danych uczących systematycznie maleje w każdej kolejnej epoce, ale na danych testowych strata przestaje maleć i może nawet zacząć rosnąć. To oznacza, że model za bardzo dostosowuje się do danych uczących i nie jest w stanie ogólniejszego uchwycenia wzorców w danych.
Model niedouczony, z drugiej strony, charakteryzuje się tym, że jego strata na danych uczących jest wysoka i nie maleje wraz z liczbą epok. Na danych testowych strata może być również wysoka, ale model jest w stanie ogólniejszego uchwycenia wzorców w danych.
W związku z tym, na wykresie funkcji straty model przeuczony będzie wyglądał jak linia malejąca na danych uczących, ale zaczynająca rosnąć na danych testowych. Model niedouczony, z drugiej strony, będzie wyglądał jak linia wysoka i stabilna na danych uczących i testowych.
-
jak obliczyc precyzje całego modelu mając obliczone precyzje dwoch przykladow
-
jak obliczyc precyzje całego modelu mając obliczone precyzje dwoch przykladow
Odpowiedź na to pytanie jest zawarta w treści kursu.
Precyzja (ang. precision) jest kolejną metryką, którą można wykorzystać do opisu jakości modelu Uczenia Maszynowego. Definiujemy ją jako stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytywne.
Aby obliczyć precyzję całego modelu, możemy użyć wzoru:
Precyzja = Liczba poprawnie sklasyfikowanych diagnoz pozytywnych / Liczba wszystkich przypadków testowych sklasyfikowanych jako pozytywne
Jeśli mamy obliczone precyzje dwóch przykładów, możemy je dodatkowo obliczyć, aby uzyskać precyzję całego modelu.
Przykład:
Liczba poprawnie sklasyfikowanych diagnoz pozytywnych w przykładzie 1 = 27
Liczba wszystkich przypadków testowych sklasyfikowanych jako pozytywne w przykładzie 1 = 31
Precyzja w przykładzie 1 = 27 / 31 ≈ 0,87Liczba poprawnie sklasyfikowanych diagnoz pozytywnych w przykładzie 2 = 20
Liczba wszystkich przypadków testowych sklasyfikowanych jako pozytywne w przykładzie 2 = 25
Precyzja w przykładzie 2 = 20 / 25 ≈ 0,80Aby obliczyć precyzję całego modelu, możemy użyć średniej arytmetycznej precyzji dwóch przykładów:
Precyzja całego modelu = (Precyzja w przykładzie 1 + Precyzja w przykładzie 2) / 2
= (0,87 + 0,80) / 2
= 0,835Oznacza to, że precyzja całego modelu wynosi około 83,5%.
-
co ma wikeszy wplyw na f score - czulosc czy precyzja
-
co ma wikeszy wplyw na f score - czulosc czy precyzja
Odpowiedź na to pytanie jest zawarta w treści kursu.
F-score jest miarą skuteczności predykcyjnej, która jest obliczana na podstawie precyzji i czułości testu. Precyzja to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek przewidzianych jako pozytywne, w tym tych nieprawidłowo zidentyfikowanych. Czułość to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek, które powinny były zostać zidentyfikowane jako pozytne.
F-score jest obliczany jako średnia harmoniczną precyzji i czułości. Wartość F-score może być różna w zależności od precyzji i czułości.
Jeśli precyzja jest wysoka, ale czułość jest niska, F-score może być niska. Jeśli czułość jest wysoka, ale precyzja jest niska, F-score może być niska.
W związku z tym, obie precyzja i czułość mają wpływ na F-score. Jednak, w zależności od problemu, jeden z nich może mieć większy wpływ niż drugi.
W przypadku, gdy klasa pozytywna jest rzadka, czułość ma większy wpływ na F-score, ponieważ model powinien być w stanie wykryć wszystkie przypadki pozytywne. W przypadku, gdy klasa pozytywna jest częsta, precyzja ma większy wpływ na F-score, ponieważ model powinien być w stanie uniknąć fałszywych alarmów.
-
Czym się różni precyzja od czułości
-
Czym się różni precyzja od czułości
Precyzja i czułość są dwiema ważnymi metrykami, które są używane do oceny jakości modelu Uczenia Maszynowego.
Precyzja (ang. precision) to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek przewidzianych jako pozytywne, w tym tych nieprawidłowo zidentyfikowanych. Inaczej mówiąc, precyzja to stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych jako pozytywne.
Czułość (ang. recall) to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek, które powinny były zostać zidentyfikowane jako pozytne. Inaczej mówiąc, czułość to stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków, które powinny były zostać zidentyfikowane jako pozytne.
Oznacza to, że precyzja mierzy, jak dobrze model jest w stanie uniknąć fałszywych alarmów, podczas gdy czułość mierzy, jak dobrze model jest w stanie wykryć wszystkie przypadki pozytywne.
Przykładem może być sytuacja, w której model jest używany do diagnozowania choroby. Precyzja w tym przypadku mierzy, jak dobrze model jest w stanie uniknąć diagnozowania zdrowych osób jako chorych, podczas gdy czułość mierzy, jak dobrze model jest w stanie wykryć wszystkie przypadki choroby.
W związku z tym, precyzja i czułość są dwiema różnymi metrykami, które mają różne cele. Precyzja jest ważniejsza, gdy klasa pozytywna jest rzadka, a czułość jest ważniejsza, gdy klasa pozytywna jest częsta.