conversation_by_z6n
-
jeśli wykresy zbioru testowego i treningowego dążą do osi epoki i zaczynają się mniej więcej pokrywać to jest niedouczenie, przeuczenie czy nasz model jest dobrze nauczony?
Jeśli wykresy zbioru testowego i treningowego dążą do osi epoki i zaczynają się mniej więcej pokrywać, to jest przeuczenie.
Przeuczenie - inaczej: nadmierne dopasowanie (ang. overfitting) to zjawisko polegające na tym, że model za bardzo dostosowuje się do danych treningowych, w efekcie czego nie jest w stanie poprawnie radzić sobie z danymi testowymi, których "nie widział" w czasie uczenia się.
-
to jak wygląa wykres dobrze nauczonego modelu?
-
to jak wygląa wykres dobrze nauczonego modelu?
Dobrze nauczony model powinien wykazywać podobne wyniki na danych treningowych i testowych. Wykresy tych danych powinny się nieco pokrywać, ale nie powinny być identyczne. Im lepiej model jest nauczony, tym bardziej powinny one się zbliżać, ale nie powinny się całkowicie pokrywać.
-
podaj przykłady uczenia przez wzmacnianie dla uczenia maszynowego
-
podaj przykłady uczenia przez wzmacnianie dla uczenia maszynowego
Nie ma odpowiedzi na to pytanie w kontekście.
-
czyli jeśli mam kota, który przypomina psa to lepiej do klasy kot dorzucić jego zdjęcia niż tworzyć oddzielną klasę?
-
czyli jeśli mam kota, który przypomina psa to lepiej do klasy kot dorzucić jego zdjęcia niż tworzyć oddzielną klasę?
Nie, niekoniecznie. W kontekście, którym dysponujemy, widzimy, że stworzenie oddzielnej klasy "Kotopies" (która zawiera zdjęcia kotów przypominających psy) okazało się lepszym rozwiązaniem niż dodanie zdjęć "kota-wilkołaka" do klasy "Kot". Model w tym przypadku był w stanie rozpoznać zdjęcia z klasy "Kotopies" z pewnym prawdopodobieństwem, ale wciąż nie był zbyt pewny. Dodanie zdjęć "kota-wilkołaka" do klasy "Kot" nie poprawiło wyników modelu.
-
a jeśli chciałabym mieć tylko kategorię istniejących zwierząt?
-
a jeśli chciałabym mieć tylko kategorię istniejących zwierząt?
Jeśli chciałabym mieć tylko kategorię istniejących zwierząt, to model poradziłby sobie z tym zadaniem, gdyby w danych była dodatkowa klasa z obrazami samochodów.
-
model nie zawsze będzie pewny dopasowania bo niektóre dane mogą posiadać cechy spoza swojej klasy?
-
model nie zawsze będzie pewny dopasowania bo niektóre dane mogą posiadać cechy spoza swojej klasy?
Tak, model nie zawsze będzie pewny dopasowania, ponieważ niektóre dane mogą posiadać cechy spoza swojej klasy. Przykładem tego jest "kot wilkołak", który jest bardzo podobny do psa, a model dał się oszukać i ocenił, że ma do czynienia z psem.
-
i to jest modelem matematycznym, który co porównuje?
-
i to jest modelem matematycznym, który co porównuje?
Model matematyczny, który porównuje, to model, który "może pomóc w wyjaśnieniu systemu, w badaniu wpływu różnych komponentów oraz w prognozowaniu zachowania."
-
kiedy precyzja jest lepszą metryką niż dokładność?
-
kiedy precyzja jest lepszą metryką niż dokładność?
Precyzja (precision) jest najważniejszą metryką, jeżeli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych - przykładowo, diagnozujemy chorobę, na którą jest tylko jeden lek, i ma niechciane efekty uboczne, w związku z czym chcemy mieć pewność, że nie będziemy niepotrzebnie podawać go osobom zdrowym - precyzja naszego modelu powinna być jak najwyższa.
Kiedy zatem precyzja może się przydać? Wyobraźmy sobie ten sam problem, ale nieco inny model, który na 100 przykładów testowych 90 ocenił poprawnie jako prawdziwie negatywne, 9 zdrowych niesłusznie uznał za chorych (przykłady fałszywie pozytywne), a jedynego chorego błędnie zaklasyfikował jako zdrowego (przykład fałszywie negatywny). Na ilustracji widzimy, że dokładność tego modelu wciąż jest bardzo wysoka i wynosi 90%. Jednocześnie, model wciąż nie spełnia swojej roli. Potwierdzi to w tym wypadku precyzja, której wartość przy 9 przykładach fałszywie pozytywnych i żadnym prawdziwie pozytywnym, wyniesie 0.
-
a kiedy dokładność jest lepszą metryką niż precyzja?
-
a kiedy dokładność jest lepszą metryką niż precyzja?
Dokładność (accuracy) jest często metryką domyślną (np. w GTM); jest uniwersalna, ale często przestaje być miarodajna, jeżeli mamy do czynienia z dużą różnicą liczebności między klasami w danych.