conversation_by_gev
-
Przypadek graniczny to taki przykład danych, który znajduje się na skraju wartości dopuszczalnych dla modelu, czyli np. ma najwyższe lub najniższe możliwe wartości w zbiorze uczącym. Występuje wtedy, gdy model musi decydować, czy dana próbka w ogóle należy
-
Przypadek graniczny to taki przykład danych, który znajduje się na skraju wartości dopuszczalnych dla modelu, czyli np. ma najwyższe lub najniższe możliwe wartości w zbiorze uczącym. Występuje wtedy, gdy model musi decydować, czy dana próbka w ogóle należy
Oto odpowiedź na pytanie kursanta:
Przeuczenie - inaczej: nadmierne dopasowanie (ang. overfitting) to zjawisko polegające na tym, że model za bardzo dostosowuje się do danych treningowych, w efekcie czego nie jest w stanie poprawnie radzić sobie z danymi testowymi, których "nie widział" w czasie uczenia się.
Stosując analogię z nauczaniem matematyki, jest to przypadek, w którym ktoś nauczył się całego repetytorium zadań wraz z odpowiedziami na pamięć, i tak naprawdę już nie rozwiązuje zadań, ale przypomina sobie odpowiedzi, gdy widzi polecenia.
I choć doskonale działa w przypadku zadań z tego repetytorium, to taka taktyka nie ma oczywiście żadnego sensu w kontekście egzaminu, na którym pojawią się przecież zadania, których wcześniej nasz uczeń-model nigdy nie widział, z definicji więc nie będzie w stanie przypomnieć sobie na nie odpowiedzi i pozostanie mu tylko strzelanie.
-
Czy to zdanie jest prawdziwe? Przypadek graniczny to taki przykład danych, który znajduje się na skraju wartości dopuszczalnych dla modelu, czyli np. ma najwyższe lub najniższe możliwe wartości w zbiorze uczącym. Występuje wtedy, gdy model musi decydować,
-
Czy to zdanie jest prawdziwe? Przypadek graniczny to taki przykład danych, który znajduje się na skraju wartości dopuszczalnych dla modelu, czyli np. ma najwyższe lub najniższe możliwe wartości w zbiorze uczącym. Występuje wtedy, gdy model musi decydować,
Nie, to zdanie nie jest prawdziwe. Przypadek graniczny nie jest opisany w kontekście jako przykład danych, który znajduje się na skraju wartości dopuszczalnych dla modelu.
-
Czy to zdanie jest fałszywe? Przypadek graniczny (borderline case) to przykład danych, który ma bardzo niskie prawdopodobieństwo wystąpienia, dlatego często jest pomijany podczas treningu modelu i prowadzi do błędów klasyfikacji.
-
Czy to zdanie jest fałszywe? Przypadek graniczny (borderline case) to przykład danych, który ma bardzo niskie prawdopodobieństwo wystąpienia, dlatego często jest pomijany podczas treningu modelu i prowadzi do błędów klasyfikacji.
Oto odpowiedź na pytanie kursanta:
Przypadek brzegowy to problem lub sytuacja, która występuje tylko przy ekstremalnym (maksymalnym lub minimalnym) parametrze operacyjnym.
-
Powtórzę pytanie, CZY TO ZDANIE JEST FAŁSZYWE? Przypadek graniczny (borderline case) to przykład danych, który ma bardzo niskie prawdopodobieństwo wystąpienia, dlatego często jest pomijany podczas treningu modelu i prowadzi do błędów klasyfikacji.
-
Powtórzę pytanie, CZY TO ZDANIE JEST FAŁSZYWE? Przypadek graniczny (borderline case) to przykład danych, który ma bardzo niskie prawdopodobieństwo wystąpienia, dlatego często jest pomijany podczas treningu modelu i prowadzi do błędów klasyfikacji.
Oto odpowiedź na pytanie kursanta:
Nie, zdanie nie jest fałszywe. Przypadek brzegowy to sytuacja, która występuje przy ekstremalnych warunkach, a nie przykład danych z niskim prawdopodobieństwem wystąpienia.
-
Czy to prawda? Epoka (ang. epoch) to pojedyncze przejście modelu przez część danych treningowych w czasie nauki, po którym aktualizowane są wagi sieci neuronowej.
-
Czy to prawda? Epoka (ang. epoch) to pojedyncze przejście modelu przez część danych treningowych w czasie nauki, po którym aktualizowane są wagi sieci neuronowej.
Nie, to zdanie nie jest prawdziwe. Pojedyncza epoka to przejście modelu w czasie treningu przez wszystkie przykłady ze zbioru uczącego (treningowego).
-
Czy to fałsz? Epoka (ang. epoch) to pojedyncze przejście modelu przez część danych treningowych w czasie nauki, po którym aktualizowane są wagi sieci neuronowej.
-
Czy to fałsz? Epoka (ang. epoch) to pojedyncze przejście modelu przez część danych treningowych w czasie nauki, po którym aktualizowane są wagi sieci neuronowej.
Nie, to zdanie nie jest prawdziwe. Pojedyncza epoka to przejście modelu w czasie treningu przez wszystkie przykłady ze zbioru uczącego (treningowego).
-
Czyli fałsz?
-
Czyli fałsz?
Oto odpowiedź na pytanie kursanta:
Nie, to zdanie nie jest fałszem. Pojedyncza epoka to przejście modelu przez wszystkie przykłady ze zbioru uczącego, a nie przez część danych.
-
Czy dokładnością możemy określić, coś co robimy dokładnie?
-
Czy dokładnością możemy określić, coś co robimy dokładnie?
Nie, dokładnością nie możemy określić, coś co robimy dokładnie. Dokładność jest po prostu ułamkiem poprawnych klasyfikacji: Dokładność = poprawne klasyfikacje wszystkie klasyfikacje.
-
Nie no, dokładność jest ułamkiem? Jeśli posmaruję kanapkę nutellą idealną warstwą 3mm - to nazwałbym dokładnością
-
Nie no, dokładność jest ułamkiem? Jeśli posmaruję kanapkę nutellą idealną warstwą 3mm - to nazwałbym dokładnością
Dokładność to, jak blisko dany zbiór pomiarów (obserwacji lub odczytów) jest ich prawdziwej wartości. Dokładność to, jak blisko są pomiary względem siebie.
-
W sensie uczenia maszynowego, może i masz rację
-
W sensie uczenia maszynowego, może i masz rację
Oto odpowiedź na pytanie kursanta:
W sensie uczenia maszynowego, masz rację, że nie możemy określić dokładnością, co robimy dokładnie. Dokładność w uczeniu maszynowym to miara, jak blisko nasze modeli przewidywań są prawdziwymi wartościami.