conversation_by_h7j
-
Dlaczego akurat ta proporcja wynosi 85:15?
-
Dlaczego akurat ta proporcja wynosi 85:15?
W Google Teachable Machine, proporcja 85:15 jest ustalona jako domyślna proporcja podziału zbioru danych na zbiór uczący i zbiór testowy. Nie jest to jednak jedyna możliwa proporcja, a w innych przypadkach może być stosowana proporcja 20:80, 10:90 lub nawet mniejsza proporcja przy bardzo dużych zbiorach danych.
Warto zauważyć, że proporcja 85:15 jest wybrana w celu zapewnienia wystarczającej ilości danych w obu zbiorach, aby model mógł być odpowiednio wytrenowany i oceniony. Zbiór uczący powinien być znacząco większy od zbioru testowego, aby model mógł skutecznie klasyfikować dane, a zbiór testowy musi być jakościowo reprezentatywny dla całości danych.
-
Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?
-
Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?
Nie ma w kontekście żadnych informacji, które by wskazywały, dlaczego proporcja 85:15 została wybrana jako domyślna. Jest to raczej ustalenie techniczne, a nie oparte na jakichś matematycznych podstawach.
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz znaleźć ustawienia takie jak: epoki, wielkość wsadu i tempo uczenia się.
- Epoki: Epoka to pojedyncze przejście modelu przez cały zbiór uczący w procesie trenowania. Im więcej epok, tym model ma więcej możliwości doświadczenia i poprawy swoich wyników. Jednak zbyt wiele epok może spowodować przeuczenie się modelu, czyli nadmierną adaptację do danych treningowych, co może negatywnie wpłynąć na jego zdolność do generalizacji.
- Wielkość wsadu: Wielkość wsadu to rozmiar porcji treningowej, czyli liczba przykładów, jaką model otrzymuje na raz do trenowania w pojedynczej iteracji swojego działania. Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednakże, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się.
- Tempo uczenia się: Tempo uczenia się to parametr, który określa, jak duże kroki w kierunku poprawnego rozwiązania po każdej nowej ekspozycji na dane model będzie wykonywał. Za mała wartość może bardzo wydłużyć proces uczenia się, a za duża może sprawić, że model nigdy nie osiągnie oczekiwanego rozwijania, tylko będzie ciągle je przeskakiwał w tę i z powrotem.
Jeśli zmienisz te ustawienia, możesz wpłynąć na proces uczenia się modelu. Na przykład, jeśli zmienisz wielkość wsadu na większą, model będzie potrzebował więcej zasobów obliczeniowych, ale może osiągnąć lepsze wyniki w krótszym czasie. Jednak, jeśli zmienisz tempo uczenia się na zbyt duże, model może przeuczyć się i nie osiągnąć oczekiwanego rozwijania.
-
Co jest lepsze: duży parametr wsady i mało epok czy mały wsad a dużo epok?
-
Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?
-
Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?
Tak, istnieje różnica między dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok.
Jeśli wielkość wsadu jest duża, model otrzymuje więcej przykładów do trenowania w pojedynczej iteracji, co może przyspieszyć proces uczenia się, ale wymaga więcej zasobów obliczeniowych. W tym przypadku, mniejsza ilość epok może być wystarczająca, aby osiągnąć zadowalające efekty uczenia się.
Z drugiej strony, jeśli wielkość wsadu jest mała, model otrzymuje mniej przykładów do trenowania w pojedynczej iteracji, co może spowodować wolniejszy proces uczenia się. W tym przypadku, większa ilość epok może być potrzebna, aby osiągnąć zadowalające efekty uczenia się.
Przykładowo, jeśli wielkość wsadu jest 32 i ilość epok jest 10, model otrzymuje 320 przykładów do trenowania w 10 iteracjach. Jeśli wielkość wsadu jest zmniejszona do 16, model otrzymuje 160 przykładów do trenowania w 20 iteracjach. W tym przypadku, większa ilość epok jest potrzebna, aby osiągnąć zadowalające efekty uczenia się.
Warto zauważyć, że optymalne ustawienia wielkości wsadu i ilości epok zależą od konkretnego modelu i danych treningowych. Dlatego ważne jest, aby przetestować różne kombinacje ustawień i obserwować, jak wpływają one na wyniki modelu.
-
czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?
-
czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?
W kontekście rozmów o metrykach w AI, false positive (FP) i false negative (FN) są dwoma rodzajami błędów, które mogą wystąpić w modelach AI.
False Positive (FP): To sytuacja, w której model AI sklasyfikuje przykład jako pozytywny (np. chory), podczas gdy w rzeczywistości jest on negatywny (np. zdrowy). Inaczej mówiąc, model AI zdiagnozuje chorobę u osoby, która w rzeczywistości nie ma tej choroby.
False Negative (FN): To sytuacja, w której model AI sklasyfikuje przykład jako negatywny (np. zdrowy), podczas gdy w rzeczywistości jest on pozytywny (np. chory). Inaczej mówiąc, model AI nie zdiagnozuje choroby u osoby, która w rzeczywistości ją ma.
W zależności od kontekstu, FP i FN mogą mieć różne konsekwencje. Na przykład, w przypadku modelu AI, który ma za zadanie wykrywać choroby, FP mogą prowadzić do niepotrzebnych leczeń, podczas gdy FN mogą prowadzić do opóźnień w leczeniu.
Warto zauważyć, że FP i FN są częścią macierzy pomyłek, która jest używana do oceny jakości modelu AI.
-
Jaki jest wzór na obliczanie dokładności modelu w kontekście metryk?
-
Jaki jest wzór na obliczanie dokładności modelu w kontekście metryk?
Wzór na obliczanie dokładności modelu w kontekście metryk jest następujący:
Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
Gdzie:
- TP to liczba prawdziwie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne i są rzeczywiście pozytywne)
- TN to liczba prawdziwie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne i są rzeczywiście negatywne)
- FP to liczba fałszywie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne, ale są rzeczywiście negatywne)
- FN to liczba fałszywie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne, ale są rzeczywiście pozytywne)
Dokładność modelu jest miarą, która określa, jak dobrze model sklasyfikował przykłady. Im wyższa dokładność, tym lepiej model sklasyfikował przykłady.
-
Podaj wzory na dokładność modelu i precyzje modelu w kontekście metryk. Poproszę tylko wzory
-
Podaj wzory na dokładność modelu i precyzje modelu w kontekście metryk. Poproszę tylko wzory
Wzory na dokładność modelu i precyzję modelu w kontekście metryk są następujące:
Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
Precyzja (Precision) = TP / (TP + FP)
Gdzie:
- TP to liczba prawdziwie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne i są rzeczywiście pozytywne)
- TN to liczba prawdziwie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne i są rzeczywiście negatywne)
- FP to liczba fałszywie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne, ale są rzeczywiście negatywne)
- FN to liczba fałszywie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne, ale są rzeczywiście pozytywne)
-
podaj wszystkie wzory na omówione metryki z kursu
-
podaj wszystkie wzory na omówione metryki z kursu
Wzory na omówione metryki z kursu to:
- Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
- Precyzja (Precision) = TP / (TP + FP)
- Wzór na obliczanie dokładności modelu w kontekście metryk jest taki sam jak wzór na dokładność, czyli:
Dokładność (Accuracy) = (TP + TN) / (TP + TN + FP + FN)
Dodatkowo, w kursie omówiono, że metryki są to miary jakości modelu Uczenia Maszynowego, które umożliwiają porównywanie modeli między sobą. Cztery omawiane przez nas metryki to:
- Dokładność (Accuracy)
- Precyzja (Precision)
- Wrażliwość (Sensitivity)
- Specyficzność (Specificity)
Wzory na te metryki nie zostały omówione w kursie, ale są powszechnie używane w Uczeniu Maszynowym.
-
a co z recall i fscore
-
a co z recall i fscore
Wzory na recall i F-score są następujące:
Recall (Czułość) = TP / (TP + FN)
F-score = 2 * Precision * Recall / (Precision + Recall)
lub
F-score = (1 + β^2) * Precision * Recall / (β^2 * Precision + Recall)
gdzie:
- TP to liczba prawdziwie pozytywnych przykładów (przykłady, które zostały sklasyfikowane jako pozytywne i są rzeczywiście pozytywne)
- FN to liczba fałszywie negatywnych przykładów (przykłady, które zostały sklasyfikowane jako negatywne, ale są rzeczywiście pozytywne)
- Precision to precyzja modelu (liczba prawdziwie pozytywnych przykładów / liczba przykładów sklasyfikowanych jako pozytywne)
- Recall to czułość modelu (liczba prawdziwie pozytywnych przykładów / liczba rzeczywiście pozytywnych przykładów)
- β to parametr, który określa wagę, jaką przyznaje się precyzji w stosunku do czułości.