conversation_by_h7j
-
Jaki jest najlepszy sposób z radzeniem sobie z "przypadkami granicznymi" w kontekście problemu klasyfikacji?
-
Jaki jest najlepszy sposób z radzeniem sobie z "przypadkami granicznymi" w kontekście problemu klasyfikacji?
W kontekście problemu klasyfikacji, "przypadki graniczne" odnoszą się do sytuacji, w których dane wejściowe są niepewne lub niejednoznaczne, co utrudnia modelowi klasyfikacji podejmowanie decyzji. W takich przypadkach, mamy dwa wyjścia:
- Dodanie dodatkowych danych: jeśli dysponujemy dodatkowymi danymi łącznie z ich prawidłową, jednoznaczną identyfikacją, możemy poszukać w nich więcej podobnych przypadków granicznych, a następnie dodać je do prawidłowych dla nich klas. Musi się ich jednak zebrać więcej niż kilka, by nasze działanie mogło odnieść skutek.
- Stworzenie klasy pośredniej: jeśli sami nie dysponujemy prawidłową odpowiedzią w przypadkach granicznych, możemy stworzyć klasę pośrednią, w tym wypadku np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.
Warto zauważyć, że w przypadku granicznym, model klasyfikacji może się zatrzymać na jednej z możliwych klas, ale nie jest w stanie zdecydować się na żadną z nich. W takich przypadkach, dodanie dodatkowych danych lub stworzenie klasy pośredniej może pomóc modelowi klasyfikacji podejmować bardziej świadome decyzje.
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?
-
w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?
W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz kliknąć przycisk "Dla zaawansowanych". To pozwoli Ci uzyskać dostęp do dodatkowych informacji i narzędzi, takich jak macierz pomyłek, która jest ważnym narzędziem do oceny modelu.
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
czy w google teachable machine można zmienić podział zbioru uczącego i testowego?
-
czy w google teachable machine można zmienić podział zbioru uczącego i testowego?
Nie, w Google Teachable Machine nie można zmienić podziału zbioru uczącego i testowego. Zbiór danych jest automatycznie dzielony na zbiór uczący i zbiór testowy w proporcji 85:15, a ta proporcja nie może być zmieniona.
-
Dlaczego akurat ta proporcja wynosi 85:15?
-
Dlaczego akurat ta proporcja wynosi 85:15?
W Google Teachable Machine, proporcja 85:15 jest ustalona jako domyślna proporcja podziału zbioru danych na zbiór uczący i zbiór testowy. Nie jest to jednak jedyna możliwa proporcja, a w innych przypadkach może być stosowana proporcja 20:80, 10:90 lub nawet mniejsza proporcja przy bardzo dużych zbiorach danych.
Warto zauważyć, że proporcja 85:15 jest wybrana w celu zapewnienia wystarczającej ilości danych w obu zbiorach, aby model mógł być odpowiednio wytrenowany i oceniony. Zbiór uczący powinien być znacząco większy od zbioru testowego, aby model mógł skutecznie klasyfikować dane, a zbiór testowy musi być jakościowo reprezentatywny dla całości danych.
-
Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?
-
Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?
Nie ma w kontekście żadnych informacji, które by wskazywały, dlaczego proporcja 85:15 została wybrana jako domyślna. Jest to raczej ustalenie techniczne, a nie oparte na jakichś matematycznych podstawach.
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz znaleźć ustawienia takie jak: epoki, wielkość wsadu i tempo uczenia się.
- Epoki: Epoka to pojedyncze przejście modelu przez cały zbiór uczący w procesie trenowania. Im więcej epok, tym model ma więcej możliwości doświadczenia i poprawy swoich wyników. Jednak zbyt wiele epok może spowodować przeuczenie się modelu, czyli nadmierną adaptację do danych treningowych, co może negatywnie wpłynąć na jego zdolność do generalizacji.
- Wielkość wsadu: Wielkość wsadu to rozmiar porcji treningowej, czyli liczba przykładów, jaką model otrzymuje na raz do trenowania w pojedynczej iteracji swojego działania. Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednakże, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się.
- Tempo uczenia się: Tempo uczenia się to parametr, który określa, jak duże kroki w kierunku poprawnego rozwiązania po każdej nowej ekspozycji na dane model będzie wykonywał. Za mała wartość może bardzo wydłużyć proces uczenia się, a za duża może sprawić, że model nigdy nie osiągnie oczekiwanego rozwijania, tylko będzie ciągle je przeskakiwał w tę i z powrotem.
Jeśli zmienisz te ustawienia, możesz wpłynąć na proces uczenia się modelu. Na przykład, jeśli zmienisz wielkość wsadu na większą, model będzie potrzebował więcej zasobów obliczeniowych, ale może osiągnąć lepsze wyniki w krótszym czasie. Jednak, jeśli zmienisz tempo uczenia się na zbyt duże, model może przeuczyć się i nie osiągnąć oczekiwanego rozwijania.
-
Co jest lepsze: duży parametr wsady i mało epok czy mały wsad a dużo epok?
-
Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?
-
Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?
Tak, istnieje różnica między dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok.
Jeśli wielkość wsadu jest duża, model otrzymuje więcej przykładów do trenowania w pojedynczej iteracji, co może przyspieszyć proces uczenia się, ale wymaga więcej zasobów obliczeniowych. W tym przypadku, mniejsza ilość epok może być wystarczająca, aby osiągnąć zadowalające efekty uczenia się.
Z drugiej strony, jeśli wielkość wsadu jest mała, model otrzymuje mniej przykładów do trenowania w pojedynczej iteracji, co może spowodować wolniejszy proces uczenia się. W tym przypadku, większa ilość epok może być potrzebna, aby osiągnąć zadowalające efekty uczenia się.
Przykładowo, jeśli wielkość wsadu jest 32 i ilość epok jest 10, model otrzymuje 320 przykładów do trenowania w 10 iteracjach. Jeśli wielkość wsadu jest zmniejszona do 16, model otrzymuje 160 przykładów do trenowania w 20 iteracjach. W tym przypadku, większa ilość epok jest potrzebna, aby osiągnąć zadowalające efekty uczenia się.
Warto zauważyć, że optymalne ustawienia wielkości wsadu i ilości epok zależą od konkretnego modelu i danych treningowych. Dlatego ważne jest, aby przetestować różne kombinacje ustawień i obserwować, jak wpływają one na wyniki modelu.
-
czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?
-
czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?
W kontekście rozmów o metrykach w AI, false positive (FP) i false negative (FN) są dwoma rodzajami błędów, które mogą wystąpić w modelach AI.
False Positive (FP): To sytuacja, w której model AI sklasyfikuje przykład jako pozytywny (np. chory), podczas gdy w rzeczywistości jest on negatywny (np. zdrowy). Inaczej mówiąc, model AI zdiagnozuje chorobę u osoby, która w rzeczywistości nie ma tej choroby.
False Negative (FN): To sytuacja, w której model AI sklasyfikuje przykład jako negatywny (np. zdrowy), podczas gdy w rzeczywistości jest on pozytywny (np. chory). Inaczej mówiąc, model AI nie zdiagnozuje choroby u osoby, która w rzeczywistości ją ma.
W zależności od kontekstu, FP i FN mogą mieć różne konsekwencje. Na przykład, w przypadku modelu AI, który ma za zadanie wykrywać choroby, FP mogą prowadzić do niepotrzebnych leczeń, podczas gdy FN mogą prowadzić do opóźnień w leczeniu.
Warto zauważyć, że FP i FN są częścią macierzy pomyłek, która jest używana do oceny jakości modelu AI.