conversation_by_h7j
-
Czy jesteś w stanie coś podać więcej o uczeniu maszynowym niż to co jest podane w kursie?
-
Czy jesteś w stanie coś podać więcej o uczeniu maszynowym niż to co jest podane w kursie?
Uczenie maszynowe jest obszarem Sztucznej Inteligencji, który koncentruje się na rozwijaniu algorytmów automatycznie poprawiających się poprzez doświadczenie. Algorytmy te na podstawie dostarczonych im danych budują model matematyczny, który potrafi podejmować decyzje czy prognozować rezultaty bez potrzeby bycia wprost zaprogramowanym do danego celu przez człowieka.
Główne elementy uczenia maszynowego to:
- Dane: duże zbiory danych używane do trenowania i testowania działania modelu.
- Model: matematyczna reprezentacja problemu, uczona na podstawie danych.
- Algorytm: zestaw reguł i procedur używany do uczenia modelu na podstawie danych.
- Funkcja straty: funkcja używana do oceny, jak dobrze model działa - im niższa strata, tym lepszy model.
- Optymalizacja: proces dopasowywania parametrów modelu w celu minimalizacji funkcji straty.
Uczenie maszynowe jest szeroko stosowane w takich dziedzinach jak:
- Rozpoznawanie obrazów i dźwięków
- Analiza danych
- Budowanie złożonych modeli językowych
- Diagnostyka medyczna
- Autonomiczne sterowanie
W uczeniu maszynowym istnieją trzy główne podkategorie:
- Uczenie nadzorowane (Supervised Learning): model jest trenowany przy użyciu obiektów wejściowych i pożądanych wartości wyjściowych, które są często etykietami stworzonymi przez ludzi.
- Uczenie nienadzorowane (Unsupervised Learning): model nie ma dostępu do "prawidłowych odpowiedzi", a jego zadaniem jest samemu odkryć wzorce i zależności w danych.
- Uczenie przez wzmacnianie (Reinforcement Learning): model uczy się wchodząc w interakcje ze środowiskiem, poprzez system kar i nagród.
W niniejszym kursie skupimy się dalej wyłącznie na uczeniu nadzorowanym.
Dodatkowo, uczenie maszynowe może być podzielone na następujące rodzaje:
- Uczenie głębokie: rodzaj uczenia maszynowego, w którym dane wejściowe są przetwarzane przez inspirowane biologią sztuczne sieci neuronowe.
- Uczenie transferowe: sytuacja, w której wiedza zdobyta na jednym problemie jest stosowana do nowego problemu.
- Uczenie bez nadzoru: ramy w uczeniu maszynowym, w których algorytmy uczą się wzorców wyłącznie z nieoznakowanych danych.
Niestety, kontekst nie zawiera więcej informacji na temat tych rodzajów uczenia maszynowego.
-
Jaki jest najlepszy sposób z radzeniem sobie z "przypadkami granicznymi" w kontekście problemu klasyfikacji?
-
Jaki jest najlepszy sposób z radzeniem sobie z "przypadkami granicznymi" w kontekście problemu klasyfikacji?
W kontekście problemu klasyfikacji, "przypadki graniczne" odnoszą się do sytuacji, w których dane wejściowe są niepewne lub niejednoznaczne, co utrudnia modelowi klasyfikacji podejmowanie decyzji. W takich przypadkach, mamy dwa wyjścia:
- Dodanie dodatkowych danych: jeśli dysponujemy dodatkowymi danymi łącznie z ich prawidłową, jednoznaczną identyfikacją, możemy poszukać w nich więcej podobnych przypadków granicznych, a następnie dodać je do prawidłowych dla nich klas. Musi się ich jednak zebrać więcej niż kilka, by nasze działanie mogło odnieść skutek.
- Stworzenie klasy pośredniej: jeśli sami nie dysponujemy prawidłową odpowiedzią w przypadkach granicznych, możemy stworzyć klasę pośrednią, w tym wypadku np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.
Warto zauważyć, że w przypadku granicznym, model klasyfikacji może się zatrzymać na jednej z możliwych klas, ale nie jest w stanie zdecydować się na żadną z nich. W takich przypadkach, dodanie dodatkowych danych lub stworzenie klasy pośredniej może pomóc modelowi klasyfikacji podejmować bardziej świadome decyzje.
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?
-
w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?
W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz kliknąć przycisk "Dla zaawansowanych". To pozwoli Ci uzyskać dostęp do dodatkowych informacji i narzędzi, takich jak macierz pomyłek, która jest ważnym narzędziem do oceny modelu.
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
czy w google teachable machine można zmienić podział zbioru uczącego i testowego?
-
czy w google teachable machine można zmienić podział zbioru uczącego i testowego?
Nie, w Google Teachable Machine nie można zmienić podziału zbioru uczącego i testowego. Zbiór danych jest automatycznie dzielony na zbiór uczący i zbiór testowy w proporcji 85:15, a ta proporcja nie może być zmieniona.
-
Dlaczego akurat ta proporcja wynosi 85:15?
-
Dlaczego akurat ta proporcja wynosi 85:15?
W Google Teachable Machine, proporcja 85:15 jest ustalona jako domyślna proporcja podziału zbioru danych na zbiór uczący i zbiór testowy. Nie jest to jednak jedyna możliwa proporcja, a w innych przypadkach może być stosowana proporcja 20:80, 10:90 lub nawet mniejsza proporcja przy bardzo dużych zbiorach danych.
Warto zauważyć, że proporcja 85:15 jest wybrana w celu zapewnienia wystarczającej ilości danych w obu zbiorach, aby model mógł być odpowiednio wytrenowany i oceniony. Zbiór uczący powinien być znacząco większy od zbioru testowego, aby model mógł skutecznie klasyfikować dane, a zbiór testowy musi być jakościowo reprezentatywny dla całości danych.
-
Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?
-
Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?
Nie ma w kontekście żadnych informacji, które by wskazywały, dlaczego proporcja 85:15 została wybrana jako domyślna. Jest to raczej ustalenie techniczne, a nie oparte na jakichś matematycznych podstawach.
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
-
w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?
W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz znaleźć ustawienia takie jak: epoki, wielkość wsadu i tempo uczenia się.
- Epoki: Epoka to pojedyncze przejście modelu przez cały zbiór uczący w procesie trenowania. Im więcej epok, tym model ma więcej możliwości doświadczenia i poprawy swoich wyników. Jednak zbyt wiele epok może spowodować przeuczenie się modelu, czyli nadmierną adaptację do danych treningowych, co może negatywnie wpłynąć na jego zdolność do generalizacji.
- Wielkość wsadu: Wielkość wsadu to rozmiar porcji treningowej, czyli liczba przykładów, jaką model otrzymuje na raz do trenowania w pojedynczej iteracji swojego działania. Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednakże, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się.
- Tempo uczenia się: Tempo uczenia się to parametr, który określa, jak duże kroki w kierunku poprawnego rozwiązania po każdej nowej ekspozycji na dane model będzie wykonywał. Za mała wartość może bardzo wydłużyć proces uczenia się, a za duża może sprawić, że model nigdy nie osiągnie oczekiwanego rozwijania, tylko będzie ciągle je przeskakiwał w tę i z powrotem.
Jeśli zmienisz te ustawienia, możesz wpłynąć na proces uczenia się modelu. Na przykład, jeśli zmienisz wielkość wsadu na większą, model będzie potrzebował więcej zasobów obliczeniowych, ale może osiągnąć lepsze wyniki w krótszym czasie. Jednak, jeśli zmienisz tempo uczenia się na zbyt duże, model może przeuczyć się i nie osiągnąć oczekiwanego rozwijania.
-
Co jest lepsze: duży parametr wsady i mało epok czy mały wsad a dużo epok?
-
Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?
-
Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?
Tak, istnieje różnica między dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok.
Jeśli wielkość wsadu jest duża, model otrzymuje więcej przykładów do trenowania w pojedynczej iteracji, co może przyspieszyć proces uczenia się, ale wymaga więcej zasobów obliczeniowych. W tym przypadku, mniejsza ilość epok może być wystarczająca, aby osiągnąć zadowalające efekty uczenia się.
Z drugiej strony, jeśli wielkość wsadu jest mała, model otrzymuje mniej przykładów do trenowania w pojedynczej iteracji, co może spowodować wolniejszy proces uczenia się. W tym przypadku, większa ilość epok może być potrzebna, aby osiągnąć zadowalające efekty uczenia się.
Przykładowo, jeśli wielkość wsadu jest 32 i ilość epok jest 10, model otrzymuje 320 przykładów do trenowania w 10 iteracjach. Jeśli wielkość wsadu jest zmniejszona do 16, model otrzymuje 160 przykładów do trenowania w 20 iteracjach. W tym przypadku, większa ilość epok jest potrzebna, aby osiągnąć zadowalające efekty uczenia się.
Warto zauważyć, że optymalne ustawienia wielkości wsadu i ilości epok zależą od konkretnego modelu i danych treningowych. Dlatego ważne jest, aby przetestować różne kombinacje ustawień i obserwować, jak wpływają one na wyniki modelu.