conversation_by_dub
-
jak działa google teachable machine?
Google Teachable Machine to narzędzie, które umożliwia budowanie prostych modeli uczenia maszynowego bez konieczności posiadania specjalistycznych umiejętności. W opisanej w kontekście demonstracji, Google Teachable Machine jest wykorzystywany do budowania modelu, który potrafi odróżniać od siebie obrazki należące do dwóch różnych klas (kategorii).
Narzędzie automatycznie dzieli cały zbiór danych na zbiór uczący i zbiór testowy w sposób losowy. W procesie uczenia się wykorzystywane są 85% danych z każdej klasy, natomiast pozostałe 15% przykładów są traktowane jako zbiór testowy.
Google Teachable Machine oferuje również funkcjonalność związana z dokładnością modelu, umożliwiając obliczenie dokładności modelu na zbiorze testowym i wyświetlanie wykresu, który pokazuje zmianę dokładności modelu w kolejnych epokach trenowania.
-
jakie są inne obszary sztucznej inteligencji oprócz uczenia maszynowego?
-
jakie są inne obszary sztucznej inteligencji oprócz uczenia maszynowego?
Oprócz uczenia maszynowego, inne obszary sztucznej inteligencji to:
- Rozpoznawanie obrazów i dźwięków
- Analiza danych
- Budowanie złożonych modeli językowych (np. ChatGPT)
- Diagnostyka medyczna
- Autonomiczne sterowanie
Te obszary są wymienione w opisie Uczenia Maszynowego (UM) w kontekście kursu.
-
co zrobić w przypadku niezdecydowania w wyniku modelu?
-
co zrobić w przypadku niezdecydowania w wyniku modelu?
W przypadku niezdecydowania w wyniku modelu, należy sprawdzić macierz pomyłek w Google Teachable Machine. Macierz pomyłek pokazuje, jak często model błędnie klasyfikuje przykłady z różnych klas. Można również obliczyć dokładność, precyzję i F-score modelu, aby lepiej zrozumieć jego wyniki.
W opisanej w kontekście demonstracji, model A ma F-score na poziomie 80%, co oznacza, że model jest dość dokładny, ale może popełniać błędy. W takim przypadku, należy sprawdzić macierz pomyłek, aby zrozumieć, jakie klasy są najczęściej błędnie klasyfikowane.
Przykładowo, jeśli w macierzy pomyłek widzimy, że model często błędnie klasyfikuje przykłady z klasy "4" jako klasy "3", to może to wskazywać na to, że model potrzebuje więcej danych z klasy "4" lub że potrzebuje poprawy w swojej architekturze.
-
czy liczebność przykładów klas ma znaczenie w modelu?
-
czy liczebność przykładów klas ma znaczenie w modelu?
Tak, liczebność przykładów klas ma znaczenie w modelu. W opisanej w kontekście demonstracji, model zignorował klasę mniej liczną (chorych) i automatycznie przypisał wszystkie przykłady do klasy dominującej (zdrowych), osiągając przy tym bardzo wysoką dokładność (accuracy) na poziomie 99%. To pokazuje, że model nie potrafił prawidłowo zdiagnozować osoby chorej, ponieważ nie miał wystarczającej liczby przykładów z klasy "chorych".
W takim przypadku, model nie potrafił obliczyć precyzji, ponieważ nie mógł dzielić przez zero. To pokazuje, że liczebność przykładów klas ma znaczenie w modelu i że model powinien być trenowany na danych, które reprezentują różne klasy w sposób równomierny.
-
jaka jest optymalna proporcja zbioru uczącego i testowego?
-
jaka jest optymalna proporcja zbioru uczącego i testowego?
Optymalna proporcja zbioru uczącego i testowego nie jest określona w opisanej w kontekście demonstracji. W Google Teachable Machine, dane są automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15, ale nie jest to optymalna proporcja. W opisanej w kontekście demonstracji, wskazano, że w innych przypadkach, zbiór testowy może obejmować aż 20% wszystkich danych, albo tylko 10%, lub nawet jeszcze mniej przy bardzo dużych zbiorach danych.
Ważne jest, by zawsze przestrzegać kilku zasad: zbiór uczący powinien być znacząco większy od zbioru testowego, by móc skutecznie klasyfikować, model musi mieć szansę potrenować na dużym zbiorze danych. Zbiór testowy musi być jakościowo reprezentatywny dla całości danych, muszą znajdować się w nim podobne przykłady, co w zbiorze uczącym, i nie należy wprowadzać na egzamin zadań całkowicie nowego typu, którego nie było w repetytorium. Zbiór testowy musi być wystarczająco duży, by móc ocenić, czy model poprawnie (lub błędnie) klasyfikuje przykłady.
-
jaka powinna być wielkość wsadu?
-
jaka powinna być wielkość wsadu?
Wielkość wsadu (batch size) to parametr, który możemy regulować w Google Teachable Machine. W opisanej w kontekście demonstracji, domyślna wielkość wsadu jest ustawiona na 16, co oznacza, że model otrzymuje 16 przykładów na raz do trenowania w pojedynczej iteracji.
Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednocześnie jednak, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się. Analogicznie, mniejsza wielkość wsadu oznacza mniejsze obciążenie pod kątem zasobów, zwłaszcza pamięci, jednak by osiągnąć oczekiwane rezultaty, potrzebne jest więcej epok.
W tym przypadku, nie ma informacji o optymalnej wielkości wsadu, ale można powiedzieć, że powinna być ona dostosowana do zasobów obliczeniowych i do potrzeb modelu.
-
za co odpowiada współczynnik uczenia i jakie wielkości powinien przyjmować?
-
za co odpowiada współczynnik uczenia i jakie wielkości powinien przyjmować?
Współczynnik uczenia (learning rate) to parametr, który określa wielkość kroku w każdej iteracji podczas przesuwania się w kierunku minimum funkcji straty. Jego zadaniem jest określenie, jak duży krok jest wykonywany w tym kierunku.
Współczynnik uczenia powinien być odpowiednio dobrany, aby osiągnąć szybszą zbieżność i uniknąć oscylacji. Za mała wartość współczynnika uczenia może spowodować, że uczenie będzie zbyt długie, a za duża wartość może spowodować, że model przeskoczy przez minimum.
Optymalna wartość współczynnika uczenia zależy od konkretnego problemu i modelu. Wartości współczynnika uczenia mogą być następujące:
- Za mała wartość: 0,001-0,01 (przykład: 0,001)
- Optymalna wartość: 0,1-0,5 (przykład: 0,1)
- Za duża wartość: 1-10 (przykład: 1)
Wartości te są tylko przykładowe i mogą być dostosowane do konkretnego problemu i modelu. Wartości współczynnika uczenia powinny być dostosowane eksperymentalnie, aby osiągnąć najlepsze wyniki.
Warto zauważyć, że współczynnik uczenia może być zmieniany w czasie treningu, aby osiągnąć lepsze wyniki. Można to osiągnąć za pomocą harmonogramu uczenia, który zmienia współczynnik uczenia w zależności od iteracji.
-
za co odpowiada strata?
-
za co odpowiada strata?
Strata to funkcja, która określa ilość błędu lub różnicy między oczekiwanym a rzeczywistym wynikiem modelu. W opisanej w kontekście demonstracji, strata jest używana do określania, jak dobrze model klasyfikuje przykłady.
W szczególności, strata jest używana do obliczania średniego błędu kwadratowego estymatora, R(θ, θ^) = Eθ[(θ - θ^)^2], gdzie θ jest prawdziwym parametrem, a θ^ jest estymatorem parametru.
Strata może być różnego rodzaju, np. strata kwadratowa, strata Savage'a, strata Tangensa, itp. Każda strata ma swoje własne cechy i zalety, a wybór straty zależy od konkretnego problemu i modelu.
W opisanej w kontekście demonstracji, strata jest używana do określania, jak dobrze model klasyfikuje przykłady, a także do obliczania dokładności, precyzji i F-score modelu.
Warto zauważyć, że strata jest ważnym elementem uczenia maszynowego, ponieważ pozwala na ocenę jakości modelu i jego zdolności do klasyfikacji przykładów.
-
jak czytać tablicę pomyłek?
-
jak czytać tablicę pomyłek?
Tablica pomyłek, również nazywana macierzą pomyłek, jest tabelą z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych.
Aby czytać tablicę pomyłek, należy zrozumieć, co oznaczają poszczególne pola w tabeli:
- Prawdziwie pozytywne (TP): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako pozytywne.
- Fałszywie negatywne (FN): Liczba przykładów, które zostały błędnie sklasyfikowane jako negatywne, pomimo tego, że są pozytywne.
- Fałszywie pozytywne (FP): Liczba przykładów, które zostały błędnie sklasyfikowane jako pozytywne, pomimo tego, że są negatywne.
- Prawdziwie negatywne (TN): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako negatywne.
Na przykład, jeśli w tabeli pomyłek mamy następujące dane:
Pozytywne Negatywne Prawdziwe 80 20 Błędne 10 90 Oznacza to, że:
- 80 przykładów zostało prawidłowo sklasyfikowanych jako pozytywne (TP).
- 20 przykładów zostało prawidłowo sklasyfikowanych jako negatywne (TN).
- 10 przykładów zostało błędnie sklasyfikowanych jako pozytywne (FP).
- 90 przykładów zostało błędnie sklasyfikowanych jako negatywne (FN).
Ta tabela pomyłek pozwala na ocenę jakości modelu i jego zdolności do klasyfikacji przykładów.
-
co mówi nam wykres straty na epokę?
-
co mówi nam wykres straty na epokę?
Wykres straty na epokę pokazuje zmianę wartości funkcji straty wraz z postępem uczenia się modelu. W opisanej w kontekście demonstracji, wykres ten jest przedstawiony w Google Teachable Machine, w sekcji "Dla zaawansowanych". Na wykresie zaznaczono dwie linie - niebieską dla zbioru uczącego i pomarańczową dla zbioru testowego.
Wykres straty na epokę może nam powiedzieć, czy model się uczy, czy nie. Jeśli wartość funkcji straty maleje wraz z postępem uczenia się, oznacza to, że model się uczy i jego dokładność wzrasta. Jeśli wartość funkcji straty nie zmienia się lub zaczyna rosnąć, oznacza to, że model się nie uczy lub przeuczył się.
W opisanej w kontekście demonstracji, wykres straty na epokę jest używany do oceny jakości modelu i jego zdolności do klasyfikacji przykładów.
-
jak obliczyć precyzję dla całego modelu?