conversation_by_183
-
uczenie maszynowe jest podobno obrzarem sztucznej inteligencji, jakie są jej pozostałe obrzary?
-
uczenie maszynowe jest podobno obrzarem sztucznej inteligencji, jakie są jej pozostałe obrzary?
Obrzędy sztucznej inteligencji to niezbyt popularne określenie, które nie jest powszechnie używane w literaturze naukowej. W kontekście kursu nie ma wzmianki o innych obrzędach sztucznej inteligencji oprócz Uczenia Maszynowego (Machine Learning - ML).
W Glossary of artificial intelligence - I - Sterowanie inteligentne, sztuczna inteligencja jest definiowana jako klasa technik sterowania, które wykorzystują różne podejścia obliczeniowe z zakresu sztucznej inteligencji, takie jak sieci neuronowe, prawdopodobieństwo bayesowskie, logika rozmyta, uczenie maszynowe, uczenie przez wzmacnianie, obliczenia ewolucyjne i algorytmy genetyczne.
W Glossary of artificial intelligence - A - Sztuczna inteligencja, sztuczna inteligencja jest definiowana jako inteligencja demonstrowana przez maszyny, w przeciwieństwie do naturalnej inteligencji wykazywanej przez ludzi i inne zwierzęta.
Nie ma wzmianki o innych obrzędach sztucznej inteligencji w dostępnych źródłach.
-
jak dobrze przygotować dane dla modelu?
-
jak dobrze przygotować dane dla modelu?
Dobrze przygotowane dane są kluczem do skutecznego modelu. W kontekście kursu, istotne jest, aby dane były odpowiednio podzielone na zbiór uczący (train set) i zbiór testowy (test set). Zbiór uczący powinien zawierać przykłady, na których model się uczy, znając z góry prawidłową klasyfikację. Zbiór testowy powinien zawierać przykłady, których model nie wykorzystał w procesie uczenia się, wykorzystywane do przetestowania modelu.
Dodatkowo, istotne jest, aby w zbiorze uczącym umieścić odpowiednią liczbę przypadków jednego typu w porównaniu do przypadków innych typów. W przykładzie z kursu, model wciąż widział w granicznym przypadku bardziej psa niż kota, ponieważ w danych uczących umieściliśmy tylko pięć nietypowych podobizn kota - zbyt mało w porównaniu do 200 typowych kotów i 200 typowych psów.
Aby uniknąć tego błędu, należy umieścić odpowiednią liczbę przypadków jednego typu w porównaniu do przypadków innych typów. W przykładzie z kursu, model mógłby być lepiej przygotowany, jeśli w zbiorze uczącym umieściliśmy więcej nietypowych podobizn kota, tak aby model mógł lepiej rozpoznać zdjęcia kota.
-
czy podział danych na zbiór uczący i testowy, to jedyny prosty podział?
-
czy podział danych na zbiór uczący i testowy, to jedyny prosty podział?
Nie, podział danych na zbiór uczący i testowy nie jest jedynym prostym podziałem. W Uczeniu Maszynowym spotyka się także inne proporcje, takie jak zbiór testowy obejmujący 20% wszystkich danych, 10% lub nawet mniej przy bardzo dużych zbiorach danych.
-
jaka jest różnica między zmianą tempa uczenia się modelu a liczby epok?
-
jaka jest różnica między zmianą tempa uczenia się modelu a liczby epok?
Różnica między zmianą tempa uczenia się modelu a liczbą epok jest taka, że zmiana tempa uczenia się modelu odnosi się do współczynnika uczenia (learning rate), który określa, jak szybko model koryguje swoje wyniki w czasie treningu. Im wyższy współczynnik uczenia, tym model koryguje swoje wyniki szybciej, ale może również "przeskoczyć" przez oczekiwane rozwiązanie.
Z kolei liczba epok odnosi się do liczby iteracji, które model wykonuje w czasie treningu. Im większa liczba epok, tym model wykonuje więcej iteracji i może osiągnąć lepsze wyniki, ale również może być bardziej narażony na nadmierną adaptację do danych szkoleniowych.
Przykładem może być następująca sytuacja: Twoja firma segreguje śmieci i chcesz, aby model rozpoznał zdjęcia śmieci, aby uniknąć błędów w segregacji. Jeśli model ma zbyt niski współczynnik uczenia, może rozpoznać nieśmieci jako śmieci, co może prowadzić do niepożądanych konsekwencji. W takim przypadku, zwiększenie liczby epok może pomóc modelowi osiągnąć lepsze wyniki, ale również może prowadzić do nadmiernego adaptowania się modelu do danych szkoleniowych.
Warto zauważyć, że zmiana tempa uczenia się modelu i liczba epok są dwoma niezależnymi parametrami, które mogą być dostosowane oddzielnie w zależności od potrzeb modelu.
-
dlaczego w modelach strata(loss) nie zmienia się liniowo z każdą kolejną epoką?
-
dlaczego w modelach strata(loss) nie zmienia się liniowo z każdą kolejną epoką?
Strata (loss) w modelach nie zmienia się liniowo z każdą kolejną epoką, ponieważ jest to wynik interakcji między modelami a danymi. W każdej kolejnej epoce model koryguje swoje wyniki w oparciu o dane, ale zmiana straty nie jest liniowa ze względu na fakt, że model może się nadmiernie dostosowywać do danych szkoleniowych.
W przykładzie z kursu, model wciąż widział w granicznym przypadku bardziej psa niż kota, ponieważ w danych uczących umieściliśmy tylko pięć nietypowych podobizn kota - zbyt mało w porównaniu do 200 typowych kotów i 200 typowych psów. W takim przypadku, model może się nadmiernie dostosowywać do danych szkoleniowych, co prowadzi do zmiany straty w sposób nieliniowy.
Dodatkowo, zmiana straty może być również wpływana przez różne czynniki, takie jak współczynnik uczenia (learning rate), liczba epok, a także sama struktura modelu. Wszystkie te czynniki mogą wpływać na sposób, w jaki model koryguje swoje wyniki w czasie treningu, co prowadzi do zmiany straty w sposób nieliniowy.
Warto zauważyć, że zmiana straty w modelach jest zależna od wielu czynników, a nie tylko od liczby epok. W związku z tym, nie można przewidzieć, jak zmieni się strata w każdej kolejnej epoce, a jedynie można obserwować, jak zmienia się strata w czasie treningu.