conversation_by_4mq
-
-
Jakie jeszcze inne kategorie uczenia maszynowego (poza nadzorowanym, nienadzorowanym oraz uczeniem przez wzmacnianie) wyróżniamy? A może nie ma więcej kategorii?
-
Jakie jeszcze inne kategorie uczenia maszynowego (poza nadzorowanym, nienadzorowanym oraz uczeniem przez wzmacnianie) wyróżniamy? A może nie ma więcej kategorii?
Odpowiedź na pytanie kursanta:
Zgodnie z dostępnymi informacjami, oprócz nadzorowanego, nienadzorowanego i uczenia przez wzmacnianie, wyróżniamy jeszcze inne kategorie uczenia maszynowego, takie jak:
- Uczenie semi-nadzorowane (znane również jako słabe nadzorowanie), które charakteryzuje się wykorzystaniem kombinacji niewielkiej ilości danych oznaczonych przez człowieka (wykorzystywanych wyłącznie w uczeniu nadzorowanym), po których następuje duża ilość danych nieoznaczonych (wykorzystywanych wyłącznie w uczeniu nienadzorowanym).
Dodatkowo, w tekście "Machine learning - Other types" wspomniano o opracowaniu innych podejść, które nie pasują idealnie do tej trójdzielnej kategoryzacji, a czasami więcej niż jedno jest wykorzystywane przez ten sam system uczenia maszynowego. Na przykład, wymieniono modelowanie tematyczne, meta-uczenie się.
-
Czym jest ten tekst?
-
Czym jest ten tekst?
Odpowiedź na pytanie kursanta:
Tekst, o którym mowa, to artykuł Wikipedii opisujący termin "stochastyczny papuga" w kontekście uczenia maszynowego.
-
Czyli tekst "Machine learning - Other types" dotyczy głównie terminu "stochastyczna papuga"?
-
Czyli tekst "Machine learning - Other types" dotyczy głównie terminu "stochastyczna papuga"?
Odpowiedź na pytanie kursanta:
Nie, tekst "Machine learning - Other types" nie dotyczy terminu "stochastyczna papuga". Tekst ten opisuje inne podejścia w uczeniu maszynowym, które nie pasują idealnie do trójdzielnej kategoryzacji nadzorowanego, nienadzorowanego i uczenia przez wzmacnianie. Wymieniono tam modelowanie tematyczne i meta-uczenie się jako przykłady takich podejść.
-
To dlaczego przytoczyłeś termin papugi?
-
To dlaczego przytoczyłeś termin papugi?
Odpowiedź na pytanie kursanta:
Przytoczyłem termin "papuga" w kontekście wyjaśnienia pochodzenia słowa "stochastyczna papuga". W tekście "Stochastic parrot - Etymology" wyjaślono, że słowo "papuga" odnosi się do zdolności papug do naśladowania ludzkiej mowy, bez rozumienia jej znaczenia. To właśnie ta analogia została wykorzystana przez autorów artykułu "O niebezpieczeństwach stochastycznych papug: Czy modele językowe mogą być zbyt duże?" do opisania ograniczeń dużych modeli językowych.
-
Jakie mogą być problemy z danymi poza obecnością danych spoza klas, przypadkami granicznymi oraz nierówną liczebnością klas?
-
Jakie mogą być problemy z danymi poza obecnością danych spoza klas, przypadkami granicznymi oraz nierówną liczebnością klas?
Odpowiedź na pytanie kursanta:
Problemy z danymi, poza obecnością danych spoza klas, przypadkami granicznymi oraz nierówną liczebnością klas, mogą obejmować:
- Błędy w danych: mogą one wynikać z błędów w procesie gromadzenia danych, takich jak błędy w czytaniu czy zapisywaniu danych.
- Duplikaty danych: mogą one powodować powtarzanie się danych, co może wpłynąć na jakość modelu.
- Brak danych: mogą one powodować, że model nie będzie mógł się nauczyć na pewnych danych.
- Dane nieprawidłowo znormalizowane: mogą one powodować, że model nie będzie mógł się nauczyć na pewnych danych.
- Dane z nieprawidłowymi wartościami: mogą one powodować, że model nie będzie mógł się nauczyć na pewnych danych.
Wszystkie te problemy mogą wpłynąć na jakość modelu i jego zdolność do przewidywania wyników.
-
Doprecyzuj: "Dane nieprawidłowo znormalizowane: mogą one powodować, że model nie będzie mógł się nauczyć na pewnych danych."
-
Doprecyzuj: "Dane nieprawidłowo znormalizowane: mogą one powodować, że model nie będzie mógł się nauczyć na pewnych danych."
Odpowiedź na pytanie kursanta:
"Dane nieprawidłowo znormalizowane" oznacza, że dane zostały znormalizowane w sposób niepoprawny, co może powodować, że model nie będzie mógł się nauczyć na pewnych danych. Przykładem może być sytuacja, w której dane zostały znormalizowane do zakresu od 0 do 1, ale niektóre dane mają wartości poza tym zakresie. W takim przypadku model może nie być w stanie przewidzieć wyników dla tych danych, ponieważ nie zostały one prawidłowo znormalizowane.
Przykładem może być również sytuacja, w której dane zostały znormalizowane do zakresu od 0 do 1, ale niektóre dane mają wartości bardzo bliskie 0 lub 1. W takim przypadku model może nie być w stanie rozróżnić między tymi danymi a danymi, które zostały prawidłowo znormalizowane.
W obu przypadkach, dane nieprawidłowo znormalizowane mogą powodować, że model nie będzie mógł się nauczyć na pewnych danych, co może wpłynąć na jakość modelu i jego zdolność do przewidywania wyników.
-
A który z błędów jest najbardziej problematyczny?
-
A który z błędów jest najbardziej problematyczny?
Odpowiedź na pytanie kursanta:
Najbardziej problematyczny błąd w danych jest przeuczenie (overfitting). Przeuczenie występuje, gdy model jest zbyt dobrze dopasowany do danych szkoleniowych i nie jest w stanie ogólniejszego opisu danych testowych. W takim przypadku model może być bardzo dokładny w opisaniu danych szkoleniowych, ale nie będzie w stanie przewidzieć wyników dla danych testowych.
Przeuczenie jest szczególnie problematyczne w przypadku, gdy dostępna jest niewielka teoria, która mogłaby kierować analizą, a także gdy istnieje duża liczba modeli do wyboru. W takim przypadku przeuczenie jest realnym zagrożeniem, ponieważ model może być zbyt specyficzny dla danych szkoleniowych i nie będzie w stanie ogólniejszego opisu danych testowych.
Przykładem przeuczenia może być sytuacja, w której model jest zbyt dobrze dopasowany do danych szkoleniowych i nie jest w stanie przewidzieć wyników dla danych testowych. Na przykład, jeśli model jest używany do przewidywania wyników dla pacjentów z chorobą, a dane szkoleniowe są bardzo specyficzne dla jednego pacjenta, model może być zbyt dobrze dopasowany do tych danych i nie będzie w stanie przewidzieć wyników dla innych pacjentów.
-
Bardziej chodziło mi o błędy wcześniej wymienione, dotyczące samych danych (ich liczebności, konstrukcji itp.)
-
Bardziej chodziło mi o błędy wcześniej wymienione, dotyczące samych danych (ich liczebności, konstrukcji itp.)
Odpowiedź na pytanie kursanta:
Najbardziej problematyczny błąd w danych, spośród tych, które zostały wcześniej wymienione, jest nierówna liczebność klas. Nierówna liczebność klas może powodować, że model będzie miał trudności z nauczeniem się na danych, które są rzadkie lub mało reprezentatywne. W takim przypadku model może być zbyt dobrze dopasowany do danych, które są częste, ale nie będzie w stanie ogólniejszego opisu danych, które są rzadkie.
Przykładem nierówna liczebności klas może być sytuacja, w której model jest używany do przewidywania wyników dla pacjentów z chorobą, a dane szkoleniowe są bardzo niezrównoważone. Na przykład, jeśli dane szkoleniowe zawierają 99% pacjentów z chorobą A i 1% pacjentów z chorobą B, model może być zbyt dobrze dopasowany do danych z chorobą A i nie będzie w stanie ogólniejszego opisu danych z chorobą B.
W takim przypadku model może być zbyt specyficzny dla danych z chorobą A i nie będzie w stanie przewidzieć wyników dla pacjentów z chorobą B. W rezultacie, model może nie być w stanie ogólniejszego opisu danych i będzie miał trudności z nauczeniem się na danych, które są rzadkie lub mało reprezentatywne.
-
-
Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?
-
Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?