conversation_by_uex
-
wiec jaka jest róznica pomiedzy danymi spoza klas i przypadkiem posrednim pomiedyz klasami ]
Różnica między danymi spoza klas i przypadkiem pomiędzy klasami jest następująca:
Dane spoza klas to typowy przypadek, który może wystąpić w modelach uczenia maszynowego, gdy model nie jest w stanie poprawnie rozpoznać danych, które nie pasują do żadnej z zdefiniowanych klas. Przykładem tego może być ptak, który nie pasuje do klas psów i kotów, które były użyte do trenowania modelu.
Przypadek pomiędzy klasami, z drugiej strony, to sytuacja, w której model jest w stanie rozpoznać, że dana nie pasuje do żadnej z zdefiniowanych klas, ale nie jest w stanie określić, do której klasy należy. W takim przypadku model może uznać ten przypadek za "przypadek pomiędzy klasami", ponieważ jego wygląd nie pasuje kompletnie do innych.
Przykładem tego może być sytuacja, w której model został trenowany na danych z dwóch klas: koty i psy. Gdy do testów dodamy zdjęcie ptaka, model nie będzie w stanie poprawnie rozpoznać go, ale może uznać, że jest to przypadek pomiędzy klasami, ponieważ jego wygląd nie pasuje kompletnie do innych.
W tym przypadku model może wytrenować dodatkową klasę, np. "ptaki", aby lepiej rozróżniać te klasy.
-
jak procent danych jaki wrzucamy do naszego modelui powinien byc danymi testowymi
-
jak procent danych jaki wrzucamy do naszego modelui powinien byc danymi testowymi
Nie ma określonego procentu danych, który powinien być użyty jako dane testowe. Zbiór testowy powinien być niezależny od zbioru uczącego i nie powinien być używany do trenowania modelu. Zwykle zbiór testowy składa się z 10-20% danych, ale może to być dowolna liczba, która pozwoli na sprawdzenie, jak dobrze model jest wytrenowany.
Warto zauważyć, że zbiór testowy powinien być wybrany losowo z całego zbioru danych, aby model mógł być przetestowany w różnych sytuacjach. Jeśli zbiór testowy jest zbyt mały, model może być zbyt dobrze dopasowany do danych z tego zbioru, co może prowadzić do nadmiernego optymizmu.
Przykładowo, jeśli mamy 1000 przykładów danych, zbiór testowy powinien składać się z 100-200 przykładów. W ten sposób model będzie mógł być przetestowany w różnych sytuacjach i jego dokładność będzie bardziej wiarygodna.
-
powiedz mi cos o swoich autorach
-
powiedz mi cos o swoich autorach
Oto odpowiedź na pytanie kursanta:
Autorami, których mowa w tym kontekście, są:
- Dan Sperber - filozof i socjolog, który razem z Deirdre Wilson zaproponował teorię relewancji w 1986 roku.
- Deirdre Wilson - filozofka i socjolog, która razem z Danem Sperberem zaproponowała teorię relewancji w 1986 roku.
- Gorayska i Lindsay - autorzy, którzy zaproponowali inną teorię relewancji w latach 90.
- David Chalmers - filozof, który zidentyfikował dwa problemy w zrozumieniu umysłu, które nazwał "trudnym" i "łatwym" problemem świadomości.
- Michael Quinn Patton - autor, który zmotywował koncepcję, że procedura ewaluacji powinna być skierowana na czynności, charakterystyki, wyniki, dokonywanie ocen programu, poprawę jego efektywności i podejmowanie świadomych decyzji programowych.
- Thomson i Hoffman - autorzy, którzy opisali sytuację, w której proces ewaluacji nie byłby wskazany, np. gdy program jest nieprzewidywalny lub wadliwy.
- Isaac Asimov - autor, który wprowadził Trzy Prawa Robotyki w swoich opowiadaniach.
- Philip K. Dick - autor, który rozważał ideę, że nasze rozumienie ludzkiej podmiotowości zmienia się pod wpływem technologii stworzonej przy użyciu sztucznej inteligencji.
- Mary Shelley - autorka powieści "Frankensteina", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
- Arthur C. Clarke - autor powieści "2001: Odyseja kosmiczna", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
- Stanley Kubrick - reżyser filmu "2001: Odyseja kosmiczna", który zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
- Kareł Čapek - autor powieści "R.U.R.", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
- Dennett - filozof, który twierdzi, że świadomościowy iluzjonizm jest iluzją.
-
czym sa metryki
-
czym sa metryki
Metryki to miary jakości modelu Uczenia Maszynowego, które umożliwiają porównywanie modeli między sobą. W kontekście kursu, omawiane są cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Te metryki są obliczane na podstawie macierzy pomyłek i pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane.
Dokładność (accuracy) to stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Precyzja (precision) to stosunek liczby prawdziwie pozytywnych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Czułość (recall) to stosunek liczby prawdziwie pozytywnych przykładów do liczby wszystkich pozytywnych przykładów w rzeczywistości. F-score to uniwersalna metryka, która stanowi kompromis pomiędzy precyzją i czułością.
Metryki te są ważne, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów. Warto zauważyć, że każda metryka ma swoje wady i zalety, a wybór metryki zależy od celu, jaki chcemy osiągnąć.
-
czym jest fp i fn w dokladnosci
-
czym jest fp i fn w dokladnosci
FP i FN to skróty od angielskich słów "False Positive" i "False Negative", które oznaczają odpowiednio "fałszywie pozytywny" i "fałszywie negatywny".
W kontekście dokładności (accuracy), FP i FN są liczbami, które są używane do obliczenia dokładności.
- FP (False Positive) to liczba przykładów, które zostały sklasyfikowane jako pozytywne, ale w rzeczywistości są negatywnymi przykładami.
- FN (False Negative) to liczba przykładów, które zostały sklasyfikowane jako negatywne, ale w rzeczywistości są pozytywnymi przykładami.
Dokładność (accuracy) jest obliczana jako stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Warto zauważyć, że FP i FN są również używane do obliczenia innych metryk, takich jak precyzja (precision) i czułość (recall).
Przykładem może być następująca tabela:
Przykład Rzeczywista klasa Klasyfikacja modelu 1 Pozytywny Pozytywny 2 Pozytywny Negatywny 3 Negatywny Pozytywny 4 Negatywny Negatywny W tym przykładzie:
- FP = 1 (przykład 2 został sklasyfikowany jako negatywny, ale w rzeczywistości jest pozytywnym przykładem)
- FN = 1 (przykład 3 został sklasyfikowany jako pozytywny, ale w rzeczywistości jest negatywnym przykładem)
Dokładność (accuracy) w tym przypadku jest obliczana jako:
Dokładność = (Poprawnie sklasyfikowane przykłady) / (Wszystkie przykłady)
= (3) / (4)
= 0,75Warto zauważyć, że FP i FN są ważnymi parametrami w ocenie dokładności modelu, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów.
-
napisz mi więcej o precyzji niz jest w kursie
-
napisz mi więcej o precyzji niz jest w kursie
Precyzja (ang. precision) to miara jakości modelu Uczenia Maszynowego, która określa stosunek liczby poprawnie sklasyfikowanych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Inaczej mówiąc, precyzja to proporcja prawdziwie pozytywnych przykładów do wszystkich przykładów, które zostały sklasyfikowane jako pozytywne.
Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.
W praktyce, precyzja jest obliczana jako:
Precyzja = (Liczba prawdziwie pozytywnych przykładów) / (Liczba przykładów, które zostały sklasyfikowane jako pozytne)
Przykładem może być następująca tabela:
Przykład Rzeczywista klasa Klasyfikacja modelu 1 Pozytywny Pozytywny 2 Pozytywny Pozytywny 3 Negatywny Pozytywny 4 Pozytywny Pozytywny W tym przykładzie:
- Liczba prawdziwie pozytywnych przykładów = 3 (przykłady 1, 2 i 4)
- Liczba przykładów, które zostały sklasyfikowane jako pozytne = 4 (przykłady 1, 2, 3 i 4)
Precyzja w tym przypadku jest obliczana jako:
Precyzja = (3) / (4)
= 0,75Warto zauważyć, że precyzja jest zależna od liczby fałszywie pozytywnych przykładów, które zostały sklasyfikowane jako pozytne. Im mniej fałszywie pozytywnych przykładów, tym wyższa precyzja.
Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.
-
jaki jest wzor na fscorer