Skip to content
  • 0 Votes
    20 Posts
    17 Views
    B
    Odpowiedź na to pytanie jest zawarta w kontekście. W opisie F-score w Google Teachable Machine, jest napisane: "F-score stanowi pewien kompromis pomiędzy precyzją (precision) i czułością (recall), można więc powiedzieć, że ocenia model bardziej obiektywnie niż każda z tych dwóch metryk z osobna." Oznacza to, że F-score jest miarą ogólną dla całego modelu, a nie dla każdej klasy oddzielnie. F-score łączy w sobie precyzję i czułość, aby ocenić ogólną wydajność modelu. Przykładowo, jeśli mamy dwie klasy: A i B, i model ma F-score 80%, oznacza to, że ogólna wydajność modelu jest na poziomie 80%, a nie że F-score jest różny dla każdej klasy.
  • 0 Votes
    15 Posts
    10 Views
    B
    Odpowiedź na to pytanie jest możliwa, ponieważ w kontekście znajduje się informacja o chatbotach. Chatbot to program komputerowy lub sztuczna inteligencja, która prowadzi konwersację za pomocą metod słuchowych lub tekstowych. Czasami termin "chatbot" jest używany w odniesieniu do wirtualnych asystentów ogólnie lub konkretnie do tych, do których dostęp uzyskuje się za pośrednictwem czatu online (lub w niektórych przypadkach programów czatu online, które służą wyłącznie celom rozrywkowym).
  • 0 Votes
    27 Posts
    46 Views
    B
    Czułość to miara zdolności modelu do rozpoznawania przykładów należących do klasy pozytywnej. Jest to miara, która określa, jak dobrze model rozpoznaje przykłady, które rzeczywiście należą do klasy pozytywnej. Czułość jest obliczana jako stosunek liczby przykładów, które zostały prawidłowo rozpoznane jako pozytywne (TP), do liczby wszystkich przykładów, które rzeczywiście należą do klasy pozytywnej (TP + FN). Na przykład, jeśli model rozpoznał 80 przykładów jako pozytywne i 20 z nich było poprawnie rozpoznanych, a w rzeczywistości 90 przykładów należało do klasy pozytywnej, to czułość modelu wynosi 80/90 = 0,89 lub 89%. Czułość jest ważnym wskaźnikiem jakości modelu, ale powinna być używana wraz z innymi wskaźnikami, takimi jak precyzja i F-score, aby uzyskać pełniejszą ocenę jakości modelu.
  • 0 Votes
    19 Posts
    28 Views
    B
    Nierówny rozmiar klas w zbiorze uczącym może być spowodowany przez różne czynniki, takie jak: Rzadkość występowania jednej z klas w danych, np. choroba, o której mowa w przykładzie z chorobą i zdrowiem. Nieprawidłowe podziałanie danych na klasy, np. gdy jeden zbiór danych zawiera więcej przykładów jednej klasy niż innych. W przykładzie z chorobą i zdrowiem, mamy tylko jednego chorego na 99 zdrowych, co powoduje, że klasa choroby jest znacznie mniejsza niż klasa zdrowia.
  • 0 Votes
    25 Posts
    43 Views
    B
    Wzór na dokładność to: Dokładność = (poprawne klasyfikacje) / (wszystkie klasyfikacje) lub w inny sposób: Dokładność = (suma przykładów osób chorych ocenionych jako chore i osób zdrowych ocenionych jako zdrowe) / (suma wszystkich przykładów testowych) Przykładem może być tabela poniżej: Prawdziwie pozytywne Prawdziwie negatywne Suma Prawdziwie pozytywne 80 20 100 Prawdziwie negatywne 10 90 100 Suma 90 110 200 W tym przykładzie dokładność wynosi 90/200 = 0,45.
  • 0 Votes
    17 Posts
    10 Views
    B
    Współczesnym przykładem zastosowania uczenia przez wzmacnianie jest systemy gier wideo, które wykorzystują uczenie przez wzmacnianie do uczenia się strategii gry i podejmowania decyzji w czasie rzeczywistym. Przykładem takiego systemu jest AlphaGo, który wygrał z mistrzem świata w go w 2016 roku. AlphaGo wykorzystał uczenie przez wzmacnianie do uczenia się strategii gry w go i podejmowania decyzji w czasie rzeczywistym, co pozwoliło mu wygrać z mistrzem świata.
  • 0 Votes
    37 Posts
    55 Views
    B
    Nie mogę odpowiedzieć na to pytanie, ponieważ nie zawiera ono żadnego związku z tematyką kursu.
  • 0 Votes
    21 Posts
    19 Views
    B
    Precyzja i czułość są dwiema ważnymi metrykami, które są używane do oceny jakości modelu Uczenia Maszynowego. Precyzja (ang. precision) to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek przewidzianych jako pozytywne, w tym tych nieprawidłowo zidentyfikowanych. Inaczej mówiąc, precyzja to stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych jako pozytywne. Czułość (ang. recall) to liczba wyników prawdziwie pozytywnych podzielona przez liczbę wszystkich próbek, które powinny były zostać zidentyfikowane jako pozytne. Inaczej mówiąc, czułość to stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków, które powinny były zostać zidentyfikowane jako pozytne. Oznacza to, że precyzja mierzy, jak dobrze model jest w stanie uniknąć fałszywych alarmów, podczas gdy czułość mierzy, jak dobrze model jest w stanie wykryć wszystkie przypadki pozytywne. Przykładem może być sytuacja, w której model jest używany do diagnozowania choroby. Precyzja w tym przypadku mierzy, jak dobrze model jest w stanie uniknąć diagnozowania zdrowych osób jako chorych, podczas gdy czułość mierzy, jak dobrze model jest w stanie wykryć wszystkie przypadki choroby. W związku z tym, precyzja i czułość są dwiema różnymi metrykami, które mają różne cele. Precyzja jest ważniejsza, gdy klasa pozytywna jest rzadka, a czułość jest ważniejsza, gdy klasa pozytywna jest częsta.
  • 0 Votes
    25 Posts
    26 Views
    B
    Strata (loss) w modelach nie zmienia się liniowo z każdą kolejną epoką, ponieważ jest to wynik interakcji między modelami a danymi. W każdej kolejnej epoce model koryguje swoje wyniki w oparciu o dane, ale zmiana straty nie jest liniowa ze względu na fakt, że model może się nadmiernie dostosowywać do danych szkoleniowych. W przykładzie z kursu, model wciąż widział w granicznym przypadku bardziej psa niż kota, ponieważ w danych uczących umieściliśmy tylko pięć nietypowych podobizn kota - zbyt mało w porównaniu do 200 typowych kotów i 200 typowych psów. W takim przypadku, model może się nadmiernie dostosowywać do danych szkoleniowych, co prowadzi do zmiany straty w sposób nieliniowy. Dodatkowo, zmiana straty może być również wpływana przez różne czynniki, takie jak współczynnik uczenia (learning rate), liczba epok, a także sama struktura modelu. Wszystkie te czynniki mogą wpływać na sposób, w jaki model koryguje swoje wyniki w czasie treningu, co prowadzi do zmiany straty w sposób nieliniowy. Warto zauważyć, że zmiana straty w modelach jest zależna od wielu czynników, a nie tylko od liczby epok. W związku z tym, nie można przewidzieć, jak zmieni się strata w każdej kolejnej epoce, a jedynie można obserwować, jak zmienia się strata w czasie treningu.
  • 0 Votes
    15 Posts
    22 Views
    B
    Aby stworzyć model Uczenia Maszynowego, który przewiduje cenę za metr kwadratowy mieszkania na podstawie odległości od centrum miasta, wielkości mieszkania, odległości od przedszkola/szkoły i liczby pokojów w mieszkaniu, musimy zdefiniować problem jako zadanie klasyfikacji. Zadanie klasyfikacji polega na przypisaniu danego obiektu do jednej z określonych klas. W tym przypadku klasami będą różne ceny za metr kwadratowy mieszkania. Aby stworzyć model, musimy: Zbierać dane wejściowe, takie jak: odległość od centrum miasta wielkość mieszkania (w metrach kwadratowych) odległość od przedszkola/szkoły liczba pokojów w mieszkaniu Zdefiniować klasę cen za metr kwadratowy mieszkania (np. 0-1000, 1001-2000, 2001-3000 itd.) Trening modelu za pomocą danych wejściowych i klas cen Używać modelu do przewidywania ceny za metr kwadratowy mieszkania na podstawie danych wejściowych W kontekście dostarczonych informacji, nie ma informacji o tym, jak powinien być zdefiniowany model, czy jakie algorytmy uczenia maszynowego powinny być użyte. Jednak ogólna struktura procesu jest opisana powyżej.
  • 0 Votes
    23 Posts
    22 Views
    B
    Tak, istnieje metryka doskonała dla oceny wytrenowania uczenia maszynowego. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve). AUC-ROC jest miarą dokładności modelu klasyfikacji i wskazuje, jak dobrze model rozróżnia pomiędzy klasami. AUC-ROC jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość AUC-ROC powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Innym przykładem metryki doskonałej jest metryka F1-score, która łączy w sobie dokładność i czułość modelu. F1-score jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość F1-score powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Warto zauważyć, że istnieją inne metryki, takie jak dokładność, czułość, swoistość, współczynnik fałszywie pozytywnych i współczynnik fałszywie negatywnych, które również mogą być używane do oceny wytrenowania uczenia maszynowego.
  • 0 Votes
    21 Posts
    16 Views
    B
    Nie, w tablicy pomyłek nie zawsze będzie skonstruowana tak, że liczba wierszy i kolumn będzie odpowiadała liczbie klas, bez względu na jej wielkość. Jak wspomniano w kontekście, tablica pomyłek to tabela z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych. Rozmiar tablicy pomyłek zależy od liczby klas, ale nie musi być zawsze prostokątny. W przypadku trzech klas, macierz pomyłek będzie miała rozmiar 3x3, ale w przypadku dwóch klas, jak w naszym przykładzie, będzie miała rozmiar 2x2.
  • 0 Votes
    7 Posts
    6 Views
    B
    Tak, istnieją inne metryki, które mogą być stosowane w modelach uczenia maszynowego. W treści opisano cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Dodatkowo, w treści wspomniano, że metryki te są obliczane na podstawie macierzy pomyłek. Nie ma informacji o innych metrykach, które mogłyby być stosowane w modelach uczenia maszynowego. Jednak w treści opisano, że F-score jest uniwersalną metryką, która może być stosowana w sytuacjach, w których potrzebujemy kompromisu między precyzją a czułością modelu.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    37 Posts
    77 Views
    B
    Czułość mikro (ang. micro recall) to miara, która określa, jak dobrze model klasyfikacyjny jest w stanie wykryć wszystkie przykłady danej klasy. Jest to miara, która jest obliczana jako stosunek liczby prawidłowo sklasyfikowanych przykładów danej klasy do liczby wszystkich przykładów danej klasy. W przeciwieństwie do czułości makro (ang. macro recall), która jest obliczana jako średnia harmoniczna czułości dla wszystkich klas, czułość mikro jest obliczana dla każdej klasy osobno. Przykładem użycia czułości mikro może być sytuacja, w której mamy model klasyfikacyjny, który jest używany do przewidywania wyników dla pacjentów z chorobą. W tym przypadku, czułość mikro może być używana do oceny, jak dobrze model jest w stanie wykryć wszystkie przykłady pacjentów z chorobą. Warto zauważyć, że czułość mikro jest często używana w klasyfikacji binarnej, podczas gdy czułość makro jest często używana w klasyfikacji wieloklasowej.
  • 0 Votes
    21 Posts
    16 Views
    B
    Uczenie poprzez wzmacnianie (reinforcement learning) to rodzaj uczenia maszynowego, w którym model uczy się wchodząc w interakcje ze środowiskiem, poprzez system kar i nagród. Przykłady zastosowania uczenia poprzez wzmacnianie to: Uczenie gier komputerowych, takich jak gry wideo lub gry planszowe. Uczenie robotów, aby wykonywały zadania w środowisku fizycznym. Uczenie systemów, aby podejmowały decyzje w sytuacjach niepewnych. Przykładem zastosowania uczenia poprzez wzmacnianie może być uczenie gry wideo, takiej jak gry w Atari. Model uczy się poprzez interakcje z grą, otrzymując nagrody za osiągnięcia i kary za porażki. W ten sposób model uczy się strategii gry i może je wykorzystać do podejmowania decyzji w przyszłości. Wszystkie te przykłady są zgodne z opisem uczenia poprzez wzmacnianie w dostępnym kontekście.
  • 0 Votes
    35 Posts
    47 Views
    B
    W kontekście dostępnym nie ma informacji o pojęciu "swoistości modelu". Jednak, w oparciu o dostępne informacje, można stwierdzić, że niektóre metryki, takie jak dokładność (accuracy), precyzja (precision), czułość (recall) i F-score, mogą być używane do oceny modelu, ale nie ma informacji o pojęciu "swoistości modelu" w tym kontekście.
  • 0 Votes
    29 Posts
    59 Views
    B
    Precyzja to ułamek instancji istotnych wśród pobranych instancji. Zapisane jako wzór: Precyzja = Liczba poprawnie pobranych instancji / Wszystkie pobrane instancje.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    19 Posts
    22 Views
    B
    Odpowiedź na to pytanie jest niejednoznaczna, ponieważ nie ma informacji o tym, jaki wzór jest używany do obliczania accuracy modelu. W kontekście kursu zostało wspomniane, że accuracy jest liczone jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych, ale nie został podany konkretny wzór. Jednak w ogólnych założeniach, wzór na accuracy modelu może być przedstawiony następująco: Accuracy = (liczba poprawnie zaklasyfikowanych przykładów testowych) / (liczba wszystkich przykładów testowych) Przykładowo, jeśli mamy 100 przykładów testowych i model poprawnie zaklasyfikował 88 z nich, accuracy modelu wyniosłaby: Accuracy = 88 / 100 = 0,88 Warto zauważyć, że accuracy jest jedną z najważniejszych metryk oceny modelu, ale nie jest jedyną. Inne metryki, takie jak precyzja, czułość i F-score, również są ważne i powinny być brane pod uwagę wraz z accuracy.