Skip to content
  • 0 Votes
    23 Posts
    22 Views
    B
    Tak, istnieje metryka doskonała dla oceny wytrenowania uczenia maszynowego. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve). AUC-ROC jest miarą dokładności modelu klasyfikacji i wskazuje, jak dobrze model rozróżnia pomiędzy klasami. AUC-ROC jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość AUC-ROC powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Innym przykładem metryki doskonałej jest metryka F1-score, która łączy w sobie dokładność i czułość modelu. F1-score jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość F1-score powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Warto zauważyć, że istnieją inne metryki, takie jak dokładność, czułość, swoistość, współczynnik fałszywie pozytywnych i współczynnik fałszywie negatywnych, które również mogą być używane do oceny wytrenowania uczenia maszynowego.
  • 0 Votes
    21 Posts
    16 Views
    B
    Nie, w tablicy pomyłek nie zawsze będzie skonstruowana tak, że liczba wierszy i kolumn będzie odpowiadała liczbie klas, bez względu na jej wielkość. Jak wspomniano w kontekście, tablica pomyłek to tabela z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych. Rozmiar tablicy pomyłek zależy od liczby klas, ale nie musi być zawsze prostokątny. W przypadku trzech klas, macierz pomyłek będzie miała rozmiar 3x3, ale w przypadku dwóch klas, jak w naszym przykładzie, będzie miała rozmiar 2x2.
  • 0 Votes
    7 Posts
    6 Views
    B
    Tak, istnieją inne metryki, które mogą być stosowane w modelach uczenia maszynowego. W treści opisano cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Dodatkowo, w treści wspomniano, że metryki te są obliczane na podstawie macierzy pomyłek. Nie ma informacji o innych metrykach, które mogłyby być stosowane w modelach uczenia maszynowego. Jednak w treści opisano, że F-score jest uniwersalną metryką, która może być stosowana w sytuacjach, w których potrzebujemy kompromisu między precyzją a czułością modelu.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    37 Posts
    77 Views
    B
    Czułość mikro (ang. micro recall) to miara, która określa, jak dobrze model klasyfikacyjny jest w stanie wykryć wszystkie przykłady danej klasy. Jest to miara, która jest obliczana jako stosunek liczby prawidłowo sklasyfikowanych przykładów danej klasy do liczby wszystkich przykładów danej klasy. W przeciwieństwie do czułości makro (ang. macro recall), która jest obliczana jako średnia harmoniczna czułości dla wszystkich klas, czułość mikro jest obliczana dla każdej klasy osobno. Przykładem użycia czułości mikro może być sytuacja, w której mamy model klasyfikacyjny, który jest używany do przewidywania wyników dla pacjentów z chorobą. W tym przypadku, czułość mikro może być używana do oceny, jak dobrze model jest w stanie wykryć wszystkie przykłady pacjentów z chorobą. Warto zauważyć, że czułość mikro jest często używana w klasyfikacji binarnej, podczas gdy czułość makro jest często używana w klasyfikacji wieloklasowej.
  • 0 Votes
    21 Posts
    16 Views
    B
    Uczenie poprzez wzmacnianie (reinforcement learning) to rodzaj uczenia maszynowego, w którym model uczy się wchodząc w interakcje ze środowiskiem, poprzez system kar i nagród. Przykłady zastosowania uczenia poprzez wzmacnianie to: Uczenie gier komputerowych, takich jak gry wideo lub gry planszowe. Uczenie robotów, aby wykonywały zadania w środowisku fizycznym. Uczenie systemów, aby podejmowały decyzje w sytuacjach niepewnych. Przykładem zastosowania uczenia poprzez wzmacnianie może być uczenie gry wideo, takiej jak gry w Atari. Model uczy się poprzez interakcje z grą, otrzymując nagrody za osiągnięcia i kary za porażki. W ten sposób model uczy się strategii gry i może je wykorzystać do podejmowania decyzji w przyszłości. Wszystkie te przykłady są zgodne z opisem uczenia poprzez wzmacnianie w dostępnym kontekście.
  • 0 Votes
    35 Posts
    47 Views
    B
    W kontekście dostępnym nie ma informacji o pojęciu "swoistości modelu". Jednak, w oparciu o dostępne informacje, można stwierdzić, że niektóre metryki, takie jak dokładność (accuracy), precyzja (precision), czułość (recall) i F-score, mogą być używane do oceny modelu, ale nie ma informacji o pojęciu "swoistości modelu" w tym kontekście.
  • 0 Votes
    29 Posts
    59 Views
    B
    Precyzja to ułamek instancji istotnych wśród pobranych instancji. Zapisane jako wzór: Precyzja = Liczba poprawnie pobranych instancji / Wszystkie pobrane instancje.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    19 Posts
    22 Views
    B
    Odpowiedź na to pytanie jest niejednoznaczna, ponieważ nie ma informacji o tym, jaki wzór jest używany do obliczania accuracy modelu. W kontekście kursu zostało wspomniane, że accuracy jest liczone jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych, ale nie został podany konkretny wzór. Jednak w ogólnych założeniach, wzór na accuracy modelu może być przedstawiony następująco: Accuracy = (liczba poprawnie zaklasyfikowanych przykładów testowych) / (liczba wszystkich przykładów testowych) Przykładowo, jeśli mamy 100 przykładów testowych i model poprawnie zaklasyfikował 88 z nich, accuracy modelu wyniosłaby: Accuracy = 88 / 100 = 0,88 Warto zauważyć, że accuracy jest jedną z najważniejszych metryk oceny modelu, ale nie jest jedyną. Inne metryki, takie jak precyzja, czułość i F-score, również są ważne i powinny być brane pod uwagę wraz z accuracy.
  • 0 Votes
    17 Posts
    16 Views
    B
    Odpowiedź na to pytanie zależy od kontekstu, w którym jest ono zadawane. W opisanej treści nie ma bezpośredniego odniesienia do tego pytania, ale można odnieść się do omawianych wcześniej miar, takich jak F-score, precyzja i czułość. W ogólnym sensie, precyzja jest najważniejszą miarą, jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych. W takim przypadku, precyzja powinna być jak najwyższa. Z drugiej strony, czułość jest najważniejszą miarą w sytuacji, w której zależy nam, by wykryć jak najwięcej przykładów z jednej klasy. W takim przypadku, czułość powinna być jak najwyższa. F-score jest miarą, która łączy w sobie precyzję i czułość, i jest ona bardziej obiektywną miarą niż każda z nich osobno. W związku z tym, jeśli chodzi o F-score, lepiej jest mieć niższą liczbę błędnych pozytywnych wyników (FP) i błędnych negatywnych wyników (FN), ponieważ w ten sposób model będzie miał wyższą wartość F-score. W zależności od głównego celu modelu, powinniśmy zwracać szczególną uwagę na różne metryki. Jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych, powinniśmy zwracać szczególną uwagę na precyzję. Jeśli głównym celem modelu jest wykrycie jak największej liczby przykładów z jednej klasy, powinniśmy zwracać szczególną uwagę na czułość.
  • 0 Votes
    64 Posts
    109 Views
    B
    Precyzja to miara, która określa, jak blisko są pomiary względem siebie. Inaczej mówiąc, precyzja mierzy, jak dobrze model rozróżnia pomiędzy prawdziwymi i fałszywymi wynikami. Precyzja jest definiowana jako stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytywne. W praktyce oznacza to, że precyzja modelu wskazuje, jak często model poprawnie rozpoznaje przypadki, które rzeczywiście są pozytywne. Przykładem może być diagnozowanie chorób. Precyzja modelu w tym przypadku mógłby być określona jako stosunek prawidłowych diagnoz do wszystkich diagnoz, które zostały zrobione, oraz liczby diagnoz, które zostały zrobione, ale były nieprawidłowe. W naszym przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę prawidłowo wykrytych chorób, czyli 27, i dzielimy przez liczbę wszystkich osób sklasyfikowanych przez model jako chore, czyli 31. Otrzymujemy w zaokrągleniu 87%.
  • 0 Votes
    11 Posts
    9 Views
    B
    Precyzja (precision) jest obliczana jako stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytywne. W przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę prawidłowo wykrytych chorób (27) i dzielimy przez liczbę wszystkich osób sklasyfikowanych przez model jako chore (31). Otrzymujemy w zaokrągleniu 87%. W innym przykładzie, aby obliczyć precyzję modelu A, dzielimy liczbę poprawnie rozpoznanych przez model jedynek (przykłady prawdziwie pozytywne) przez liczbę wszystkich przykładów rozpoznanych przez model jako jedynki. Zwróc uwagę na opis osi tablicy pomyłek w GTM - przewidywania modelu są tutaj na osi poziomiej, a rzeczywisty rozkład klas na osi pionowej. W tym przypadku precyzja wynosi 100%, ponieważ żadna siódemka nie została błędnie przez model oceniona jako jedynka.
  • 0 Votes
    33 Posts
    46 Views
    B
    Nie, nie jest to dokładnie 5 wartości. W opisanym kontekście, omawiane są metryki, takie jak dokładność, precyzja, kompletność, zbalansowana dokładność i przewidywany wskaźnik stanu pozytywnego. Te metryki są używane do oceny wydajności modelu w kontekście Uczenia Maszynowego. Dokładność to ułamek instancji istotnych wśród wszystkich pobranych instancji, precyzja to ułamek instancji istotnych wśród pobranych instancji, kompletność to ułamek instancji istotnych, które zostały pobrane, zbalansowana dokładność to średnia z dokładnością i kompletnością, a przewidywany wskaźnik stanu pozytywnego to ułamek instancji istotnych wśród wszystkich pobranych instancji. Macierz pomyłek jest również omawiana w sekcji D1 i jest używana do obliczania tych metryk.
  • 0 Votes
    25 Posts
    26 Views
    B
    Aby poprawić klasyfikowanie przez model niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8, należy dostarczyć modelowi dodatkowych danych, które mogą pomóc mu w rozróżnieniu tych dwóch cyfr. W naszym przypadku, model został wytrenowany na danych, które zawierają wyraźnie narysowane cyfry 6 i 8. Jednak w przypadku niewyraźnie narysowanej cyfry, model może mieć trudności z rozróżnieniem jej od innych cyfr. Aby poprawić klasyfikowanie przez model, można: Dodawać więcej danych do modelu, które zawierają niewyraźnie narysowane cyfry 6 i 8. To pozwoli modelowi nauczyć się rozróżniać te cyfry w różnych kontekstach. Ulepszyć model, aby był bardziej elastyczny i mógł radzić sobie z niewyraźnie narysowanymi cyframi. Zastosować techniki post-processing, które mogą pomóc modelowi poprawić swoje klasyfikowanie w przypadku niewyraźnie narysowanych cyfr. Warto zauważyć, że poprawienie klasyfikowania przez model niewyraźnie narysowanej cyfry wymaga dodatkowych danych i ulepszeń modelu.
  • 0 Votes
    17 Posts
    13 Views
    B
    Informatyka kwantowa to wykorzystanie zjawisk mechaniki kwantowej, takich jak superpozycja i splątanie, do przeprowadzania obliczeń. Jest to nowa dziedzina informatyki, która wykorzystuje właściwości mechaniki kwantowej, takie jak zdolność do istnienia w wielu stanach jednocześnie (superpozycja) i połączenie wielu cząstek w jeden obiekt kwantowy (splątanie), do przetwarzania i przechowywania informacji. Informatyka kwantowa ma potencjał do przeprowadzania obliczeń o wyższej skali i szybkości niż klasyczne komputery, co może mieć zastosowanie w wielu dziedzinach, takich jak kryptografia, optymalizacja, symulacja fizyczna i inne. Jednym z przykładów informatyki kwantowej jest komputer kwantowy, który jest urządzeniem, które wykorzystuje zjawiska mechaniki kwantowej do przeprowadzania obliczeń. Komputery kwantowe mają potencjał do przeprowadzania obliczeń o wyższej skali i szybkości niż klasyczne komputery, co może mieć zastosowanie w wielu dziedzinach. W kontekście sztucznej inteligencji, informatyka kwantowa może być wykorzystana do tworzenia nowych algorytmów i modeli, które będą mogły wykorzystać właściwości mechaniki kwantowej do przetwarzania i przechowywania informacji. To może mieć zastosowanie w dziedzinach takich jak uczenie maszynowe, rozpoznawanie obrazów i inne.
  • 0 Votes
    1 Posts
    5 Views
    No one has replied
  • 0 Votes
    17 Posts
    16 Views
    B
    W kontekście uczenia maszynowego, "czułość" (ang. sensitivity) odnosi się do zdolności modelu do rozpoznawania i wykrywania małych zmian lub różnic w danych. Jest to ważne cecha modelu, zwłaszcza w przypadkach, gdy dane są zróżnicowane lub mają duże rozmiary. Czułość modelu może być określana jako zdolność modelu do: Rozpoznawania małych zmian w danych Wykrywania różnic w danych Określania prawdopodobieństwa wystąpienia określonego zjawiska lub zmiany w danych W praktyce, czułość modelu może być oceniana za pomocą różnych miar, takich jak: Wrażliwość (sensitivity) - określa zdolność modelu do rozpoznawania małych zmian w danych Specyficzność (specificity) - określa zdolność modelu do unikania fałszywych alarmów Precyzja (precision) - określa zdolność modelu do określania prawidłowych wyników Dobry model powinien mieć odpowiedni poziom czułości, aby być skuteczny w rozpoznawaniu i wykrywaniu zmian w danych.
  • 0 Votes
    17 Posts
    11 Views
    B
    Aby obliczyć czułość modelu, musimy wiedzieć, ile zdjęć było rzeczywiście kotami. W tym przypadku, jak wspomniałeś, łącznie było 30 zdjęć kotów (27 słusznie uznanych za koty + 3 błędnie uznanych za psy). Czułość (recall) jest definiowana jako stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości. W tym przypadku przykładami prawdziwie pozytywnymi są zdjęcia rzeczywiście kotów. Zatem, czułość modelu wynosi: Czułość = (liczba zdjęć rzeczywiście kotów) / (łączna liczba zdjęć kotów) = (30) / (30) = 1 Czułość modelu wynosi 1, co oznacza, że model sklasyfikował wszystkie 30 zdjęć kotów poprawnie.
  • 0 Votes
    5 Posts
    5 Views
    B
    Odpowiedź na pytanie kursanta: Tak, realistycznie nie jest to za mało, żeby dobrze wyćwiczyć model. W przykładzie modelu w rozdziale A3, model uczony jest na zbiorze danych zawierających po 120 zdjęć z każdej klasy. Jednak w poprzednim rozdziale A2, omówiliśmy problem, w którym model klasyfikował zdjęcie kaczki jako pies, ponieważ nie był w stanie rozróżnić pomiędzy klasami "pies" i "nie-pies". W takim przypadku model nie był w stanie wyćwiczyć się dobrze, ponieważ nie miał wystarczającej ilości danych. W tym przypadku, ilość danych 120 zdjęć z każdej klasy może być zbyt mała, aby model mógł wyćwiczyć się dobrze. W rzeczywistości, ilość danych powinna być znacznie większa, aby model mógł wyćwiczyć się dobrze. Jednak, nie ma informacji w kontekście, która mówiłaby o tym, jaką powinna być rzeczywista ilość danych. Jednak, ogólnie rzecz biorąc, ilość danych powinna być tak duża, aby model mógł wyćwiczyć się dobrze i nie popełniał błędów. W zależności od problemu i danych, ilość danych może być różna, ale ogólnie rzecz biorąc, powinna być znacznie większa niż 120 zdjęć z każdej klasy.