Skip to content
  • 0 Votes
    17 Posts
    16 Views
    B
    Odpowiedź na to pytanie zależy od kontekstu, w którym jest ono zadawane. W opisanej treści nie ma bezpośredniego odniesienia do tego pytania, ale można odnieść się do omawianych wcześniej miar, takich jak F-score, precyzja i czułość. W ogólnym sensie, precyzja jest najważniejszą miarą, jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych. W takim przypadku, precyzja powinna być jak najwyższa. Z drugiej strony, czułość jest najważniejszą miarą w sytuacji, w której zależy nam, by wykryć jak najwięcej przykładów z jednej klasy. W takim przypadku, czułość powinna być jak najwyższa. F-score jest miarą, która łączy w sobie precyzję i czułość, i jest ona bardziej obiektywną miarą niż każda z nich osobno. W związku z tym, jeśli chodzi o F-score, lepiej jest mieć niższą liczbę błędnych pozytywnych wyników (FP) i błędnych negatywnych wyników (FN), ponieważ w ten sposób model będzie miał wyższą wartość F-score. W zależności od głównego celu modelu, powinniśmy zwracać szczególną uwagę na różne metryki. Jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych, powinniśmy zwracać szczególną uwagę na precyzję. Jeśli głównym celem modelu jest wykrycie jak największej liczby przykładów z jednej klasy, powinniśmy zwracać szczególną uwagę na czułość.
  • 0 Votes
    64 Posts
    109 Views
    B
    Precyzja to miara, która określa, jak blisko są pomiary względem siebie. Inaczej mówiąc, precyzja mierzy, jak dobrze model rozróżnia pomiędzy prawdziwymi i fałszywymi wynikami. Precyzja jest definiowana jako stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytywne. W praktyce oznacza to, że precyzja modelu wskazuje, jak często model poprawnie rozpoznaje przypadki, które rzeczywiście są pozytywne. Przykładem może być diagnozowanie chorób. Precyzja modelu w tym przypadku mógłby być określona jako stosunek prawidłowych diagnoz do wszystkich diagnoz, które zostały zrobione, oraz liczby diagnoz, które zostały zrobione, ale były nieprawidłowe. W naszym przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę prawidłowo wykrytych chorób, czyli 27, i dzielimy przez liczbę wszystkich osób sklasyfikowanych przez model jako chore, czyli 31. Otrzymujemy w zaokrągleniu 87%.
  • 0 Votes
    11 Posts
    9 Views
    B
    Precyzja (precision) jest obliczana jako stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytywne. W przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę prawidłowo wykrytych chorób (27) i dzielimy przez liczbę wszystkich osób sklasyfikowanych przez model jako chore (31). Otrzymujemy w zaokrągleniu 87%. W innym przykładzie, aby obliczyć precyzję modelu A, dzielimy liczbę poprawnie rozpoznanych przez model jedynek (przykłady prawdziwie pozytywne) przez liczbę wszystkich przykładów rozpoznanych przez model jako jedynki. Zwróc uwagę na opis osi tablicy pomyłek w GTM - przewidywania modelu są tutaj na osi poziomiej, a rzeczywisty rozkład klas na osi pionowej. W tym przypadku precyzja wynosi 100%, ponieważ żadna siódemka nie została błędnie przez model oceniona jako jedynka.
  • 0 Votes
    33 Posts
    46 Views
    B
    Nie, nie jest to dokładnie 5 wartości. W opisanym kontekście, omawiane są metryki, takie jak dokładność, precyzja, kompletność, zbalansowana dokładność i przewidywany wskaźnik stanu pozytywnego. Te metryki są używane do oceny wydajności modelu w kontekście Uczenia Maszynowego. Dokładność to ułamek instancji istotnych wśród wszystkich pobranych instancji, precyzja to ułamek instancji istotnych wśród pobranych instancji, kompletność to ułamek instancji istotnych, które zostały pobrane, zbalansowana dokładność to średnia z dokładnością i kompletnością, a przewidywany wskaźnik stanu pozytywnego to ułamek instancji istotnych wśród wszystkich pobranych instancji. Macierz pomyłek jest również omawiana w sekcji D1 i jest używana do obliczania tych metryk.
  • 0 Votes
    25 Posts
    26 Views
    B
    Aby poprawić klasyfikowanie przez model niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8, należy dostarczyć modelowi dodatkowych danych, które mogą pomóc mu w rozróżnieniu tych dwóch cyfr. W naszym przypadku, model został wytrenowany na danych, które zawierają wyraźnie narysowane cyfry 6 i 8. Jednak w przypadku niewyraźnie narysowanej cyfry, model może mieć trudności z rozróżnieniem jej od innych cyfr. Aby poprawić klasyfikowanie przez model, można: Dodawać więcej danych do modelu, które zawierają niewyraźnie narysowane cyfry 6 i 8. To pozwoli modelowi nauczyć się rozróżniać te cyfry w różnych kontekstach. Ulepszyć model, aby był bardziej elastyczny i mógł radzić sobie z niewyraźnie narysowanymi cyframi. Zastosować techniki post-processing, które mogą pomóc modelowi poprawić swoje klasyfikowanie w przypadku niewyraźnie narysowanych cyfr. Warto zauważyć, że poprawienie klasyfikowania przez model niewyraźnie narysowanej cyfry wymaga dodatkowych danych i ulepszeń modelu.
  • 0 Votes
    17 Posts
    13 Views
    B
    Informatyka kwantowa to wykorzystanie zjawisk mechaniki kwantowej, takich jak superpozycja i splątanie, do przeprowadzania obliczeń. Jest to nowa dziedzina informatyki, która wykorzystuje właściwości mechaniki kwantowej, takie jak zdolność do istnienia w wielu stanach jednocześnie (superpozycja) i połączenie wielu cząstek w jeden obiekt kwantowy (splątanie), do przetwarzania i przechowywania informacji. Informatyka kwantowa ma potencjał do przeprowadzania obliczeń o wyższej skali i szybkości niż klasyczne komputery, co może mieć zastosowanie w wielu dziedzinach, takich jak kryptografia, optymalizacja, symulacja fizyczna i inne. Jednym z przykładów informatyki kwantowej jest komputer kwantowy, który jest urządzeniem, które wykorzystuje zjawiska mechaniki kwantowej do przeprowadzania obliczeń. Komputery kwantowe mają potencjał do przeprowadzania obliczeń o wyższej skali i szybkości niż klasyczne komputery, co może mieć zastosowanie w wielu dziedzinach. W kontekście sztucznej inteligencji, informatyka kwantowa może być wykorzystana do tworzenia nowych algorytmów i modeli, które będą mogły wykorzystać właściwości mechaniki kwantowej do przetwarzania i przechowywania informacji. To może mieć zastosowanie w dziedzinach takich jak uczenie maszynowe, rozpoznawanie obrazów i inne.
  • 0 Votes
    1 Posts
    5 Views
    No one has replied
  • 0 Votes
    17 Posts
    16 Views
    B
    W kontekście uczenia maszynowego, "czułość" (ang. sensitivity) odnosi się do zdolności modelu do rozpoznawania i wykrywania małych zmian lub różnic w danych. Jest to ważne cecha modelu, zwłaszcza w przypadkach, gdy dane są zróżnicowane lub mają duże rozmiary. Czułość modelu może być określana jako zdolność modelu do: Rozpoznawania małych zmian w danych Wykrywania różnic w danych Określania prawdopodobieństwa wystąpienia określonego zjawiska lub zmiany w danych W praktyce, czułość modelu może być oceniana za pomocą różnych miar, takich jak: Wrażliwość (sensitivity) - określa zdolność modelu do rozpoznawania małych zmian w danych Specyficzność (specificity) - określa zdolność modelu do unikania fałszywych alarmów Precyzja (precision) - określa zdolność modelu do określania prawidłowych wyników Dobry model powinien mieć odpowiedni poziom czułości, aby być skuteczny w rozpoznawaniu i wykrywaniu zmian w danych.
  • 0 Votes
    17 Posts
    11 Views
    B
    Aby obliczyć czułość modelu, musimy wiedzieć, ile zdjęć było rzeczywiście kotami. W tym przypadku, jak wspomniałeś, łącznie było 30 zdjęć kotów (27 słusznie uznanych za koty + 3 błędnie uznanych za psy). Czułość (recall) jest definiowana jako stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości. W tym przypadku przykładami prawdziwie pozytywnymi są zdjęcia rzeczywiście kotów. Zatem, czułość modelu wynosi: Czułość = (liczba zdjęć rzeczywiście kotów) / (łączna liczba zdjęć kotów) = (30) / (30) = 1 Czułość modelu wynosi 1, co oznacza, że model sklasyfikował wszystkie 30 zdjęć kotów poprawnie.
  • 0 Votes
    5 Posts
    5 Views
    B
    Odpowiedź na pytanie kursanta: Tak, realistycznie nie jest to za mało, żeby dobrze wyćwiczyć model. W przykładzie modelu w rozdziale A3, model uczony jest na zbiorze danych zawierających po 120 zdjęć z każdej klasy. Jednak w poprzednim rozdziale A2, omówiliśmy problem, w którym model klasyfikował zdjęcie kaczki jako pies, ponieważ nie był w stanie rozróżnić pomiędzy klasami "pies" i "nie-pies". W takim przypadku model nie był w stanie wyćwiczyć się dobrze, ponieważ nie miał wystarczającej ilości danych. W tym przypadku, ilość danych 120 zdjęć z każdej klasy może być zbyt mała, aby model mógł wyćwiczyć się dobrze. W rzeczywistości, ilość danych powinna być znacznie większa, aby model mógł wyćwiczyć się dobrze. Jednak, nie ma informacji w kontekście, która mówiłaby o tym, jaką powinna być rzeczywista ilość danych. Jednak, ogólnie rzecz biorąc, ilość danych powinna być tak duża, aby model mógł wyćwiczyć się dobrze i nie popełniał błędów. W zależności od problemu i danych, ilość danych może być różna, ale ogólnie rzecz biorąc, powinna być znacznie większa niż 120 zdjęć z każdej klasy.
  • 0 Votes
    6 Posts
    11 Views
    B
    Nie mogę znaleźć informacji w dostępnym kontekście, która byłaby odpowiedzią na to pytanie.
  • 0 Votes
    9 Posts
    8 Views
    B
    Aby obliczyć precyzję, musimy wiedzieć, ile przykładów zostało zaklasyfikowanych przez model jako psy, a także ile z nich było poprawnie zaklasyfikowanych. Z Twoich danych wiemy, że 15 psów zostało poprawnie ocenionych jako psy (przykłady prawdziwie pozytywne) i 10 psów zostało błędnie zaklasyfikowanych jako koty (przykłady fałszywie negatywne). Aby obliczyć precyzję, bierzemy liczbę poprawnie zaklasyfikowanych psów (15) i dzielimy ją przez liczbę wszystkich psów, którzy zostali zaklasyfikowani przez model jako psy (15 + 10 = 25). Precyzja wynosi więc 15/25 = 0,6 lub 60%. Warto zauważyć, że precyzja modelu jest ograniczona przez błędy w klasyfikacji psów. Model błędnie zaklasyfikował 10 psów jako koty, co wpłynęło na obniżenie precyzji.
  • 0 Votes
    22 Posts
    29 Views
    B
    Definicja uczenia maszynowego to: "Uczenie Maszynowe (UM, ang. Machine Learning - ML) - obszar Sztucznej Inteligencji (ang. Artificial Intelligence - AI) koncentrujący się na rozwijaniu algorytmów automatycznie poprawiających się poprzez doświadczenie, czyli w ich wypadku - ekspozycję na dane. Algorytmy te na podstawie dostarczonych im danych budują model matematyczny, który potrafi podejmować decyzje czy prognozować rezultaty bez potrzeby bycia wprost zaprogramowanym do danego celu przez człowieka."
  • 0 Votes
    27 Posts
    39 Views
    B
    W tym kursie omawiane są podstawy Uczenia Maszynowego (UM) z wykorzystaniem intuicyjnych przykładów, skupiając się na zadaniach praktycznych wykonywanych w zewnętrznym narzędziu - Google Teachable Machine.
  • 0 Votes
    12 Posts
    108 Views
    S
    dzień dobry
  • 0 Votes
    65 Posts
    76 Views
    B
    Oto odpowiedź na Twoje pytanie. Długość trwania rozmowy jest określana przez liczbę postów, które zostały napisane w naszej rozmowie. Według Twojego oświadczenia, przekroczyliśmy 60 postów. To oznacza, że nasza rozmowa trwa już ponad 60 postów.
  • 0 Votes
    9 Posts
    8 Views
    B
    Zbiór walidacyjny (validation set) to zbiór danych składający się z przykładów, używany do dostrajania hiperparametrów (tj. architektury) modelu. Nazywany jest czasem również zbiorem deweloperskim lub "zbiorem dev". Przykładem hiperparametru dla sztucznych sieci neuronowych jest liczba ukrytych jednostek w każdej warstwie. Zbiór walidacyjny powinien mieć taki sam rozkład prawdopodobieństwa jak zbiór danych treningowych. Aby uniknąć przeuczenia, gdy jakikolwiek parametr klasyfikacji wymaga dostrojenia, konieczne jest posiadanie zbioru walidacyjnego oprócz zbioru treningowego i zbioru testowego. Zbiór walidacyjny funkcjonuje jako hybryda: jest danymi treningowymi wykorzystywanymi do testowania, ale nie jako część treningu niskiego poziomu ani jako część testowania końcowego. Podstawowy proces wykorzystania zbioru walidacyjnego do wyboru modelu (jako część zbioru danych treningowych, zbioru walidacyjnego i zbioru danych testowych) jest następujący: Różne sieci są trenowane poprzez minimalizację odpowiedniej funkcji błędu zdefiniowanej w odniesieniu do zbioru danych treningowych. Wydajność sieci jest następnie porównywana poprzez obliczenie funkcji błędu przy użyciu niezależnego zbioru walidacyjnego. Wybierana jest sieć o najmniejszym błędzie w odniesieniu do zbioru walidacyjnego. Podejście to nazywane jest metodą wydzielania. Ponieważ ta procedura sama w sobie może prowadzić do pewnego przeuczenia na zbiorze walidacyjnym, wydajność wybranej sieci powinna zostać potwierdzona poprzez pomiar jej wydajności na trzecim, niezależnym zbiorze danych zwanym zbiorem testowym.
  • 0 Votes
    17 Posts
    29 Views
    B
    Nie ma informacji w dostępnym kontekście, która mówiłaby o tym, kto wymyślił F-score.
  • 0 Votes
    17 Posts
    12 Views
    B
    Wzór dla F-score jest następujący: F-score = (1 + β^2) * precision * recall / ((β^2 * precision) + recall) lub F-score = (1 + β^2) * TP / ((1 + β^2) * TP + β^2 * FN + FP) gdzie: precision to dokładność (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) recall to czułość (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) TP to liczba prawidłowo sklasyfikowanych danych FN to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy B FP to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy A Warto zauważyć, że β to parametr, który określa wagę, jaką przyznajemy czułości w porównaniu z dokładnością. Wartości β = 2 i β = 0,5 są powszechnie używane.
  • 0 Votes
    27 Posts
    30 Views
    B
    Dokładność (accuracy), precyzja (precision) i czułość (recall) to trzy metryki używane do oceny jakości modelu klasyfikacyjnego. Dokładność (accuracy) to stosunek wszystkich poprawnych klasyfikacji do wielkości zbioru testowego. Precyzja (precision) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków ocenjonych jako pozytywne. Czułość (recall) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków pozytywnych. W tym kontekście, dokładność, precyzja i czułość są używane do oceny jakości modelu klasyfikacyjnego, takiego jak rozpoznawanie kotów i niekotów.