Skip to content
  • 0 Votes
    6 Posts
    11 Views
    B
    Nie mogę znaleźć informacji w dostępnym kontekście, która byłaby odpowiedzią na to pytanie.
  • 0 Votes
    9 Posts
    8 Views
    B
    Aby obliczyć precyzję, musimy wiedzieć, ile przykładów zostało zaklasyfikowanych przez model jako psy, a także ile z nich było poprawnie zaklasyfikowanych. Z Twoich danych wiemy, że 15 psów zostało poprawnie ocenionych jako psy (przykłady prawdziwie pozytywne) i 10 psów zostało błędnie zaklasyfikowanych jako koty (przykłady fałszywie negatywne). Aby obliczyć precyzję, bierzemy liczbę poprawnie zaklasyfikowanych psów (15) i dzielimy ją przez liczbę wszystkich psów, którzy zostali zaklasyfikowani przez model jako psy (15 + 10 = 25). Precyzja wynosi więc 15/25 = 0,6 lub 60%. Warto zauważyć, że precyzja modelu jest ograniczona przez błędy w klasyfikacji psów. Model błędnie zaklasyfikował 10 psów jako koty, co wpłynęło na obniżenie precyzji.
  • 0 Votes
    22 Posts
    29 Views
    B
    Definicja uczenia maszynowego to: "Uczenie Maszynowe (UM, ang. Machine Learning - ML) - obszar Sztucznej Inteligencji (ang. Artificial Intelligence - AI) koncentrujący się na rozwijaniu algorytmów automatycznie poprawiających się poprzez doświadczenie, czyli w ich wypadku - ekspozycję na dane. Algorytmy te na podstawie dostarczonych im danych budują model matematyczny, który potrafi podejmować decyzje czy prognozować rezultaty bez potrzeby bycia wprost zaprogramowanym do danego celu przez człowieka."
  • 0 Votes
    27 Posts
    39 Views
    B
    W tym kursie omawiane są podstawy Uczenia Maszynowego (UM) z wykorzystaniem intuicyjnych przykładów, skupiając się na zadaniach praktycznych wykonywanych w zewnętrznym narzędziu - Google Teachable Machine.
  • 0 Votes
    12 Posts
    108 Views
    S
    dzień dobry
  • 0 Votes
    65 Posts
    76 Views
    B
    Oto odpowiedź na Twoje pytanie. Długość trwania rozmowy jest określana przez liczbę postów, które zostały napisane w naszej rozmowie. Według Twojego oświadczenia, przekroczyliśmy 60 postów. To oznacza, że nasza rozmowa trwa już ponad 60 postów.
  • 0 Votes
    9 Posts
    8 Views
    B
    Zbiór walidacyjny (validation set) to zbiór danych składający się z przykładów, używany do dostrajania hiperparametrów (tj. architektury) modelu. Nazywany jest czasem również zbiorem deweloperskim lub "zbiorem dev". Przykładem hiperparametru dla sztucznych sieci neuronowych jest liczba ukrytych jednostek w każdej warstwie. Zbiór walidacyjny powinien mieć taki sam rozkład prawdopodobieństwa jak zbiór danych treningowych. Aby uniknąć przeuczenia, gdy jakikolwiek parametr klasyfikacji wymaga dostrojenia, konieczne jest posiadanie zbioru walidacyjnego oprócz zbioru treningowego i zbioru testowego. Zbiór walidacyjny funkcjonuje jako hybryda: jest danymi treningowymi wykorzystywanymi do testowania, ale nie jako część treningu niskiego poziomu ani jako część testowania końcowego. Podstawowy proces wykorzystania zbioru walidacyjnego do wyboru modelu (jako część zbioru danych treningowych, zbioru walidacyjnego i zbioru danych testowych) jest następujący: Różne sieci są trenowane poprzez minimalizację odpowiedniej funkcji błędu zdefiniowanej w odniesieniu do zbioru danych treningowych. Wydajność sieci jest następnie porównywana poprzez obliczenie funkcji błędu przy użyciu niezależnego zbioru walidacyjnego. Wybierana jest sieć o najmniejszym błędzie w odniesieniu do zbioru walidacyjnego. Podejście to nazywane jest metodą wydzielania. Ponieważ ta procedura sama w sobie może prowadzić do pewnego przeuczenia na zbiorze walidacyjnym, wydajność wybranej sieci powinna zostać potwierdzona poprzez pomiar jej wydajności na trzecim, niezależnym zbiorze danych zwanym zbiorem testowym.
  • 0 Votes
    17 Posts
    29 Views
    B
    Nie ma informacji w dostępnym kontekście, która mówiłaby o tym, kto wymyślił F-score.
  • 0 Votes
    17 Posts
    12 Views
    B
    Wzór dla F-score jest następujący: F-score = (1 + β^2) * precision * recall / ((β^2 * precision) + recall) lub F-score = (1 + β^2) * TP / ((1 + β^2) * TP + β^2 * FN + FP) gdzie: precision to dokładność (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) recall to czułość (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) TP to liczba prawidłowo sklasyfikowanych danych FN to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy B FP to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy A Warto zauważyć, że β to parametr, który określa wagę, jaką przyznajemy czułości w porównaniu z dokładnością. Wartości β = 2 i β = 0,5 są powszechnie używane.
  • 0 Votes
    27 Posts
    30 Views
    B
    Dokładność (accuracy), precyzja (precision) i czułość (recall) to trzy metryki używane do oceny jakości modelu klasyfikacyjnego. Dokładność (accuracy) to stosunek wszystkich poprawnych klasyfikacji do wielkości zbioru testowego. Precyzja (precision) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków ocenjonych jako pozytywne. Czułość (recall) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków pozytywnych. W tym kontekście, dokładność, precyzja i czułość są używane do oceny jakości modelu klasyfikacyjnego, takiego jak rozpoznawanie kotów i niekotów.
  • 0 Votes
    2 Posts
    10 Views
    E
  • 0 Votes
    40 Posts
    82 Views
    S
    Wiadomość napisana z konta studenta bezpośrednio na forum
  • 0 Votes
    22 Posts
    21 Views
    S
    poprawny wnik to 100/140
  • test

    probny2_9e1d81f7-8aa8-4b67-92ba-4ef933d6e536
    1
    0 Votes
    1 Posts
    2 Views
    No one has replied
  • test

    probny1_ae12200b-21e5-4586-b515-dfa3f3d2e8d1
    1
    0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    17 Posts
    21 Views
    B
    Metryka recall i precision są dwiema ważnymi miarami wydajności modelu klasyfikacyjnego. Różnią się one w sposobie obliczania i interpretacji. Metryka recall (czułość) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model. Jest to ułamek wszystkich prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich prawdziwie pozytywnych przypadków w danych. Im wyższa wartość recall, tym lepszy model jest w wykrywaniu prawdziwie pozytywnych przypadków. Metryka precision (precyzja) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich przypadków, które zostały sklasyfikowane jako pozytywne przez model. Im wyższa wartość precision, tym lepszy model jest w unikaniu fałszywie pozytywnych przypadków. Przykładem może być następująca sytuacja: Model klasyfikacyjny został wytrenowany na rozróżnianiu orłów od kaczek. W danych testowych znajduje się 100 orłów i 100 kaczek. Model klasyfikuje 90 orłów jako orły i 10 kaczek jako orły. Model klasyfikuje 5 orłów jako kaczki i 95 kaczek jako kaczki. W tym przypadku: Recall (czułość) modelu wynosi 90/100 = 0,9, ponieważ model wykrył 90 orłów spośród 100. Precision (precyzja) modelu wynosi 90/95 = 0,95, ponieważ model sklasyfikował 90 orłów jako orły spośród 95 przypadków, które sklasyfikował jako orły. W tym przykładzie model ma wysoką wartość recall, co oznacza, że jest dobry w wykrywaniu orłów. Jednak ma również wysoką wartość precision, co oznacza, że jest dobry w unikaniu fałszywie pozytywnych przypadków (kaczek sklasyfikowanych jako orły).
  • 0 Votes
    7 Posts
    9 Views
    B
    Czułość nie zawsze jest dobrą metryką, ponieważ jest "ślepa" na jedną z klas. Przykładem jest model, który diagnozuje chorobę i zawsze wskazuje, że osoba jest chora. Choć jego czułość wynosi 100%, co oznacza, że poprawnie zdiagnozował wszystkie chore osoby, to jego dokładność wynosi jedynie 50%, co oznacza, że błędnie zaklasyfikował wszystkie zdrowe osoby jako chore.
  • 0 Votes
    25 Posts
    27 Views
    B
    Dokładność jest miarą, która pokazuje, jaki procent wszystkich przykładów został poprawnie sklasyfikowany przez model. Prawda.
  • 0 Votes
    7 Posts
    12 Views
    B
    Średnia harmoniczna to rodzaj średniej, jedna ze średnich pitagorejskich. Jest to najbardziej odpowiednia średnia dla stosunków i wskaźników, takich jak prędkości, i zwykle używana jest tylko dla argumentów dodatnich. Średnia harmoniczna to odwrotność średniej arytmetycznej odwrotności liczb, to znaczy uogólniona średnia f z f(x) = 1/x.
  • 0 Votes
    17 Posts
    14 Views
    B
    Wsad to technika przetwarzania danych, która polega na przetwarzaniu danych w małych porcjach, zamiast jednoczesnego przetwarzania całego zbioru danych. Jest to technika stosowana w przypadku dużych zbiorów danych, które nie pasują do pamięci RAM komputera.