Skip to content

Wstęp do uczenia maszynowego_2d4990663f722666

Wstęp do uczenia maszynowego

This category can be followed from the open social web via the handle wstęp-do-uczenia-maszynowego_2d4990663f722666@forum.eduexe.com

63 Topics 1.2k Posts
  • conversation_by_ref

    ref 2d4990663f722666 wstęp do uczenia maszynowego
    5
    0 Votes
    5 Posts
    5 Views
    B
    Odpowiedź na pytanie kursanta: Tak, realistycznie nie jest to za mało, żeby dobrze wyćwiczyć model. W przykładzie modelu w rozdziale A3, model uczony jest na zbiorze danych zawierających po 120 zdjęć z każdej klasy. Jednak w poprzednim rozdziale A2, omówiliśmy problem, w którym model klasyfikował zdjęcie kaczki jako pies, ponieważ nie był w stanie rozróżnić pomiędzy klasami "pies" i "nie-pies". W takim przypadku model nie był w stanie wyćwiczyć się dobrze, ponieważ nie miał wystarczającej ilości danych. W tym przypadku, ilość danych 120 zdjęć z każdej klasy może być zbyt mała, aby model mógł wyćwiczyć się dobrze. W rzeczywistości, ilość danych powinna być znacznie większa, aby model mógł wyćwiczyć się dobrze. Jednak, nie ma informacji w kontekście, która mówiłaby o tym, jaką powinna być rzeczywista ilość danych. Jednak, ogólnie rzecz biorąc, ilość danych powinna być tak duża, aby model mógł wyćwiczyć się dobrze i nie popełniał błędów. W zależności od problemu i danych, ilość danych może być różna, ale ogólnie rzecz biorąc, powinna być znacznie większa niż 120 zdjęć z każdej klasy.
  • conversation_by_0uk

    0uk 2d4990663f722666 wstęp do uczenia maszynowego
    6
    0 Votes
    6 Posts
    11 Views
    B
    Nie mogę znaleźć informacji w dostępnym kontekście, która byłaby odpowiedzią na to pytanie.
  • conversation_by_xle

    xle 2d4990663f722666 wstęp do uczenia maszynowego
    9
    0 Votes
    9 Posts
    8 Views
    B
    Aby obliczyć precyzję, musimy wiedzieć, ile przykładów zostało zaklasyfikowanych przez model jako psy, a także ile z nich było poprawnie zaklasyfikowanych. Z Twoich danych wiemy, że 15 psów zostało poprawnie ocenionych jako psy (przykłady prawdziwie pozytywne) i 10 psów zostało błędnie zaklasyfikowanych jako koty (przykłady fałszywie negatywne). Aby obliczyć precyzję, bierzemy liczbę poprawnie zaklasyfikowanych psów (15) i dzielimy ją przez liczbę wszystkich psów, którzy zostali zaklasyfikowani przez model jako psy (15 + 10 = 25). Precyzja wynosi więc 15/25 = 0,6 lub 60%. Warto zauważyć, że precyzja modelu jest ograniczona przez błędy w klasyfikacji psów. Model błędnie zaklasyfikował 10 psów jako koty, co wpłynęło na obniżenie precyzji.
  • conversation_by_hfw

    hfw 2d4990663f722666 wstęp do uczenia maszynowego
    22
    0 Votes
    22 Posts
    29 Views
    B
    Definicja uczenia maszynowego to: "Uczenie Maszynowe (UM, ang. Machine Learning - ML) - obszar Sztucznej Inteligencji (ang. Artificial Intelligence - AI) koncentrujący się na rozwijaniu algorytmów automatycznie poprawiających się poprzez doświadczenie, czyli w ich wypadku - ekspozycję na dane. Algorytmy te na podstawie dostarczonych im danych budują model matematyczny, który potrafi podejmować decyzje czy prognozować rezultaty bez potrzeby bycia wprost zaprogramowanym do danego celu przez człowieka."
  • conversation_by_il4

    il4 2d4990663f722666 wstęp do uczenia maszynowego
    17
    0 Votes
    17 Posts
    29 Views
    B
    Nie ma informacji w dostępnym kontekście, która mówiłaby o tym, kto wymyślił F-score.
  • conversation_by_lxf

    lxf 2d4990663f722666 wstęp do uczenia maszynowego
    17
    0 Votes
    17 Posts
    12 Views
    B
    Wzór dla F-score jest następujący: F-score = (1 + β^2) * precision * recall / ((β^2 * precision) + recall) lub F-score = (1 + β^2) * TP / ((1 + β^2) * TP + β^2 * FN + FP) gdzie: precision to dokładność (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) recall to czułość (miara, która określa, jak dobrze model rozróżnia pomiędzy danymi, które należą do klasy, a danymi, które nie należą do klasy) TP to liczba prawidłowo sklasyfikowanych danych FN to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy B FP to liczba danych, które zostały nieprawidłowo sklasyfikowane jako dane klasy A Warto zauważyć, że β to parametr, który określa wagę, jaką przyznajemy czułości w porównaniu z dokładnością. Wartości β = 2 i β = 0,5 są powszechnie używane.
  • conversation_by_wqn

    wqn 2d4990663f722666 wstęp do uczenia maszynowego
    27
    0 Votes
    27 Posts
    30 Views
    B
    Dokładność (accuracy), precyzja (precision) i czułość (recall) to trzy metryki używane do oceny jakości modelu klasyfikacyjnego. Dokładność (accuracy) to stosunek wszystkich poprawnych klasyfikacji do wielkości zbioru testowego. Precyzja (precision) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków ocenjonych jako pozytywne. Czułość (recall) to stosunek liczby przypadków prawdziwie pozytywnych do liczby wszystkich przypadków pozytywnych. W tym kontekście, dokładność, precyzja i czułość są używane do oceny jakości modelu klasyfikacyjnego, takiego jak rozpoznawanie kotów i niekotów.
  • conversation_by_0pj

    0pj 2d4990663f722666 wstęp do uczenia maszynowego
    2
    0 Votes
    2 Posts
    10 Views
    E
  • conversation_by_b3x

    b3x 2d4990663f722666 wstęp do uczenia maszynowego
    40
    0 Votes
    40 Posts
    82 Views
    S
    Wiadomość napisana z konta studenta bezpośrednio na forum
  • conversation_by_55g

    55g 2d4990663f722666 wstęp do uczenia maszynowego
    22
    0 Votes
    22 Posts
    21 Views
    S
    poprawny wnik to 100/140
  • conversation_by_bds

    bds 2d4990663f722666 wstęp do uczenia maszynowego
    17
    0 Votes
    17 Posts
    21 Views
    B
    Metryka recall i precision są dwiema ważnymi miarami wydajności modelu klasyfikacyjnego. Różnią się one w sposobie obliczania i interpretacji. Metryka recall (czułość) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model. Jest to ułamek wszystkich prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich prawdziwie pozytywnych przypadków w danych. Im wyższa wartość recall, tym lepszy model jest w wykrywaniu prawdziwie pozytywnych przypadków. Metryka precision (precyzja) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich przypadków, które zostały sklasyfikowane jako pozytywne przez model. Im wyższa wartość precision, tym lepszy model jest w unikaniu fałszywie pozytywnych przypadków. Przykładem może być następująca sytuacja: Model klasyfikacyjny został wytrenowany na rozróżnianiu orłów od kaczek. W danych testowych znajduje się 100 orłów i 100 kaczek. Model klasyfikuje 90 orłów jako orły i 10 kaczek jako orły. Model klasyfikuje 5 orłów jako kaczki i 95 kaczek jako kaczki. W tym przypadku: Recall (czułość) modelu wynosi 90/100 = 0,9, ponieważ model wykrył 90 orłów spośród 100. Precision (precyzja) modelu wynosi 90/95 = 0,95, ponieważ model sklasyfikował 90 orłów jako orły spośród 95 przypadków, które sklasyfikował jako orły. W tym przykładzie model ma wysoką wartość recall, co oznacza, że jest dobry w wykrywaniu orłów. Jednak ma również wysoką wartość precision, co oznacza, że jest dobry w unikaniu fałszywie pozytywnych przypadków (kaczek sklasyfikowanych jako orły).
  • conversation_by_t7b

    t7b 2d4990663f722666 wstęp do uczenia maszynowego
    7
    0 Votes
    7 Posts
    9 Views
    B
    Czułość nie zawsze jest dobrą metryką, ponieważ jest "ślepa" na jedną z klas. Przykładem jest model, który diagnozuje chorobę i zawsze wskazuje, że osoba jest chora. Choć jego czułość wynosi 100%, co oznacza, że poprawnie zdiagnozował wszystkie chore osoby, to jego dokładność wynosi jedynie 50%, co oznacza, że błędnie zaklasyfikował wszystkie zdrowe osoby jako chore.
  • conversation_by_jq2

    jq2 2d4990663f722666 wstęp do uczenia maszynowego
    25
    0 Votes
    25 Posts
    27 Views
    B
    Dokładność jest miarą, która pokazuje, jaki procent wszystkich przykładów został poprawnie sklasyfikowany przez model. Prawda.
  • conversation_by_zyn

    zyn 2d4990663f722666 wstęp do uczenia maszynowego
    7
    0 Votes
    7 Posts
    12 Views
    B
    Średnia harmoniczna to rodzaj średniej, jedna ze średnich pitagorejskich. Jest to najbardziej odpowiednia średnia dla stosunków i wskaźników, takich jak prędkości, i zwykle używana jest tylko dla argumentów dodatnich. Średnia harmoniczna to odwrotność średniej arytmetycznej odwrotności liczb, to znaczy uogólniona średnia f z f(x) = 1/x.
  • conversation_by_fa5

    fa5 2d4990663f722666 wstęp do uczenia maszynowego
    17
    0 Votes
    17 Posts
    14 Views
    B
    Wsad to technika przetwarzania danych, która polega na przetwarzaniu danych w małych porcjach, zamiast jednoczesnego przetwarzania całego zbioru danych. Jest to technika stosowana w przypadku dużych zbiorów danych, które nie pasują do pamięci RAM komputera.
  • conversation_by_uex

    uex 2d4990663f722666 wstęp do uczenia maszynowego
    22
    0 Votes
    22 Posts
    23 Views
    S
    jaki jest wzor na fscorer
  • conversation_by_cb7

    cb7 2d4990663f722666 wstęp do uczenia maszynowego
    17
    0 Votes
    17 Posts
    17 Views
    B
    W przypadku przykładów z psami i kotami, najbardziej kluczową metryką oceny jest czułość (recall). Czułość mierzy ilość prawdziwie pozytywnych przypadków (np. psów lub kotów) wykrytych przez model w stosunku do ogólnej liczby prawdziwie pozytywnych przypadków. W przypadku systemu rozpoznającego psy i koty, czułość jest najważniejsza, ponieważ chcemy, aby model wykrywał jak najwięcej prawdziwie pozytywnych przypadków (np. psów lub kotów), nawet jeśli to oznacza, że model popełnia błędy fałszywie pozytywne (np. wykrywa koty, które nie są rzeczywiście obecne). Przykładem może być system wykrywający psy w zdjęciach. Jeśli system ma 95% czułości, to oznacza, że prawie zawsze wykrywa psy w zdjęciach, ale może popełniać błędy fałszywie pozytywne (np. wykrywa koty, które nie są rzeczywiście obecne). Warto zauważyć, że w przypadku systemów rozpoznających psy i koty, precyzja (precision) również jest ważna, ponieważ chcemy uniknąć błędów fałszywie pozytywnych. Jednak w przypadku systemów, które mają za zadanie wykryć jak najwięcej prawdziwie pozytywnych przypadków, czułość jest najważniejsza.
  • conversation_by_pdb

    pdb 2d4990663f722666 wstęp do uczenia maszynowego
    25
    0 Votes
    25 Posts
    26 Views
    B
    Metryki są miarą jakości modelu Uczenia Maszynowego, która umożliwia porównywanie modeli między sobą. W kontekście, którym dyskutujemy, metryki są obliczane na podstawie macierzy pomyłek. W materiałach jest mowa o czterech głównych metrykach: Dokładność (accuracy) - to często metryka domyślna, która określa, jak często model poprawnie klasyfikuje przykłady. Precyzja (precision) - to metryka, która określa, jak często model poprawnie klasyfikuje przykłady z jednej klasy. Czułość (recall) - to metryka, która określa, jak często model poprawnie klasyfikuje przykłady z jednej klasy, nawet jeśli są one rzadkie. F-score - to uniwersalna metryka, która łączy precyzję i czułość modelu. Metryki te są ważne, ponieważ pozwalają ocenić jakość modelu i porównywać go z innymi modelami. Warto zwrócić uwagę, że każda metryka ma swoje wady i zalety, i zależy od celu, jaki chcemy osiągnąć.
  • conversation_by_xyy

    xyy 2d4990663f722666 wstęp do uczenia maszynowego
    5
    0 Votes
    5 Posts
    9 Views
    B
    W oparciu o dostępne informacje, nie ma określonej proporcji podziału zbioru uczącego i testowego. W jednym z fragmentów tekstu, opisującym Google Teachable Machine, podano, że dane są automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15. Jednak w innym fragmencie tekstu podano, że istnieją inne proporcje, takie jak 20:80 lub 10:90, a nawet mniejsze proporcje przy bardzo dużych zbiorach danych.
  • conversation_by_gj4

    gj4 2d4990663f722666 wstęp do uczenia maszynowego
    23
    0 Votes
    23 Posts
    44 Views
    B
    Tak, to prawidłowa definicja F-score. F-score to średnia harmoniczna precyzji i czułości, która jest obliczana według następującego wzoru: F-score = 2precyzjarecall/(precyzja + recall) To samo zostało opisane w tekście jako: F1 = 2precisionrecall/(precision + recall) lub F1 = 2TP/(2TP + FP + FN) gdzie TP to liczba prawdziwych pozytywnych, FP to liczba fałszywych pozytywnych, a FN to liczba fałszywych negatywnych.