Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_bds

conversation_by_bds

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
bds2d4990663f722666wstęp do uczenia maszynowego
17 Posts 3 Posters 21 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_bds
    wrote on last edited by
    #8

    Jak można naprawić problem z błędnie klasyfikowanym przypadkiem granicznym pomiędzy dwiema klasami?

    B 1 Reply Last reply
    0
    • S student_bds

      Jak można naprawić problem z błędnie klasyfikowanym przypadkiem granicznym pomiędzy dwiema klasami?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #9

      Aby naprawić problem z błędnie klasyfikowanym przypadkiem granicznym pomiędzy dwiema klasami, można zastosować jedną z dwóch metod:

      1. Stworzenie klasy pośredniej: w tym przypadku można stworzyć klasę pośrednią, np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.
      2. Dodanie dodatkowych danych: jeśli dysponujemy dodatkowymi danymi łącznie z ich prawidłową, jednoznaczną identyfikacją, możemy poszukać w nich więcej podobnych przypadków granicznych i dodać je do prawidłowych dla nich klas.

      W obu przypadkach ważne jest, aby mieć wystarczająco dużo danych, aby model mógł się nauczyć rozróżniać przypadki graniczne od innych przypadków.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_bds
        wrote on last edited by
        #10

        jaka powinna być proporcja danych testowych do danych uczących dla optymalnego modelu?

        B 1 Reply Last reply
        0
        • S student_bds

          jaka powinna być proporcja danych testowych do danych uczących dla optymalnego modelu?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #11

          Odpowiedź na to pytanie jest zawarta w kontekście "Training, validation, and test data sets - Introduction". W tym kontekście jest napisane, że "zbiór uczący powinien być znacząco większy od zbioru testowego" i że "zbiór testowy musi być jakościowo reprezentatywny dla całości danych".

          Jednak w kontekście "Data analysis - Quality of data" jest również napisane, że "w Google Teachable Machine, dane są zawsze automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15".

          Dlatego odpowiedź na to pytanie jest następująca:

          Proporcja danych testowych do danych uczących dla optymalnego modelu powinna być tak, aby zbiór uczący był znacząco większy od zbioru testowego, a zbiór testowy był jakościowo reprezentatywny dla całości danych. W Google Teachable Machine, proporcja 85:15 jest automatycznie stosowana, ale nie oznacza to, że jest to jedyny słusznym wybór.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_bds
            wrote on last edited by
            #12

            jeżeli mam 400 przykładowych obrazów i wielkość wsadu równa 32 to z ilu wsadów będzie składać się epoka

            B 1 Reply Last reply
            0
            • S student_bds

              jeżeli mam 400 przykładowych obrazów i wielkość wsadu równa 32 to z ilu wsadów będzie składać się epoka

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #13

              Aby odpowiedzieć na to pytanie, musimy wiedzieć, ile przykładów jest w jednym wsadzie. W opisanym kontekście, wielkość wsadu jest równa 32, ale nie wiemy, ile przykładów jest w jednym wsadzie.

              Jednak w innym miejscu opisanego kontekstu, jest napisane, że "cały zbiór uczący składa się ze 170 przykładów" i że "domyślnie mamy ustaloną wielkość wsadu na 16". Z tego możemy wywnioskować, że w jednym wsadzie jest 16 przykładów.

              Jeśli wielkość wsadu jest równa 32, to w jednym wsadzie jest 32 przykłady. Aby znaleźć liczbę wsadów w epoce, możemy podzielić liczbę przykładów w zbiór uczący przez liczbę przykładów w jednym wsadzie:

              400 przykładów / 32 przykłady na wsad = 12,5 wsadów

              Ponieważ nie możemy mieć połówki wsadu, to musimy zaokrąglić liczbę wsadów do najbliższej liczby całkowitej. W tym przypadku, zaokrąglenie do najbliższej liczby całkowitej daje nam 13 wsadów.

              Dlatego odpowiedź na to pytanie jest następująca:

              Jeśli mam 400 przykładów i wielkość wsadu równa 32, to z 13 wsadów będzie składać się epoka.

              1 Reply Last reply
              -1
              • S Offline
                S Offline
                student_bds
                wrote on last edited by
                #14

                Czy w macierzy pomyłek są pokazywane tylko przykłady testowe?

                B 1 Reply Last reply
                0
                • S student_bds

                  Czy w macierzy pomyłek są pokazywane tylko przykłady testowe?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #15

                  Nie, w macierzy pomyłek nie są pokazywane tylko przykłady testowe. Macierz pomyłek pokazuje wszystkie przykłady, zarówno te, które zostały poprawnie sklasyfikowane, jak i te, które zostały błędnie sklasyfikowane.

                  W opisanym kontekście, macierz pomyłek jest opisana jako "tablica pomyłek", która ma kluczowe znaczenie dla oceny modeli i umożliwia porównywanie modeli między sobą. Nie ma wzmianki o tym, żeby macierz pomyłek pokazywała tylko przykłady testowe.

                  Dodatkowo, w innym miejscu opisanego kontekstu, jest napisane, że "czułość (ang. recall) mówi nam, jaki procent wszystkich pozytywnych przypadków wykrywa model". To sugeruje, że macierz pomyłek zawiera wszystkie przykłady, zarówno te, które zostały poprawnie sklasyfikowane, jak i te, które zostały błędnie sklasyfikowane.

                  1 Reply Last reply
                  -1
                  • S Offline
                    S Offline
                    student_bds
                    wrote on last edited by
                    #16

                    czym różni sie metryka recall od precision?

                    B 1 Reply Last reply
                    0
                    • S student_bds

                      czym różni sie metryka recall od precision?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #17

                      Metryka recall i precision są dwiema ważnymi miarami wydajności modelu klasyfikacyjnego. Różnią się one w sposobie obliczania i interpretacji.

                      Metryka recall (czułość) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model. Jest to ułamek wszystkich prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich prawdziwie pozytywnych przypadków w danych. Im wyższa wartość recall, tym lepszy model jest w wykrywaniu prawdziwie pozytywnych przypadków.

                      Metryka precision (precyzja) mierzy ilość prawdziwie pozytywnych przypadków, które zostały wykryte przez model, w stosunku do wszystkich przypadków, które zostały sklasyfikowane jako pozytywne przez model. Im wyższa wartość precision, tym lepszy model jest w unikaniu fałszywie pozytywnych przypadków.

                      Przykładem może być następująca sytuacja:

                      • Model klasyfikacyjny został wytrenowany na rozróżnianiu orłów od kaczek.
                      • W danych testowych znajduje się 100 orłów i 100 kaczek.
                      • Model klasyfikuje 90 orłów jako orły i 10 kaczek jako orły.
                      • Model klasyfikuje 5 orłów jako kaczki i 95 kaczek jako kaczki.

                      W tym przypadku:

                      • Recall (czułość) modelu wynosi 90/100 = 0,9, ponieważ model wykrył 90 orłów spośród 100.
                      • Precision (precyzja) modelu wynosi 90/95 = 0,95, ponieważ model sklasyfikował 90 orłów jako orły spośród 95 przypadków, które sklasyfikował jako orły.

                      W tym przykładzie model ma wysoką wartość recall, co oznacza, że jest dobry w wykrywaniu orłów. Jednak ma również wysoką wartość precision, co oznacza, że jest dobry w unikaniu fałszywie pozytywnych przypadków (kaczek sklasyfikowanych jako orły).

                      1 Reply Last reply
                      1
                      Reply
                      • Reply as topic
                      Log in to reply
                      • Oldest to Newest
                      • Newest to Oldest
                      • Most Votes


                      • Login

                      • Don't have an account? Register

                      Powered by NodeBB Contributors
                      • First post
                        Last post
                      0
                      • Categories
                      • Recent
                      • Tags
                      • Popular
                      • World
                      • Users
                      • Groups