Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_dub

conversation_by_dub

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
dub2d4990663f722666wstęp do uczenia maszynowego
27 Posts 3 Posters 46 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_905_dub
    wrote on last edited by
    #18

    jak czytać tablicę pomyłek?

    B 1 Reply Last reply
    0
    • S student_905_dub

      jak czytać tablicę pomyłek?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #19

      Tablica pomyłek, również nazywana macierzą pomyłek, jest tabelą z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych.

      Aby czytać tablicę pomyłek, należy zrozumieć, co oznaczają poszczególne pola w tabeli:

      • Prawdziwie pozytywne (TP): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako pozytywne.
      • Fałszywie negatywne (FN): Liczba przykładów, które zostały błędnie sklasyfikowane jako negatywne, pomimo tego, że są pozytywne.
      • Fałszywie pozytywne (FP): Liczba przykładów, które zostały błędnie sklasyfikowane jako pozytywne, pomimo tego, że są negatywne.
      • Prawdziwie negatywne (TN): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako negatywne.

      Na przykład, jeśli w tabeli pomyłek mamy następujące dane:

      Pozytywne Negatywne
      Prawdziwe 80 20
      Błędne 10 90

      Oznacza to, że:

      • 80 przykładów zostało prawidłowo sklasyfikowanych jako pozytywne (TP).
      • 20 przykładów zostało prawidłowo sklasyfikowanych jako negatywne (TN).
      • 10 przykładów zostało błędnie sklasyfikowanych jako pozytywne (FP).
      • 90 przykładów zostało błędnie sklasyfikowanych jako negatywne (FN).

      Ta tabela pomyłek pozwala na ocenę jakości modelu i jego zdolności do klasyfikacji przykładów.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_905_dub
        wrote on last edited by
        #20

        co mówi nam wykres straty na epokę?

        B 1 Reply Last reply
        0
        • S student_905_dub

          co mówi nam wykres straty na epokę?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #21

          Wykres straty na epokę pokazuje zmianę wartości funkcji straty wraz z postępem uczenia się modelu. W opisanej w kontekście demonstracji, wykres ten jest przedstawiony w Google Teachable Machine, w sekcji "Dla zaawansowanych". Na wykresie zaznaczono dwie linie - niebieską dla zbioru uczącego i pomarańczową dla zbioru testowego.

          Wykres straty na epokę może nam powiedzieć, czy model się uczy, czy nie. Jeśli wartość funkcji straty maleje wraz z postępem uczenia się, oznacza to, że model się uczy i jego dokładność wzrasta. Jeśli wartość funkcji straty nie zmienia się lub zaczyna rosnąć, oznacza to, że model się nie uczy lub przeuczył się.

          W opisanej w kontekście demonstracji, wykres straty na epokę jest używany do oceny jakości modelu i jego zdolności do klasyfikacji przykładów.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_905_dub
            wrote on last edited by
            #22

            jak obliczyć precyzję dla całego modelu?

            B 1 Reply Last reply
            0
            • S student_905_dub

              jak obliczyć precyzję dla całego modelu?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #23

              Aby obliczyć precyzję dla całego modelu, należy podzielić liczbę poprawnie rozpoznanych przykładów przez liczbę wszystkich przykładów rozpoznanych przez model jako prawidłowe.

              Na przykład, jeśli model rozpoznał 80 przykładów jako prawidłowe i 20 z nich było poprawnie rozpoznanych, to precyzja modelu wynosi 80/100 = 0,8 lub 80%.

              Warto zauważyć, że precyzja jest miarą dokładności modelu, a jej wartość powinna być maksymalnie możliwa, aby model był skuteczny w rozpoznawaniu przykładów.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_905_dub
                wrote on last edited by
                #24

                dlaczego wynik w d3 wynosi 75?

                1 Reply Last reply
                0
                • S Offline
                  S Offline
                  student_905_dub
                  wrote on last edited by
                  #25

                  wytłumacz mi proszę pojęcie czułości

                  1 Reply Last reply
                  0
                  • S Offline
                    S Offline
                    student_905_dub
                    wrote on last edited by
                    #26

                    za co odpowiada czułość

                    B 1 Reply Last reply
                    0
                    • S student_905_dub

                      za co odpowiada czułość

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #27

                      Czułość to miara zdolności modelu do rozpoznawania przykładów należących do klasy pozytywnej. Jest to miara, która określa, jak dobrze model rozpoznaje przykłady, które rzeczywiście należą do klasy pozytywnej.

                      Czułość jest obliczana jako stosunek liczby przykładów, które zostały prawidłowo rozpoznane jako pozytywne (TP), do liczby wszystkich przykładów, które rzeczywiście należą do klasy pozytywnej (TP + FN).

                      Na przykład, jeśli model rozpoznał 80 przykładów jako pozytywne i 20 z nich było poprawnie rozpoznanych, a w rzeczywistości 90 przykładów należało do klasy pozytywnej, to czułość modelu wynosi 80/90 = 0,89 lub 89%.

                      Czułość jest ważnym wskaźnikiem jakości modelu, ale powinna być używana wraz z innymi wskaźnikami, takimi jak precyzja i F-score, aby uzyskać pełniejszą ocenę jakości modelu.

                      1 Reply Last reply
                      1
                      Reply
                      • Reply as topic
                      Log in to reply
                      • Oldest to Newest
                      • Newest to Oldest
                      • Most Votes


                      • Login

                      • Don't have an account? Register

                      Powered by NodeBB Contributors
                      • First post
                        Last post
                      0
                      • Categories
                      • Recent
                      • Tags
                      • Popular
                      • World
                      • Users
                      • Groups