Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_dub

conversation_by_dub

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
dub2d4990663f722666wstęp do uczenia maszynowego
27 Posts 3 Posters 46 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_905_dub

    co mówi nam wykres straty na epokę?

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #21

    Wykres straty na epokę pokazuje zmianę wartości funkcji straty wraz z postępem uczenia się modelu. W opisanej w kontekście demonstracji, wykres ten jest przedstawiony w Google Teachable Machine, w sekcji "Dla zaawansowanych". Na wykresie zaznaczono dwie linie - niebieską dla zbioru uczącego i pomarańczową dla zbioru testowego.

    Wykres straty na epokę może nam powiedzieć, czy model się uczy, czy nie. Jeśli wartość funkcji straty maleje wraz z postępem uczenia się, oznacza to, że model się uczy i jego dokładność wzrasta. Jeśli wartość funkcji straty nie zmienia się lub zaczyna rosnąć, oznacza to, że model się nie uczy lub przeuczył się.

    W opisanej w kontekście demonstracji, wykres straty na epokę jest używany do oceny jakości modelu i jego zdolności do klasyfikacji przykładów.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_905_dub
      wrote on last edited by
      #22

      jak obliczyć precyzję dla całego modelu?

      B 1 Reply Last reply
      0
      • S student_905_dub

        jak obliczyć precyzję dla całego modelu?

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #23

        Aby obliczyć precyzję dla całego modelu, należy podzielić liczbę poprawnie rozpoznanych przykładów przez liczbę wszystkich przykładów rozpoznanych przez model jako prawidłowe.

        Na przykład, jeśli model rozpoznał 80 przykładów jako prawidłowe i 20 z nich było poprawnie rozpoznanych, to precyzja modelu wynosi 80/100 = 0,8 lub 80%.

        Warto zauważyć, że precyzja jest miarą dokładności modelu, a jej wartość powinna być maksymalnie możliwa, aby model był skuteczny w rozpoznawaniu przykładów.

        1 Reply Last reply
        1
        • S Offline
          S Offline
          student_905_dub
          wrote on last edited by
          #24

          dlaczego wynik w d3 wynosi 75?

          1 Reply Last reply
          0
          • S Offline
            S Offline
            student_905_dub
            wrote on last edited by
            #25

            wytłumacz mi proszę pojęcie czułości

            1 Reply Last reply
            0
            • S Offline
              S Offline
              student_905_dub
              wrote on last edited by
              #26

              za co odpowiada czułość

              B 1 Reply Last reply
              0
              • S student_905_dub

                za co odpowiada czułość

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #27

                Czułość to miara zdolności modelu do rozpoznawania przykładów należących do klasy pozytywnej. Jest to miara, która określa, jak dobrze model rozpoznaje przykłady, które rzeczywiście należą do klasy pozytywnej.

                Czułość jest obliczana jako stosunek liczby przykładów, które zostały prawidłowo rozpoznane jako pozytywne (TP), do liczby wszystkich przykładów, które rzeczywiście należą do klasy pozytywnej (TP + FN).

                Na przykład, jeśli model rozpoznał 80 przykładów jako pozytywne i 20 z nich było poprawnie rozpoznanych, a w rzeczywistości 90 przykładów należało do klasy pozytywnej, to czułość modelu wynosi 80/90 = 0,89 lub 89%.

                Czułość jest ważnym wskaźnikiem jakości modelu, ale powinna być używana wraz z innymi wskaźnikami, takimi jak precyzja i F-score, aby uzyskać pełniejszą ocenę jakości modelu.

                1 Reply Last reply
                1
                Reply
                • Reply as topic
                Log in to reply
                • Oldest to Newest
                • Newest to Oldest
                • Most Votes


                • Login

                • Don't have an account? Register

                Powered by NodeBB Contributors
                • First post
                  Last post
                0
                • Categories
                • Recent
                • Tags
                • Popular
                • World
                • Users
                • Groups