Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_ly0

conversation_by_ly0

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
ly02d4990663f722666wstęp do uczenia maszynowego
25 Posts 3 Posters 26 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_905_ly0
    wrote on last edited by
    #14

    czy jest jakaś metryka która bieżr pod uwagę wszystkie powyższe ?

    B 1 Reply Last reply
    0
    • S student_905_ly0

      czy jest jakaś metryka która bieżr pod uwagę wszystkie powyższe ?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #15

      Tak, istnieje metryka, która bierze pod uwagę wszystkie powyższe - F-score. F-score stanowi kompromis pomiędzy precyzją (precision) i czułością (recall), co oznacza, że ocenia model bardziej obiektywnie niż każda z tych dwóch metryk z osobna.

      F-score jest obliczany jako średnia arytmetyczna z precyzji i czułości:

      F-score = (2 * precyzja * czułość) / (precyzja + czułość)

      Im wyższy F-score, tym lepiej model wykrywa przypadki pozytywne i nie błędnie zaklasyfikuje przypadki negatywne.

      W naszym przykładzie z ilustracji, aby obliczyć F-score, bierzemy precyzję (87%) i czułość (90%), i obliczamy:

      F-score = (2 * 0,87 * 0,90) / (0,87 + 0,90) = 0,87

      Otrzymujemy w zaokrągleniu 87%.

      F-score jest ważna w sytuacjach, w których chcemy, aby model był skuteczny w rozpoznawaniu wszystkich przypadków, zarówno pozytywnych, jak i negatywnych.

      1 Reply Last reply
      0
      • S Offline
        S Offline
        student_905_ly0
        wrote on last edited by
        #16

        ale f scoree łączy tylko dwie z wymienionych przezenie 3 metryk czy jest taka która łączy wszystkie 3 ?

        B 1 Reply Last reply
        0
        • S student_905_ly0

          ale f scoree łączy tylko dwie z wymienionych przezenie 3 metryk czy jest taka która łączy wszystkie 3 ?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #17

          F-score łączy tylko dwie z wymienionych metryk: precyzję i czułość. Nie łączy wszystkich trzech metryk, w tym dokładności.

          W kontekście, nie ma wzmianki o metryce, która łączy wszystkie trzy metryki: precyzję, czułość i dokładność. F-score jest jedną z metryk, która łączy precyzję i czułość, ale nie ma informacji o metryce, która łączy wszystkie trzy.

          1 Reply Last reply
          0
          • S Offline
            S Offline
            student_905_ly0
            wrote on last edited by
            #18

            jak obliczyć dokładność podaj mi wzory na tp fp fn tn

            B 1 Reply Last reply
            0
            • S student_905_ly0

              jak obliczyć dokładność podaj mi wzory na tp fp fn tn

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #19

              Dokładność (accuracy) jest określana jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych. Wzór na dokładność to:

              Dokładność = (TP + TN) / (TP + TN + FP + FN)

              gdzie:

              • TP - liczba przykładów prawdziwie pozytywnych
              • TN - liczba przykładów prawdziwie negatywnych
              • FP - liczba przykładów fałszywie pozytywnych
              • FN - liczba przykładów fałszywie negatywnych

              W naszym przykładzie, aby obliczyć dokładność, bierzemy liczbę poprawnie zaklasyfikowanych diagnoz (TP + TN) i dzielimy przez liczbę wszystkich przykładów testowych (TP + TN + FP + FN).

              Przykład:

              • TP = 27 (poprawnie wykryte choroby)
              • TN = 143 (poprawnie wykluczone choroby)
              • FP = 4 (fałszywie wykryte choroby)
              • FN = 0 (fałszywie wykluczone choroby)

              Dokładność = (27 + 143) / (27 + 143 + 4 + 0) = 170 / 174 = 0,978 (lub 97,8%)

              Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.

              1 Reply Last reply
              0
              • S Offline
                S Offline
                student_905_ly0
                wrote on last edited by
                #20

                teraz precyzje a potem czyłość

                B 1 Reply Last reply
                0
                • S student_905_ly0

                  teraz precyzje a potem czyłość

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #21

                  Aby obliczyć precyzję i czułość, musimy wiedzieć, ile przykładów zostało poprawnie zaklasyfikowanych jako pozytywne i ile jest to w stosunku do wszystkich przykładów, które zostały zaklasyfikowane jako pozytywne.

                  Precyzja to stosunek poprawnie zaklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytwnie. Wzór na precyzję to:

                  Precyzja = TP / (TP + FP)

                  gdzie:

                  • TP - liczba przykładów prawdziwie pozytywnych
                  • FP - liczba przykładów fałszywie pozytywnych

                  Czułość (recall) to stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości. Wzór na czułość to:

                  Czułość = TP / (TP + FN)

                  gdzie:

                  • TP - liczba przykładów prawdziwie pozytywnych
                  • FN - liczba przykładów fałszywie negatywnych

                  W naszym przykładzie, aby obliczyć precyzję i czułość, bierzemy liczbę poprawnie wykrytych chorób (TP) i dzielimy przez liczbę wszystkich chorób w rzeczywistości (TP + FN).

                  Przykład:

                  • TP = 27 (poprawnie wykryte choroby)
                  • FP = 4 (fałszywie wykryte choroby)
                  • FN = 3 (fałszywie wykluczone choroby)

                  Precyzja = 27 / (27 + 4) = 0,87 (lub 87%)

                  Czułość = 27 / (27 + 3) = 0,90 (lub 90%)

                  Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.

                  1 Reply Last reply
                  0
                  • S Offline
                    S Offline
                    student_905_ly0
                    wrote on last edited by
                    #22

                    jak obliczyć czułośc podaj mi wzory na tp fp fn tn

                    B 1 Reply Last reply
                    0
                    • S student_905_ly0

                      jak obliczyć czułośc podaj mi wzory na tp fp fn tn

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #23

                      Czułość (recall) jest określana jako stosunek przykładów prawdziwie pozytywnych (TP) do wszystkich pozytywnych przykładów w rzeczywistości (TP + FN). Wzór na czułość to:

                      Czułość = TP / (TP + FN)

                      gdzie:

                      • TP - liczba przykładów prawdziwie pozytywnych
                      • FN - liczba przykładów fałszywie negatywnych

                      W naszym przykładzie, aby obliczyć czułość, bierzemy liczbę poprawnie wykrytych chorób (TP) i dzielimy przez liczbę wszystkich chorób w rzeczywistości (TP + FN).

                      Przykład:

                      • TP = 27 (poprawnie wykryte choroby)
                      • FN = 3 (fałszywie wykluczone choroby)

                      Czułość = 27 / (27 + 3) = 0,90 (lub 90%)

                      Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.

                      1 Reply Last reply
                      0
                      • S Offline
                        S Offline
                        student_905_ly0
                        wrote on last edited by
                        #24

                        Załóżmy, że pojawiłby się przykład testowy w postaci niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8. Jak można by poprawić klasyfikowanie przez model tego przypadku?

                        B 1 Reply Last reply
                        0
                        • S student_905_ly0

                          Załóżmy, że pojawiłby się przykład testowy w postaci niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8. Jak można by poprawić klasyfikowanie przez model tego przypadku?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #25

                          Aby poprawić klasyfikowanie przez model niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8, należy dostarczyć modelowi dodatkowych danych, które mogą pomóc mu w rozróżnieniu tych dwóch cyfr.

                          W naszym przypadku, model został wytrenowany na danych, które zawierają wyraźnie narysowane cyfry 6 i 8. Jednak w przypadku niewyraźnie narysowanej cyfry, model może mieć trudności z rozróżnieniem jej od innych cyfr.

                          Aby poprawić klasyfikowanie przez model, można:

                          1. Dodawać więcej danych do modelu, które zawierają niewyraźnie narysowane cyfry 6 i 8. To pozwoli modelowi nauczyć się rozróżniać te cyfry w różnych kontekstach.
                          2. Ulepszyć model, aby był bardziej elastyczny i mógł radzić sobie z niewyraźnie narysowanymi cyframi.
                          3. Zastosować techniki post-processing, które mogą pomóc modelowi poprawić swoje klasyfikowanie w przypadku niewyraźnie narysowanych cyfr.

                          Warto zauważyć, że poprawienie klasyfikowania przez model niewyraźnie narysowanej cyfry wymaga dodatkowych danych i ulepszeń modelu.

                          1 Reply Last reply
                          0
                          Reply
                          • Reply as topic
                          Log in to reply
                          • Oldest to Newest
                          • Newest to Oldest
                          • Most Votes


                          • Login

                          • Don't have an account? Register

                          Powered by NodeBB Contributors
                          • First post
                            Last post
                          0
                          • Categories
                          • Recent
                          • Tags
                          • Popular
                          • World
                          • Users
                          • Groups