Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_ly0

conversation_by_ly0

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
ly02d4990663f722666wstęp do uczenia maszynowego
25 Posts 3 Posters 26 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_905_ly0
    wrote on last edited by
    #8

    jak liczyć dokładnośc modelu um

    B 1 Reply Last reply
    0
    • S student_905_ly0

      jak liczyć dokładnośc modelu um

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #9

      Dokładność modelu UM (Uczenia Maszynowego) jest określana jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych. W naszym przypadku, aby obliczyć dokładność modelu, musimy wiedzieć, ile przykładów zostało poprawnie zaklasyfikowanych i ile jest to w stosunku do wszystkich przykładów testowych.

      W naszym przykładzie z ilustracji, aby obliczyć dokładność modelu, bierzemy liczbę poprawnie zaklasyfikowanych diagnoz, czyli 88 (nie 27, jak w przypadku precyzji), i dzielimy przez liczbę wszystkich przykładów testowych, czyli 170. Otrzymujemy w zaokrągleniu 51,8%.

      Dokładność modelu UM to podstawowa i najczęściej wykorzystywana metryka służąca do oceny jakości modelu w Uczeniu Maszynowym. Im większa wartość dokładności, tym lepiej - jeżeli model będzie się zawsze mylił, dokładność wyniesie 0, natomiast jeżeli wszystkie testowe przypadki zostaną zaklasyfikowane poprawnie, dokładność wyniesie 1.

      1 Reply Last reply
      0
      • S Offline
        S Offline
        student_905_ly0
        wrote on last edited by
        #10

        jak liczyć precyzję i jakie są rużnice w dobrośći wybrania między precyzją a dokładnością ?

        B 1 Reply Last reply
        0
        • S student_905_ly0

          jak liczyć precyzję i jakie są rużnice w dobrośći wybrania między precyzją a dokładnością ?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #11

          Aby obliczyć precyzję, musimy wiedzieć, ile przykładów zostało poprawnie zaklasyfikowanych jako pozytywne i ile jest to w stosunku do wszystkich przykładów, które zostały zaklasyfikowane jako pozytywne.

          W naszym przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę poprawnie wykrytych chorób, czyli 27, i dzielimy przez liczbę wszystkich osób, które zostały zaklasyfikowane przez model jako chore, czyli 31. Otrzymujemy w zaokrągleniu 87%.

          Precyzja i dokładność są dwiema różnymi miarami jakości modelu Uczenia Maszynowego. Dokładność to stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych, natomiast precyzja to stosunek poprawnie zaklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytwnie.

          Oznacza to, że precyzja skupia się na poprawności diagnoz pozytywnych, podczas gdy dokładność skupia się na poprawności wszystkich diagnoz. Im większa precyzja, tym lepiej model rozpoznaje przypadki pozytywne, ale może to oznaczać, że model ma tendencję do pomijania przypadków negatywnych. Im większa dokładność, tym lepiej model rozpoznaje wszystkie przypadki, zarówno pozytywne, jak i negatywne.

          Dlatego też, jeśli chcemy, aby model był skuteczny w rozpoznawaniu przypadków pozytywnych, powinniśmy wybrać precyzję. Jeśli chcemy, aby model był skuteczny w rozpoznawaniu wszystkich przypadków, zarówno pozytywnych, jak i negatywnych, powinniśmy wybrać dokładność.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_905_ly0
            wrote on last edited by
            #12

            a jak ma się do tego czułość

            B 1 Reply Last reply
            0
            • S student_905_ly0

              a jak ma się do tego czułość

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #13

              Czułość (recall) jest miarą, która określa, jaki procent wszystkich pozytywnych przypadków wykrywa model. Jest to stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości.

              W naszym przykładzie z ilustracji, aby obliczyć czułość, bierzemy liczbę chorych poprawnie sklasyfikowanych jako chorych, czyli 27, i dzielimy przez liczbę wszystkich chorych osób w zbiorze testowym, czyli 30. Otrzymujemy w zaokrągleniu 90%.

              Czułość jest ważna w sytuacjach, w których zależy nam, by wykryć jak najwięcej przykładów z jednej klasy, nawet jeśli to oznacza, że będziemy błędnie zaklasyfikować niektóre przypadki jako pozytywne. Im większa czułość, tym lepiej model wykrywa przypadki pozytywne, ale może to oznaczać, że model ma tendencję do błędnych zaklasyfikowań przypadków negatywnych.

              W porównaniu z precyzją i dokładnością, czułość skupia się na wykrywaniu wszystkich przypadków pozytywnych, niezależnie od tego, czy są one poprawnie zaklasyfikowane czy nie.

              1 Reply Last reply
              0
              • S Offline
                S Offline
                student_905_ly0
                wrote on last edited by
                #14

                czy jest jakaś metryka która bieżr pod uwagę wszystkie powyższe ?

                B 1 Reply Last reply
                0
                • S student_905_ly0

                  czy jest jakaś metryka która bieżr pod uwagę wszystkie powyższe ?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #15

                  Tak, istnieje metryka, która bierze pod uwagę wszystkie powyższe - F-score. F-score stanowi kompromis pomiędzy precyzją (precision) i czułością (recall), co oznacza, że ocenia model bardziej obiektywnie niż każda z tych dwóch metryk z osobna.

                  F-score jest obliczany jako średnia arytmetyczna z precyzji i czułości:

                  F-score = (2 * precyzja * czułość) / (precyzja + czułość)

                  Im wyższy F-score, tym lepiej model wykrywa przypadki pozytywne i nie błędnie zaklasyfikuje przypadki negatywne.

                  W naszym przykładzie z ilustracji, aby obliczyć F-score, bierzemy precyzję (87%) i czułość (90%), i obliczamy:

                  F-score = (2 * 0,87 * 0,90) / (0,87 + 0,90) = 0,87

                  Otrzymujemy w zaokrągleniu 87%.

                  F-score jest ważna w sytuacjach, w których chcemy, aby model był skuteczny w rozpoznawaniu wszystkich przypadków, zarówno pozytywnych, jak i negatywnych.

                  1 Reply Last reply
                  0
                  • S Offline
                    S Offline
                    student_905_ly0
                    wrote on last edited by
                    #16

                    ale f scoree łączy tylko dwie z wymienionych przezenie 3 metryk czy jest taka która łączy wszystkie 3 ?

                    B 1 Reply Last reply
                    0
                    • S student_905_ly0

                      ale f scoree łączy tylko dwie z wymienionych przezenie 3 metryk czy jest taka która łączy wszystkie 3 ?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #17

                      F-score łączy tylko dwie z wymienionych metryk: precyzję i czułość. Nie łączy wszystkich trzech metryk, w tym dokładności.

                      W kontekście, nie ma wzmianki o metryce, która łączy wszystkie trzy metryki: precyzję, czułość i dokładność. F-score jest jedną z metryk, która łączy precyzję i czułość, ale nie ma informacji o metryce, która łączy wszystkie trzy.

                      1 Reply Last reply
                      0
                      • S Offline
                        S Offline
                        student_905_ly0
                        wrote on last edited by
                        #18

                        jak obliczyć dokładność podaj mi wzory na tp fp fn tn

                        B 1 Reply Last reply
                        0
                        • S student_905_ly0

                          jak obliczyć dokładność podaj mi wzory na tp fp fn tn

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #19

                          Dokładność (accuracy) jest określana jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych. Wzór na dokładność to:

                          Dokładność = (TP + TN) / (TP + TN + FP + FN)

                          gdzie:

                          • TP - liczba przykładów prawdziwie pozytywnych
                          • TN - liczba przykładów prawdziwie negatywnych
                          • FP - liczba przykładów fałszywie pozytywnych
                          • FN - liczba przykładów fałszywie negatywnych

                          W naszym przykładzie, aby obliczyć dokładność, bierzemy liczbę poprawnie zaklasyfikowanych diagnoz (TP + TN) i dzielimy przez liczbę wszystkich przykładów testowych (TP + TN + FP + FN).

                          Przykład:

                          • TP = 27 (poprawnie wykryte choroby)
                          • TN = 143 (poprawnie wykluczone choroby)
                          • FP = 4 (fałszywie wykryte choroby)
                          • FN = 0 (fałszywie wykluczone choroby)

                          Dokładność = (27 + 143) / (27 + 143 + 4 + 0) = 170 / 174 = 0,978 (lub 97,8%)

                          Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.

                          1 Reply Last reply
                          0
                          • S Offline
                            S Offline
                            student_905_ly0
                            wrote on last edited by
                            #20

                            teraz precyzje a potem czyłość

                            B 1 Reply Last reply
                            0
                            • S student_905_ly0

                              teraz precyzje a potem czyłość

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #21

                              Aby obliczyć precyzję i czułość, musimy wiedzieć, ile przykładów zostało poprawnie zaklasyfikowanych jako pozytywne i ile jest to w stosunku do wszystkich przykładów, które zostały zaklasyfikowane jako pozytywne.

                              Precyzja to stosunek poprawnie zaklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytwnie. Wzór na precyzję to:

                              Precyzja = TP / (TP + FP)

                              gdzie:

                              • TP - liczba przykładów prawdziwie pozytywnych
                              • FP - liczba przykładów fałszywie pozytywnych

                              Czułość (recall) to stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości. Wzór na czułość to:

                              Czułość = TP / (TP + FN)

                              gdzie:

                              • TP - liczba przykładów prawdziwie pozytywnych
                              • FN - liczba przykładów fałszywie negatywnych

                              W naszym przykładzie, aby obliczyć precyzję i czułość, bierzemy liczbę poprawnie wykrytych chorób (TP) i dzielimy przez liczbę wszystkich chorób w rzeczywistości (TP + FN).

                              Przykład:

                              • TP = 27 (poprawnie wykryte choroby)
                              • FP = 4 (fałszywie wykryte choroby)
                              • FN = 3 (fałszywie wykluczone choroby)

                              Precyzja = 27 / (27 + 4) = 0,87 (lub 87%)

                              Czułość = 27 / (27 + 3) = 0,90 (lub 90%)

                              Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.

                              1 Reply Last reply
                              0
                              • S Offline
                                S Offline
                                student_905_ly0
                                wrote on last edited by
                                #22

                                jak obliczyć czułośc podaj mi wzory na tp fp fn tn

                                B 1 Reply Last reply
                                0
                                • S student_905_ly0

                                  jak obliczyć czułośc podaj mi wzory na tp fp fn tn

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #23

                                  Czułość (recall) jest określana jako stosunek przykładów prawdziwie pozytywnych (TP) do wszystkich pozytywnych przykładów w rzeczywistości (TP + FN). Wzór na czułość to:

                                  Czułość = TP / (TP + FN)

                                  gdzie:

                                  • TP - liczba przykładów prawdziwie pozytywnych
                                  • FN - liczba przykładów fałszywie negatywnych

                                  W naszym przykładzie, aby obliczyć czułość, bierzemy liczbę poprawnie wykrytych chorób (TP) i dzielimy przez liczbę wszystkich chorób w rzeczywistości (TP + FN).

                                  Przykład:

                                  • TP = 27 (poprawnie wykryte choroby)
                                  • FN = 3 (fałszywie wykluczone choroby)

                                  Czułość = 27 / (27 + 3) = 0,90 (lub 90%)

                                  Oczywiście, to jest tylko przykład i rzeczywiste wartości mogą być inne.

                                  1 Reply Last reply
                                  0
                                  • S Offline
                                    S Offline
                                    student_905_ly0
                                    wrote on last edited by
                                    #24

                                    Załóżmy, że pojawiłby się przykład testowy w postaci niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8. Jak można by poprawić klasyfikowanie przez model tego przypadku?

                                    B 1 Reply Last reply
                                    0
                                    • S student_905_ly0

                                      Załóżmy, że pojawiłby się przykład testowy w postaci niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8. Jak można by poprawić klasyfikowanie przez model tego przypadku?

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #25

                                      Aby poprawić klasyfikowanie przez model niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8, należy dostarczyć modelowi dodatkowych danych, które mogą pomóc mu w rozróżnieniu tych dwóch cyfr.

                                      W naszym przypadku, model został wytrenowany na danych, które zawierają wyraźnie narysowane cyfry 6 i 8. Jednak w przypadku niewyraźnie narysowanej cyfry, model może mieć trudności z rozróżnieniem jej od innych cyfr.

                                      Aby poprawić klasyfikowanie przez model, można:

                                      1. Dodawać więcej danych do modelu, które zawierają niewyraźnie narysowane cyfry 6 i 8. To pozwoli modelowi nauczyć się rozróżniać te cyfry w różnych kontekstach.
                                      2. Ulepszyć model, aby był bardziej elastyczny i mógł radzić sobie z niewyraźnie narysowanymi cyframi.
                                      3. Zastosować techniki post-processing, które mogą pomóc modelowi poprawić swoje klasyfikowanie w przypadku niewyraźnie narysowanych cyfr.

                                      Warto zauważyć, że poprawienie klasyfikowania przez model niewyraźnie narysowanej cyfry wymaga dodatkowych danych i ulepszeń modelu.

                                      1 Reply Last reply
                                      0
                                      Reply
                                      • Reply as topic
                                      Log in to reply
                                      • Oldest to Newest
                                      • Newest to Oldest
                                      • Most Votes


                                      • Login

                                      • Don't have an account? Register

                                      Powered by NodeBB Contributors
                                      • First post
                                        Last post
                                      0
                                      • Categories
                                      • Recent
                                      • Tags
                                      • Popular
                                      • World
                                      • Users
                                      • Groups