Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_4mq

conversation_by_4mq

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
4mq2d4990663f722666wstęp do uczenia maszynowego
37 Posts 3 Posters 77 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_4mq
    wrote on last edited by
    #21

    Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

    1 Reply Last reply
    0
    • S Offline
      S Offline
      student_4mq
      wrote on last edited by
      #22

      Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

      1 Reply Last reply
      0
      • S Offline
        S Offline
        student_4mq
        wrote on last edited by
        #23

        Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

        1 Reply Last reply
        0
        • S Offline
          S Offline
          student_4mq
          wrote on last edited by
          #24

          Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

          1 Reply Last reply
          0
          • S Offline
            S Offline
            student_4mq
            wrote on last edited by
            #25

            Czym jest zbiór walidacyjny?

            B 1 Reply Last reply
            0
            • S student_4mq

              Czym jest zbiór walidacyjny?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #26

              Odpowiedź na pytanie kursanta:

              Zbiór walidacyjny (ang. validation set) to zbiór danych, który jest używany do oceny jakości modelu w czasie uczenia się. Jest to zbiór danych, który jest niezależny od zbioru szkoleniowego (train set) i zbioru testowego (test set). Zbiór walidacyjny służy do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się.

              Zbiór walidacyjny jest często używany wraz z zbiorem testowym do oceny jakości modelu. Zbiór walidacyjny jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się, podczas gdy zbiór testowy jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się i nie są znane modelowi.

              Przykładem użycia zbioru walidacyjnego może być sytuacja, w której model jest używany do przewidywania wyników dla pacjentów z chorobą. Zbiór szkoleniowy zawiera dane dla 90% pacjentów, zbiór testowy zawiera dane dla 5% pacjentów, a zbiór walidacyjny zawiera dane dla 5% pacjentów. Model jest używany do przewidywania wyników dla pacjentów z chorobą, a zbiór walidacyjny jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_4mq
                wrote on last edited by
                #27

                A jaką najlepiej proporcję zastosować między tymi trzema zbiorami?

                B 1 Reply Last reply
                0
                • S student_4mq

                  A jaką najlepiej proporcję zastosować między tymi trzema zbiorami?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #28

                  Odpowiedź na pytanie kursanta:

                  Proporcja między zbiorem szkoleniowym, zbiorem walidacyjnym i zbiorem testowym nie jest ustalona i może zależeć od konkretnego problemu i danych. Jednak ogólnie przyjmuje się, że zbiór szkoleniowy powinien stanowić około 70-80% danych, zbiór walidacyjny około 10-20% danych, a zbiór testowy około 10-20% danych.

                  Przykładem może być sytuacja, w której mamy 1000 danych. Zbiór szkoleniowy może zawierać 700-800 danych, zbiór walidacyjny 100-200 danych, a zbiór testowy 100-200 danych.

                  Warto zauważyć, że proporcja między zbiorem szkoleniowym, zbiorem walidacyjnym i zbiorem testowym może być dostosowana do konkretnego problemu i danych. Ważne jest, aby zbiór szkoleniowy był wystarczająco duży, aby model mógł się nauczyć, a zbiór testowy był wystarczająco duży, aby model mógł być oceniony.

                  Jeśli chodzi o zbiór walidacyjny, to jego głównym celem jest ocena jakości modelu w czasie uczenia się. Zbiór walidacyjny powinien być wystarczająco duży, aby model mógł być oceniony, ale nie powinien być zbyt duży, aby nie przeszkadzał modelowi w uczeniu się.

                  Warto również zauważyć, że zbiór walidacyjny może być używany do oceny jakości modelu w różnych etapach uczenia się. Na przykład, zbiór walidacyjny może być używany do oceny jakości modelu po każdym etapie uczenia się, aby upewnić się, że model jest w stanie się uczyć i poprawiać swoją jakość.

                  1 Reply Last reply
                  1
                  • S Offline
                    S Offline
                    student_4mq
                    wrote on last edited by
                    #29

                    Przytocz jeszcze jakieś inne metryki oprócz dokładności, precyzji, czułości oraz F-score, którą mogą być używane do klasyfikacji

                    B 1 Reply Last reply
                    0
                    • S student_4mq

                      Przytocz jeszcze jakieś inne metryki oprócz dokładności, precyzji, czułości oraz F-score, którą mogą być używane do klasyfikacji

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #30

                      Oprócz dokładności, precyzji, czułości i F-score, istnieją inne metryki, które mogą być używane do klasyfikacji. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve), która określa zdolność modelu do rozróżniania między klasami.

                      Metryka AUC-ROC jest wyrażona jako wartość między 0 a 1, gdzie 1 oznacza, że model jest w stanie idealnie rozróżnić między klasami, a 0 oznacza, że model nie jest w stanie rozróżnić między klasami.

                      Inną metryką jest metryka F1-score, która jest podobna do F-score, ale jest bardziej wrażliwa na błędy fałszywie pozytywne. F1-score jest obliczany jako średnia harmoniczna precyzji i czułości.

                      Metryka Matthews, znana również jako metryka MCC (Matthews Correlation Coefficient), jest inna metryka, która określa zdolność modelu do rozróżniania między klasami. Metryka Matthews jest wyrażona jako wartość między -1 a 1, gdzie 1 oznacza, że model jest w stanie idealnie rozróżnić między klasami, a -1 oznacza, że model nie jest w stanie rozróżnić między klasami.

                      Warto zauważyć, że te metryki mogą być używane w różnych sytuacjach, w zależności od konkretnego problemu i danych.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_4mq
                        wrote on last edited by
                        #31

                        To czym się różnią F1 oraz F? W obu przypadkach nie liczymy średniej harmonicznej tak samo czasem?

                        B 1 Reply Last reply
                        0
                        • S student_4mq

                          To czym się różnią F1 oraz F? W obu przypadkach nie liczymy średniej harmonicznej tak samo czasem?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #32

                          Odpowiedź na pytanie kursanta:

                          F1 i F są dwoma różnymi metrykami, które są używane do oceny jakości modelu klasyfikacyjnego. F1 jest średnią harmoniczną precyzji i czułości, podczas gdy F jest średnią harmoniczną precyzji i czułości mikro.

                          Główną różnicą między F1 i F jest to, że F1 jest używany w klasyfikacji wieloklasowej, podczas gdy F jest używany w klasyfikacji binarnej. W klasyfikacji wieloklasowej, F1 jest obliczany jako średnia harmoniczna precyzji i czułości dla każdej klasy, podczas gdy F jest obliczany jako średnia harmoniczna precyzji i czułości mikro.

                          W przypadku F1, precyzja i czułość są obliczane dla każdej klasy osobno, a następnie są one łączone w średnią harmoniczną. W przypadku F, precyzja i czułość mikro są obliczane jako średnia harmoniczna precyzji i czułości dla wszystkich klas.

                          Warto zauważyć, że F1 i F są dwoma różnymi metrykami, które mają różne cechy i wady. F1 jest bardziej wrażliwy na błędy fałszywie pozytywne, podczas gdy F jest bardziej wrażliwy na błędy fałszywie negatywne.

                          Przykładem użycia F1 i F może być sytuacja, w której mamy model klasyfikacyjny, który jest używany do przewidywania wyników dla pacjentów z chorobą. W tym przypadku, F1 może być używany do oceny jakości modelu w klasyfikacji wieloklasowej, podczas gdy F może być używany do oceny jakości modelu w klasyfikacji binarnej.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_4mq
                            wrote on last edited by
                            #33

                            Co się kryje za pojęciem czułości miko?

                            1 Reply Last reply
                            0
                            • S Offline
                              S Offline
                              student_4mq
                              wrote on last edited by
                              #34

                              Co się kryje za pojęciem czułości mikro?

                              1 Reply Last reply
                              0
                              • S Offline
                                S Offline
                                student_4mq
                                wrote on last edited by
                                #35

                                Co się kryje za pojęciem czułości mikro?

                                1 Reply Last reply
                                0
                                • S Offline
                                  S Offline
                                  student_4mq
                                  wrote on last edited by
                                  #36

                                  A czym jest ta wspomniana wcześniej czułość mikro?

                                  B 1 Reply Last reply
                                  0
                                  • S student_4mq

                                    A czym jest ta wspomniana wcześniej czułość mikro?

                                    B Offline
                                    B Offline
                                    bot_external
                                    wrote on last edited by
                                    #37

                                    Czułość mikro (ang. micro recall) to miara, która określa, jak dobrze model klasyfikacyjny jest w stanie wykryć wszystkie przykłady danej klasy. Jest to miara, która jest obliczana jako stosunek liczby prawidłowo sklasyfikowanych przykładów danej klasy do liczby wszystkich przykładów danej klasy.

                                    W przeciwieństwie do czułości makro (ang. macro recall), która jest obliczana jako średnia harmoniczna czułości dla wszystkich klas, czułość mikro jest obliczana dla każdej klasy osobno.

                                    Przykładem użycia czułości mikro może być sytuacja, w której mamy model klasyfikacyjny, który jest używany do przewidywania wyników dla pacjentów z chorobą. W tym przypadku, czułość mikro może być używana do oceny, jak dobrze model jest w stanie wykryć wszystkie przykłady pacjentów z chorobą.

                                    Warto zauważyć, że czułość mikro jest często używana w klasyfikacji binarnej, podczas gdy czułość makro jest często używana w klasyfikacji wieloklasowej.

                                    1 Reply Last reply
                                    1
                                    Reply
                                    • Reply as topic
                                    Log in to reply
                                    • Oldest to Newest
                                    • Newest to Oldest
                                    • Most Votes


                                    • Login

                                    • Don't have an account? Register

                                    Powered by NodeBB Contributors
                                    • First post
                                      Last post
                                    0
                                    • Categories
                                    • Recent
                                    • Tags
                                    • Popular
                                    • World
                                    • Users
                                    • Groups