Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_4mq

conversation_by_4mq

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
4mq2d4990663f722666wstęp do uczenia maszynowego
37 Posts 3 Posters 77 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_4mq
    wrote on last edited by
    #14

    A który z błędów jest najbardziej problematyczny?

    B 1 Reply Last reply
    0
    • S student_4mq

      A który z błędów jest najbardziej problematyczny?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #15

      Odpowiedź na pytanie kursanta:

      Najbardziej problematyczny błąd w danych jest przeuczenie (overfitting). Przeuczenie występuje, gdy model jest zbyt dobrze dopasowany do danych szkoleniowych i nie jest w stanie ogólniejszego opisu danych testowych. W takim przypadku model może być bardzo dokładny w opisaniu danych szkoleniowych, ale nie będzie w stanie przewidzieć wyników dla danych testowych.

      Przeuczenie jest szczególnie problematyczne w przypadku, gdy dostępna jest niewielka teoria, która mogłaby kierować analizą, a także gdy istnieje duża liczba modeli do wyboru. W takim przypadku przeuczenie jest realnym zagrożeniem, ponieważ model może być zbyt specyficzny dla danych szkoleniowych i nie będzie w stanie ogólniejszego opisu danych testowych.

      Przykładem przeuczenia może być sytuacja, w której model jest zbyt dobrze dopasowany do danych szkoleniowych i nie jest w stanie przewidzieć wyników dla danych testowych. Na przykład, jeśli model jest używany do przewidywania wyników dla pacjentów z chorobą, a dane szkoleniowe są bardzo specyficzne dla jednego pacjenta, model może być zbyt dobrze dopasowany do tych danych i nie będzie w stanie przewidzieć wyników dla innych pacjentów.

      1 Reply Last reply
      -1
      • S Offline
        S Offline
        student_4mq
        wrote on last edited by
        #16

        Bardziej chodziło mi o błędy wcześniej wymienione, dotyczące samych danych (ich liczebności, konstrukcji itp.)

        B 1 Reply Last reply
        0
        • S student_4mq

          Bardziej chodziło mi o błędy wcześniej wymienione, dotyczące samych danych (ich liczebności, konstrukcji itp.)

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #17

          Odpowiedź na pytanie kursanta:

          Najbardziej problematyczny błąd w danych, spośród tych, które zostały wcześniej wymienione, jest nierówna liczebność klas. Nierówna liczebność klas może powodować, że model będzie miał trudności z nauczeniem się na danych, które są rzadkie lub mało reprezentatywne. W takim przypadku model może być zbyt dobrze dopasowany do danych, które są częste, ale nie będzie w stanie ogólniejszego opisu danych, które są rzadkie.

          Przykładem nierówna liczebności klas może być sytuacja, w której model jest używany do przewidywania wyników dla pacjentów z chorobą, a dane szkoleniowe są bardzo niezrównoważone. Na przykład, jeśli dane szkoleniowe zawierają 99% pacjentów z chorobą A i 1% pacjentów z chorobą B, model może być zbyt dobrze dopasowany do danych z chorobą A i nie będzie w stanie ogólniejszego opisu danych z chorobą B.

          W takim przypadku model może być zbyt specyficzny dla danych z chorobą A i nie będzie w stanie przewidzieć wyników dla pacjentów z chorobą B. W rezultacie, model może nie być w stanie ogólniejszego opisu danych i będzie miał trudności z nauczeniem się na danych, które są rzadkie lub mało reprezentatywne.

          1 Reply Last reply
          1
          • E Online
            E Online
            eduexe.admin
            wrote on last edited by
            #18
            1 Reply Last reply
            0
            • S Offline
              S Offline
              student_4mq
              wrote on last edited by
              #19

              Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

              1 Reply Last reply
              0
              • S Offline
                S Offline
                student_4mq
                wrote on last edited by
                #20

                Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                1 Reply Last reply
                0
                • S Offline
                  S Offline
                  student_4mq
                  wrote on last edited by
                  #21

                  Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                  1 Reply Last reply
                  0
                  • S Offline
                    S Offline
                    student_4mq
                    wrote on last edited by
                    #22

                    Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                    1 Reply Last reply
                    0
                    • S Offline
                      S Offline
                      student_4mq
                      wrote on last edited by
                      #23

                      Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                      1 Reply Last reply
                      0
                      • S Offline
                        S Offline
                        student_4mq
                        wrote on last edited by
                        #24

                        Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                        1 Reply Last reply
                        0
                        • S Offline
                          S Offline
                          student_4mq
                          wrote on last edited by
                          #25

                          Czym jest zbiór walidacyjny?

                          B 1 Reply Last reply
                          0
                          • S student_4mq

                            Czym jest zbiór walidacyjny?

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #26

                            Odpowiedź na pytanie kursanta:

                            Zbiór walidacyjny (ang. validation set) to zbiór danych, który jest używany do oceny jakości modelu w czasie uczenia się. Jest to zbiór danych, który jest niezależny od zbioru szkoleniowego (train set) i zbioru testowego (test set). Zbiór walidacyjny służy do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się.

                            Zbiór walidacyjny jest często używany wraz z zbiorem testowym do oceny jakości modelu. Zbiór walidacyjny jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się, podczas gdy zbiór testowy jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się i nie są znane modelowi.

                            Przykładem użycia zbioru walidacyjnego może być sytuacja, w której model jest używany do przewidywania wyników dla pacjentów z chorobą. Zbiór szkoleniowy zawiera dane dla 90% pacjentów, zbiór testowy zawiera dane dla 5% pacjentów, a zbiór walidacyjny zawiera dane dla 5% pacjentów. Model jest używany do przewidywania wyników dla pacjentów z chorobą, a zbiór walidacyjny jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się.

                            1 Reply Last reply
                            1
                            • S Offline
                              S Offline
                              student_4mq
                              wrote on last edited by
                              #27

                              A jaką najlepiej proporcję zastosować między tymi trzema zbiorami?

                              B 1 Reply Last reply
                              0
                              • S student_4mq

                                A jaką najlepiej proporcję zastosować między tymi trzema zbiorami?

                                B Offline
                                B Offline
                                bot_external
                                wrote on last edited by
                                #28

                                Odpowiedź na pytanie kursanta:

                                Proporcja między zbiorem szkoleniowym, zbiorem walidacyjnym i zbiorem testowym nie jest ustalona i może zależeć od konkretnego problemu i danych. Jednak ogólnie przyjmuje się, że zbiór szkoleniowy powinien stanowić około 70-80% danych, zbiór walidacyjny około 10-20% danych, a zbiór testowy około 10-20% danych.

                                Przykładem może być sytuacja, w której mamy 1000 danych. Zbiór szkoleniowy może zawierać 700-800 danych, zbiór walidacyjny 100-200 danych, a zbiór testowy 100-200 danych.

                                Warto zauważyć, że proporcja między zbiorem szkoleniowym, zbiorem walidacyjnym i zbiorem testowym może być dostosowana do konkretnego problemu i danych. Ważne jest, aby zbiór szkoleniowy był wystarczająco duży, aby model mógł się nauczyć, a zbiór testowy był wystarczająco duży, aby model mógł być oceniony.

                                Jeśli chodzi o zbiór walidacyjny, to jego głównym celem jest ocena jakości modelu w czasie uczenia się. Zbiór walidacyjny powinien być wystarczająco duży, aby model mógł być oceniony, ale nie powinien być zbyt duży, aby nie przeszkadzał modelowi w uczeniu się.

                                Warto również zauważyć, że zbiór walidacyjny może być używany do oceny jakości modelu w różnych etapach uczenia się. Na przykład, zbiór walidacyjny może być używany do oceny jakości modelu po każdym etapie uczenia się, aby upewnić się, że model jest w stanie się uczyć i poprawiać swoją jakość.

                                1 Reply Last reply
                                1
                                • S Offline
                                  S Offline
                                  student_4mq
                                  wrote on last edited by
                                  #29

                                  Przytocz jeszcze jakieś inne metryki oprócz dokładności, precyzji, czułości oraz F-score, którą mogą być używane do klasyfikacji

                                  B 1 Reply Last reply
                                  0
                                  • S student_4mq

                                    Przytocz jeszcze jakieś inne metryki oprócz dokładności, precyzji, czułości oraz F-score, którą mogą być używane do klasyfikacji

                                    B Offline
                                    B Offline
                                    bot_external
                                    wrote on last edited by
                                    #30

                                    Oprócz dokładności, precyzji, czułości i F-score, istnieją inne metryki, które mogą być używane do klasyfikacji. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve), która określa zdolność modelu do rozróżniania między klasami.

                                    Metryka AUC-ROC jest wyrażona jako wartość między 0 a 1, gdzie 1 oznacza, że model jest w stanie idealnie rozróżnić między klasami, a 0 oznacza, że model nie jest w stanie rozróżnić między klasami.

                                    Inną metryką jest metryka F1-score, która jest podobna do F-score, ale jest bardziej wrażliwa na błędy fałszywie pozytywne. F1-score jest obliczany jako średnia harmoniczna precyzji i czułości.

                                    Metryka Matthews, znana również jako metryka MCC (Matthews Correlation Coefficient), jest inna metryka, która określa zdolność modelu do rozróżniania między klasami. Metryka Matthews jest wyrażona jako wartość między -1 a 1, gdzie 1 oznacza, że model jest w stanie idealnie rozróżnić między klasami, a -1 oznacza, że model nie jest w stanie rozróżnić między klasami.

                                    Warto zauważyć, że te metryki mogą być używane w różnych sytuacjach, w zależności od konkretnego problemu i danych.

                                    1 Reply Last reply
                                    1
                                    • S Offline
                                      S Offline
                                      student_4mq
                                      wrote on last edited by
                                      #31

                                      To czym się różnią F1 oraz F? W obu przypadkach nie liczymy średniej harmonicznej tak samo czasem?

                                      B 1 Reply Last reply
                                      0
                                      • S student_4mq

                                        To czym się różnią F1 oraz F? W obu przypadkach nie liczymy średniej harmonicznej tak samo czasem?

                                        B Offline
                                        B Offline
                                        bot_external
                                        wrote on last edited by
                                        #32

                                        Odpowiedź na pytanie kursanta:

                                        F1 i F są dwoma różnymi metrykami, które są używane do oceny jakości modelu klasyfikacyjnego. F1 jest średnią harmoniczną precyzji i czułości, podczas gdy F jest średnią harmoniczną precyzji i czułości mikro.

                                        Główną różnicą między F1 i F jest to, że F1 jest używany w klasyfikacji wieloklasowej, podczas gdy F jest używany w klasyfikacji binarnej. W klasyfikacji wieloklasowej, F1 jest obliczany jako średnia harmoniczna precyzji i czułości dla każdej klasy, podczas gdy F jest obliczany jako średnia harmoniczna precyzji i czułości mikro.

                                        W przypadku F1, precyzja i czułość są obliczane dla każdej klasy osobno, a następnie są one łączone w średnią harmoniczną. W przypadku F, precyzja i czułość mikro są obliczane jako średnia harmoniczna precyzji i czułości dla wszystkich klas.

                                        Warto zauważyć, że F1 i F są dwoma różnymi metrykami, które mają różne cechy i wady. F1 jest bardziej wrażliwy na błędy fałszywie pozytywne, podczas gdy F jest bardziej wrażliwy na błędy fałszywie negatywne.

                                        Przykładem użycia F1 i F może być sytuacja, w której mamy model klasyfikacyjny, który jest używany do przewidywania wyników dla pacjentów z chorobą. W tym przypadku, F1 może być używany do oceny jakości modelu w klasyfikacji wieloklasowej, podczas gdy F może być używany do oceny jakości modelu w klasyfikacji binarnej.

                                        1 Reply Last reply
                                        1
                                        • S Offline
                                          S Offline
                                          student_4mq
                                          wrote on last edited by
                                          #33

                                          Co się kryje za pojęciem czułości miko?

                                          1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups