Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_4mq

conversation_by_4mq

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
4mq2d4990663f722666wstęp do uczenia maszynowego
37 Posts 3 Posters 77 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_4mq

    Doprecyzuj: "Dane nieprawidłowo znormalizowane: mogą one powodować, że model nie będzie mógł się nauczyć na pewnych danych."

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #13

    Odpowiedź na pytanie kursanta:

    "Dane nieprawidłowo znormalizowane" oznacza, że dane zostały znormalizowane w sposób niepoprawny, co może powodować, że model nie będzie mógł się nauczyć na pewnych danych. Przykładem może być sytuacja, w której dane zostały znormalizowane do zakresu od 0 do 1, ale niektóre dane mają wartości poza tym zakresie. W takim przypadku model może nie być w stanie przewidzieć wyników dla tych danych, ponieważ nie zostały one prawidłowo znormalizowane.

    Przykładem może być również sytuacja, w której dane zostały znormalizowane do zakresu od 0 do 1, ale niektóre dane mają wartości bardzo bliskie 0 lub 1. W takim przypadku model może nie być w stanie rozróżnić między tymi danymi a danymi, które zostały prawidłowo znormalizowane.

    W obu przypadkach, dane nieprawidłowo znormalizowane mogą powodować, że model nie będzie mógł się nauczyć na pewnych danych, co może wpłynąć na jakość modelu i jego zdolność do przewidywania wyników.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_4mq
      wrote on last edited by
      #14

      A który z błędów jest najbardziej problematyczny?

      B 1 Reply Last reply
      0
      • S student_4mq

        A który z błędów jest najbardziej problematyczny?

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #15

        Odpowiedź na pytanie kursanta:

        Najbardziej problematyczny błąd w danych jest przeuczenie (overfitting). Przeuczenie występuje, gdy model jest zbyt dobrze dopasowany do danych szkoleniowych i nie jest w stanie ogólniejszego opisu danych testowych. W takim przypadku model może być bardzo dokładny w opisaniu danych szkoleniowych, ale nie będzie w stanie przewidzieć wyników dla danych testowych.

        Przeuczenie jest szczególnie problematyczne w przypadku, gdy dostępna jest niewielka teoria, która mogłaby kierować analizą, a także gdy istnieje duża liczba modeli do wyboru. W takim przypadku przeuczenie jest realnym zagrożeniem, ponieważ model może być zbyt specyficzny dla danych szkoleniowych i nie będzie w stanie ogólniejszego opisu danych testowych.

        Przykładem przeuczenia może być sytuacja, w której model jest zbyt dobrze dopasowany do danych szkoleniowych i nie jest w stanie przewidzieć wyników dla danych testowych. Na przykład, jeśli model jest używany do przewidywania wyników dla pacjentów z chorobą, a dane szkoleniowe są bardzo specyficzne dla jednego pacjenta, model może być zbyt dobrze dopasowany do tych danych i nie będzie w stanie przewidzieć wyników dla innych pacjentów.

        1 Reply Last reply
        -1
        • S Offline
          S Offline
          student_4mq
          wrote on last edited by
          #16

          Bardziej chodziło mi o błędy wcześniej wymienione, dotyczące samych danych (ich liczebności, konstrukcji itp.)

          B 1 Reply Last reply
          0
          • S student_4mq

            Bardziej chodziło mi o błędy wcześniej wymienione, dotyczące samych danych (ich liczebności, konstrukcji itp.)

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #17

            Odpowiedź na pytanie kursanta:

            Najbardziej problematyczny błąd w danych, spośród tych, które zostały wcześniej wymienione, jest nierówna liczebność klas. Nierówna liczebność klas może powodować, że model będzie miał trudności z nauczeniem się na danych, które są rzadkie lub mało reprezentatywne. W takim przypadku model może być zbyt dobrze dopasowany do danych, które są częste, ale nie będzie w stanie ogólniejszego opisu danych, które są rzadkie.

            Przykładem nierówna liczebności klas może być sytuacja, w której model jest używany do przewidywania wyników dla pacjentów z chorobą, a dane szkoleniowe są bardzo niezrównoważone. Na przykład, jeśli dane szkoleniowe zawierają 99% pacjentów z chorobą A i 1% pacjentów z chorobą B, model może być zbyt dobrze dopasowany do danych z chorobą A i nie będzie w stanie ogólniejszego opisu danych z chorobą B.

            W takim przypadku model może być zbyt specyficzny dla danych z chorobą A i nie będzie w stanie przewidzieć wyników dla pacjentów z chorobą B. W rezultacie, model może nie być w stanie ogólniejszego opisu danych i będzie miał trudności z nauczeniem się na danych, które są rzadkie lub mało reprezentatywne.

            1 Reply Last reply
            1
            • E Online
              E Online
              eduexe.admin
              wrote on last edited by
              #18
              1 Reply Last reply
              0
              • S Offline
                S Offline
                student_4mq
                wrote on last edited by
                #19

                Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                1 Reply Last reply
                0
                • S Offline
                  S Offline
                  student_4mq
                  wrote on last edited by
                  #20

                  Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                  1 Reply Last reply
                  0
                  • S Offline
                    S Offline
                    student_4mq
                    wrote on last edited by
                    #21

                    Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                    1 Reply Last reply
                    0
                    • S Offline
                      S Offline
                      student_4mq
                      wrote on last edited by
                      #22

                      Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                      1 Reply Last reply
                      0
                      • S Offline
                        S Offline
                        student_4mq
                        wrote on last edited by
                        #23

                        Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                        1 Reply Last reply
                        0
                        • S Offline
                          S Offline
                          student_4mq
                          wrote on last edited by
                          #24

                          Jeśli istnieją zbiory testowe i treningowe, to czym jest zbiór walidacyjny?

                          1 Reply Last reply
                          0
                          • S Offline
                            S Offline
                            student_4mq
                            wrote on last edited by
                            #25

                            Czym jest zbiór walidacyjny?

                            B 1 Reply Last reply
                            0
                            • S student_4mq

                              Czym jest zbiór walidacyjny?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #26

                              Odpowiedź na pytanie kursanta:

                              Zbiór walidacyjny (ang. validation set) to zbiór danych, który jest używany do oceny jakości modelu w czasie uczenia się. Jest to zbiór danych, który jest niezależny od zbioru szkoleniowego (train set) i zbioru testowego (test set). Zbiór walidacyjny służy do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się.

                              Zbiór walidacyjny jest często używany wraz z zbiorem testowym do oceny jakości modelu. Zbiór walidacyjny jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się, podczas gdy zbiór testowy jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się i nie są znane modelowi.

                              Przykładem użycia zbioru walidacyjnego może być sytuacja, w której model jest używany do przewidywania wyników dla pacjentów z chorobą. Zbiór szkoleniowy zawiera dane dla 90% pacjentów, zbiór testowy zawiera dane dla 5% pacjentów, a zbiór walidacyjny zawiera dane dla 5% pacjentów. Model jest używany do przewidywania wyników dla pacjentów z chorobą, a zbiór walidacyjny jest używany do oceny, jak dobrze model radzi sobie z danymi, które nie są używane do uczenia się.

                              1 Reply Last reply
                              1
                              • S Offline
                                S Offline
                                student_4mq
                                wrote on last edited by
                                #27

                                A jaką najlepiej proporcję zastosować między tymi trzema zbiorami?

                                B 1 Reply Last reply
                                0
                                • S student_4mq

                                  A jaką najlepiej proporcję zastosować między tymi trzema zbiorami?

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #28

                                  Odpowiedź na pytanie kursanta:

                                  Proporcja między zbiorem szkoleniowym, zbiorem walidacyjnym i zbiorem testowym nie jest ustalona i może zależeć od konkretnego problemu i danych. Jednak ogólnie przyjmuje się, że zbiór szkoleniowy powinien stanowić około 70-80% danych, zbiór walidacyjny około 10-20% danych, a zbiór testowy około 10-20% danych.

                                  Przykładem może być sytuacja, w której mamy 1000 danych. Zbiór szkoleniowy może zawierać 700-800 danych, zbiór walidacyjny 100-200 danych, a zbiór testowy 100-200 danych.

                                  Warto zauważyć, że proporcja między zbiorem szkoleniowym, zbiorem walidacyjnym i zbiorem testowym może być dostosowana do konkretnego problemu i danych. Ważne jest, aby zbiór szkoleniowy był wystarczająco duży, aby model mógł się nauczyć, a zbiór testowy był wystarczająco duży, aby model mógł być oceniony.

                                  Jeśli chodzi o zbiór walidacyjny, to jego głównym celem jest ocena jakości modelu w czasie uczenia się. Zbiór walidacyjny powinien być wystarczająco duży, aby model mógł być oceniony, ale nie powinien być zbyt duży, aby nie przeszkadzał modelowi w uczeniu się.

                                  Warto również zauważyć, że zbiór walidacyjny może być używany do oceny jakości modelu w różnych etapach uczenia się. Na przykład, zbiór walidacyjny może być używany do oceny jakości modelu po każdym etapie uczenia się, aby upewnić się, że model jest w stanie się uczyć i poprawiać swoją jakość.

                                  1 Reply Last reply
                                  1
                                  • S Offline
                                    S Offline
                                    student_4mq
                                    wrote on last edited by
                                    #29

                                    Przytocz jeszcze jakieś inne metryki oprócz dokładności, precyzji, czułości oraz F-score, którą mogą być używane do klasyfikacji

                                    B 1 Reply Last reply
                                    0
                                    • S student_4mq

                                      Przytocz jeszcze jakieś inne metryki oprócz dokładności, precyzji, czułości oraz F-score, którą mogą być używane do klasyfikacji

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #30

                                      Oprócz dokładności, precyzji, czułości i F-score, istnieją inne metryki, które mogą być używane do klasyfikacji. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve), która określa zdolność modelu do rozróżniania między klasami.

                                      Metryka AUC-ROC jest wyrażona jako wartość między 0 a 1, gdzie 1 oznacza, że model jest w stanie idealnie rozróżnić między klasami, a 0 oznacza, że model nie jest w stanie rozróżnić między klasami.

                                      Inną metryką jest metryka F1-score, która jest podobna do F-score, ale jest bardziej wrażliwa na błędy fałszywie pozytywne. F1-score jest obliczany jako średnia harmoniczna precyzji i czułości.

                                      Metryka Matthews, znana również jako metryka MCC (Matthews Correlation Coefficient), jest inna metryka, która określa zdolność modelu do rozróżniania między klasami. Metryka Matthews jest wyrażona jako wartość między -1 a 1, gdzie 1 oznacza, że model jest w stanie idealnie rozróżnić między klasami, a -1 oznacza, że model nie jest w stanie rozróżnić między klasami.

                                      Warto zauważyć, że te metryki mogą być używane w różnych sytuacjach, w zależności od konkretnego problemu i danych.

                                      1 Reply Last reply
                                      1
                                      • S Offline
                                        S Offline
                                        student_4mq
                                        wrote on last edited by
                                        #31

                                        To czym się różnią F1 oraz F? W obu przypadkach nie liczymy średniej harmonicznej tak samo czasem?

                                        B 1 Reply Last reply
                                        0
                                        • S student_4mq

                                          To czym się różnią F1 oraz F? W obu przypadkach nie liczymy średniej harmonicznej tak samo czasem?

                                          B Offline
                                          B Offline
                                          bot_external
                                          wrote on last edited by
                                          #32

                                          Odpowiedź na pytanie kursanta:

                                          F1 i F są dwoma różnymi metrykami, które są używane do oceny jakości modelu klasyfikacyjnego. F1 jest średnią harmoniczną precyzji i czułości, podczas gdy F jest średnią harmoniczną precyzji i czułości mikro.

                                          Główną różnicą między F1 i F jest to, że F1 jest używany w klasyfikacji wieloklasowej, podczas gdy F jest używany w klasyfikacji binarnej. W klasyfikacji wieloklasowej, F1 jest obliczany jako średnia harmoniczna precyzji i czułości dla każdej klasy, podczas gdy F jest obliczany jako średnia harmoniczna precyzji i czułości mikro.

                                          W przypadku F1, precyzja i czułość są obliczane dla każdej klasy osobno, a następnie są one łączone w średnią harmoniczną. W przypadku F, precyzja i czułość mikro są obliczane jako średnia harmoniczna precyzji i czułości dla wszystkich klas.

                                          Warto zauważyć, że F1 i F są dwoma różnymi metrykami, które mają różne cechy i wady. F1 jest bardziej wrażliwy na błędy fałszywie pozytywne, podczas gdy F jest bardziej wrażliwy na błędy fałszywie negatywne.

                                          Przykładem użycia F1 i F może być sytuacja, w której mamy model klasyfikacyjny, który jest używany do przewidywania wyników dla pacjentów z chorobą. W tym przypadku, F1 może być używany do oceny jakości modelu w klasyfikacji wieloklasowej, podczas gdy F może być używany do oceny jakości modelu w klasyfikacji binarnej.

                                          1 Reply Last reply
                                          1
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups