Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_a59

conversation_by_a59

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
a592d4990663f722666wstęp do uczenia maszynowego
31 Posts 3 Posters 66 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_a59
    wrote on last edited by
    #18

    A w przypadku własnego modelu CNN w np. PyTorch?

    B 1 Reply Last reply
    0
    • S student_a59

      A w przypadku własnego modelu CNN w np. PyTorch?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #19

      W przypadku własnego modelu CNN w PyTorch, podział danych treningowych i testowych nie jest automatycznie przydzielany przez GTM, jak w przypadku Google Teachable Machine. Zazwyczaj, w przypadku modeli CNN, podział danych treningowych i testowych jest przydzielany w proporcji 80:20 lub 90:10, w zależności od potrzeb i celów modelu.

      Proporcja 80:20 oznacza, że 80% danych jest używanych do treningu modelu, a 20% do testowania. Proporcja 90:10 oznacza, że 90% danych jest używanych do treningu modelu, a 10% do testowania.

      Warto zauważyć, że podział danych treningowych i testowych powinien być losowy i niezależny od danych samego modelu. Im większa różnica między danymi treningowymi i testowymi, tym lepsza jest ocena dokładności modelu.

      W przypadku własnego modelu CNN w PyTorch, można użyć bibliotek takich jak scikit-learn lub TensorFlow, aby automatycznie przydzielić podział danych treningowych i testowych.

      1 Reply Last reply
      -1
      • S Offline
        S Offline
        student_a59
        wrote on last edited by
        #20

        Jak zapobiegać przeuczeniu?

        B 1 Reply Last reply
        0
        • S student_a59

          Jak zapobiegać przeuczeniu?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #21

          Zapobieganie przeuczeniu jest ważnym aspektem uczenia maszynowego. W kontekście strukturalnego ryzyka minimalizacji, zapobieganie przeuczeniu może być osiągnięte poprzez włączenie kary regularyzacyjnej do optymalizacji. Kara regularyzacyjna może być implementowana w postaci formy brzytwy Ockhama, która preferuje prostsze funkcje nad bardziej złożonymi.

          Popularną karą regularyzacyjną jest kwadrat normy euklidesowej wag, znaną również jako normę L2. Inne normy obejmują normę L1, ∑j|βj|, oraz "normę" L0, która jest liczbą niezerowych βj. Kara regularyzacyjna będzie oznaczona przez C(g).

          Problem optymalizacji uczenia się nadzorowanego polega na znalezieniu funkcji g, która minimalizuje J(g) = Remp(g) + λC(g). Parametr λ kontroluje kompromis między obciążeniem a wariancją. Im większa wartość λ, tym model będzie miał wysokie obciążenie i niską wariancję.

          Dodatkowo, w kontekście sztucznej inteligencji, regularyzacja jest zbiorem technik, takich jak dropout, wczesne zatrzymywanie oraz regularyzacja L1 i L2, mających na celu zmniejszenie przeuczenia i niedouczenia podczas trenowania algorytmu uczenia się.

          1 Reply Last reply
          -1
          • S Offline
            S Offline
            student_a59
            wrote on last edited by
            #22

            Jaki rozmiar ma macierz pomyłek

            B 1 Reply Last reply
            0
            • S student_a59

              Jaki rozmiar ma macierz pomyłek

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #23

              Nie mogę znaleźć informacji o rozmiarze macierzy pomyłek w dostępnym kontekście.

              1 Reply Last reply
              -1
              • S Offline
                S Offline
                student_a59
                wrote on last edited by
                #24

                Jaki rozmiar ma macierz pomyłek zależnie od ilości klas

                B 1 Reply Last reply
                0
                • S student_a59

                  Jaki rozmiar ma macierz pomyłek zależnie od ilości klas

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #25

                  Nie mogę znaleźć informacji o rozmiarze macierzy pomyłek w dostępnym kontekście.

                  1 Reply Last reply
                  -1
                  • S Offline
                    S Offline
                    student_a59
                    wrote on last edited by
                    #26

                    Jak obliczyć dokładność modelu UM?

                    B 1 Reply Last reply
                    0
                    • S student_a59

                      Jak obliczyć dokładność modelu UM?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #27

                      Dokładność (ang. Accuracy) modelu Uczenia Maszynowego (UM) to stosunek poprawnie zaklasyfikowanych przez model przykładów testowych do wszystkich przykładów testowych. Im większa wartość dokładności, tym lepiej - jeżeli model będzie się zawsze mylił, dokładność wyniesie 0, natomiast jeżeli wszystkie testowe przypadki zostaną zaklasyfikowane poprawnie, dokładność wyniesie 1.

                      Aby obliczyć dokładność modelu UM, należy podzielić liczbę poprawnie zaklasyfikowanych przykładów testowych przez ogólną liczbę przykładów testowych.

                      Przykład: Jeśli model UM zaklasyfikował 88 przykładów testowych poprawnie spośród 100, to dokładność modelu wyniesie 88/100 = 0,88.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_a59
                        wrote on last edited by
                        #28

                        Jak obliczyć F-Score?

                        B 1 Reply Last reply
                        0
                        • S student_a59

                          Jak obliczyć F-Score?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #29

                          F-Score obliczamy jako średnią harmoniczną precyzji (precision) i czułości (recall). Aby obliczyć F-Score, należy najpierw obliczyć precyzję i czułość modelu.

                          Precyzja to liczba poprawnie rozpoznanych przez model przykładów pozytywnych (przykłady prawdziwie pozytywne) podzielona przez liczbę wszystkich przykładów rozpoznanych przez model jako pozytywne.

                          Czułość to liczba poprawnie rozpoznanych przez model przykładów pozytywnych (przykłady prawdziwie pozytywne) podzielona przez liczbę wszystkich przykładów, które powinny być rozpoznane jako pozytyny.

                          Po obliczeniu precyzji i czułości, podstawiamy obie wartości do wzoru i obliczamy F-Score.

                          Przykład: Jeśli model ma precyzję 80% i czułość 80%, to F-Score wyniesie 0,8.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_a59
                            wrote on last edited by
                            #30

                            Jak obliczyć precyzję

                            B 1 Reply Last reply
                            0
                            • S student_a59

                              Jak obliczyć precyzję

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #31

                              Precyzja to liczba poprawnie rozpoznanych przez model przykładów pozytywnych (przykłady prawdziwie pozytywne) podzielona przez liczbę wszystkich przykładów rozpoznanych przez model jako pozytywne.

                              Aby obliczyć precyzję, należy podzielić liczbę poprawnie rozpoznanych przez model przykładów pozytywnych przez liczbę wszystkich przykładów rozpoznanych przez model jako pozytywne.

                              Przykład: Jeśli model rozpoznał 27 przykładów jako pozytywne i wszystkie one były prawdziwie pozytywne, to precyzja modelu wyniesie 27/27 = 1, czyli 100%.

                              1 Reply Last reply
                              1
                              Reply
                              • Reply as topic
                              Log in to reply
                              • Oldest to Newest
                              • Newest to Oldest
                              • Most Votes


                              • Login

                              • Don't have an account? Register

                              Powered by NodeBB Contributors
                              • First post
                                Last post
                              0
                              • Categories
                              • Recent
                              • Tags
                              • Popular
                              • World
                              • Users
                              • Groups