Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_dub

conversation_by_dub

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
dub2d4990663f722666wstęp do uczenia maszynowego
27 Posts 3 Posters 46 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_905_dub
    wrote on last edited by
    #10

    jaka jest optymalna proporcja zbioru uczącego i testowego?

    B 1 Reply Last reply
    0
    • S student_905_dub

      jaka jest optymalna proporcja zbioru uczącego i testowego?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #11

      Optymalna proporcja zbioru uczącego i testowego nie jest określona w opisanej w kontekście demonstracji. W Google Teachable Machine, dane są automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15, ale nie jest to optymalna proporcja. W opisanej w kontekście demonstracji, wskazano, że w innych przypadkach, zbiór testowy może obejmować aż 20% wszystkich danych, albo tylko 10%, lub nawet jeszcze mniej przy bardzo dużych zbiorach danych.

      Ważne jest, by zawsze przestrzegać kilku zasad: zbiór uczący powinien być znacząco większy od zbioru testowego, by móc skutecznie klasyfikować, model musi mieć szansę potrenować na dużym zbiorze danych. Zbiór testowy musi być jakościowo reprezentatywny dla całości danych, muszą znajdować się w nim podobne przykłady, co w zbiorze uczącym, i nie należy wprowadzać na egzamin zadań całkowicie nowego typu, którego nie było w repetytorium. Zbiór testowy musi być wystarczająco duży, by móc ocenić, czy model poprawnie (lub błędnie) klasyfikuje przykłady.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_905_dub
        wrote on last edited by
        #12

        jaka powinna być wielkość wsadu?

        B 1 Reply Last reply
        0
        • S student_905_dub

          jaka powinna być wielkość wsadu?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #13

          Wielkość wsadu (batch size) to parametr, który możemy regulować w Google Teachable Machine. W opisanej w kontekście demonstracji, domyślna wielkość wsadu jest ustawiona na 16, co oznacza, że model otrzymuje 16 przykładów na raz do trenowania w pojedynczej iteracji.

          Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednocześnie jednak, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się. Analogicznie, mniejsza wielkość wsadu oznacza mniejsze obciążenie pod kątem zasobów, zwłaszcza pamięci, jednak by osiągnąć oczekiwane rezultaty, potrzebne jest więcej epok.

          W tym przypadku, nie ma informacji o optymalnej wielkości wsadu, ale można powiedzieć, że powinna być ona dostosowana do zasobów obliczeniowych i do potrzeb modelu.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_905_dub
            wrote on last edited by
            #14

            za co odpowiada współczynnik uczenia i jakie wielkości powinien przyjmować?

            B 1 Reply Last reply
            0
            • S student_905_dub

              za co odpowiada współczynnik uczenia i jakie wielkości powinien przyjmować?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #15

              Współczynnik uczenia (learning rate) to parametr, który określa wielkość kroku w każdej iteracji podczas przesuwania się w kierunku minimum funkcji straty. Jego zadaniem jest określenie, jak duży krok jest wykonywany w tym kierunku.

              Współczynnik uczenia powinien być odpowiednio dobrany, aby osiągnąć szybszą zbieżność i uniknąć oscylacji. Za mała wartość współczynnika uczenia może spowodować, że uczenie będzie zbyt długie, a za duża wartość może spowodować, że model przeskoczy przez minimum.

              Optymalna wartość współczynnika uczenia zależy od konkretnego problemu i modelu. Wartości współczynnika uczenia mogą być następujące:

              • Za mała wartość: 0,001-0,01 (przykład: 0,001)
              • Optymalna wartość: 0,1-0,5 (przykład: 0,1)
              • Za duża wartość: 1-10 (przykład: 1)

              Wartości te są tylko przykładowe i mogą być dostosowane do konkretnego problemu i modelu. Wartości współczynnika uczenia powinny być dostosowane eksperymentalnie, aby osiągnąć najlepsze wyniki.

              Warto zauważyć, że współczynnik uczenia może być zmieniany w czasie treningu, aby osiągnąć lepsze wyniki. Można to osiągnąć za pomocą harmonogramu uczenia, który zmienia współczynnik uczenia w zależności od iteracji.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_905_dub
                wrote on last edited by
                #16

                za co odpowiada strata?

                B 1 Reply Last reply
                0
                • S student_905_dub

                  za co odpowiada strata?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #17

                  Strata to funkcja, która określa ilość błędu lub różnicy między oczekiwanym a rzeczywistym wynikiem modelu. W opisanej w kontekście demonstracji, strata jest używana do określania, jak dobrze model klasyfikuje przykłady.

                  W szczególności, strata jest używana do obliczania średniego błędu kwadratowego estymatora, R(θ, θ^) = Eθ[(θ - θ^)^2], gdzie θ jest prawdziwym parametrem, a θ^ jest estymatorem parametru.

                  Strata może być różnego rodzaju, np. strata kwadratowa, strata Savage'a, strata Tangensa, itp. Każda strata ma swoje własne cechy i zalety, a wybór straty zależy od konkretnego problemu i modelu.

                  W opisanej w kontekście demonstracji, strata jest używana do określania, jak dobrze model klasyfikuje przykłady, a także do obliczania dokładności, precyzji i F-score modelu.

                  Warto zauważyć, że strata jest ważnym elementem uczenia maszynowego, ponieważ pozwala na ocenę jakości modelu i jego zdolności do klasyfikacji przykładów.

                  1 Reply Last reply
                  1
                  • S Offline
                    S Offline
                    student_905_dub
                    wrote on last edited by
                    #18

                    jak czytać tablicę pomyłek?

                    B 1 Reply Last reply
                    0
                    • S student_905_dub

                      jak czytać tablicę pomyłek?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #19

                      Tablica pomyłek, również nazywana macierzą pomyłek, jest tabelą z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych.

                      Aby czytać tablicę pomyłek, należy zrozumieć, co oznaczają poszczególne pola w tabeli:

                      • Prawdziwie pozytywne (TP): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako pozytywne.
                      • Fałszywie negatywne (FN): Liczba przykładów, które zostały błędnie sklasyfikowane jako negatywne, pomimo tego, że są pozytywne.
                      • Fałszywie pozytywne (FP): Liczba przykładów, które zostały błędnie sklasyfikowane jako pozytywne, pomimo tego, że są negatywne.
                      • Prawdziwie negatywne (TN): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako negatywne.

                      Na przykład, jeśli w tabeli pomyłek mamy następujące dane:

                      Pozytywne Negatywne
                      Prawdziwe 80 20
                      Błędne 10 90

                      Oznacza to, że:

                      • 80 przykładów zostało prawidłowo sklasyfikowanych jako pozytywne (TP).
                      • 20 przykładów zostało prawidłowo sklasyfikowanych jako negatywne (TN).
                      • 10 przykładów zostało błędnie sklasyfikowanych jako pozytywne (FP).
                      • 90 przykładów zostało błędnie sklasyfikowanych jako negatywne (FN).

                      Ta tabela pomyłek pozwala na ocenę jakości modelu i jego zdolności do klasyfikacji przykładów.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_905_dub
                        wrote on last edited by
                        #20

                        co mówi nam wykres straty na epokę?

                        B 1 Reply Last reply
                        0
                        • S student_905_dub

                          co mówi nam wykres straty na epokę?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #21

                          Wykres straty na epokę pokazuje zmianę wartości funkcji straty wraz z postępem uczenia się modelu. W opisanej w kontekście demonstracji, wykres ten jest przedstawiony w Google Teachable Machine, w sekcji "Dla zaawansowanych". Na wykresie zaznaczono dwie linie - niebieską dla zbioru uczącego i pomarańczową dla zbioru testowego.

                          Wykres straty na epokę może nam powiedzieć, czy model się uczy, czy nie. Jeśli wartość funkcji straty maleje wraz z postępem uczenia się, oznacza to, że model się uczy i jego dokładność wzrasta. Jeśli wartość funkcji straty nie zmienia się lub zaczyna rosnąć, oznacza to, że model się nie uczy lub przeuczył się.

                          W opisanej w kontekście demonstracji, wykres straty na epokę jest używany do oceny jakości modelu i jego zdolności do klasyfikacji przykładów.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_905_dub
                            wrote on last edited by
                            #22

                            jak obliczyć precyzję dla całego modelu?

                            B 1 Reply Last reply
                            0
                            • S student_905_dub

                              jak obliczyć precyzję dla całego modelu?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #23

                              Aby obliczyć precyzję dla całego modelu, należy podzielić liczbę poprawnie rozpoznanych przykładów przez liczbę wszystkich przykładów rozpoznanych przez model jako prawidłowe.

                              Na przykład, jeśli model rozpoznał 80 przykładów jako prawidłowe i 20 z nich było poprawnie rozpoznanych, to precyzja modelu wynosi 80/100 = 0,8 lub 80%.

                              Warto zauważyć, że precyzja jest miarą dokładności modelu, a jej wartość powinna być maksymalnie możliwa, aby model był skuteczny w rozpoznawaniu przykładów.

                              1 Reply Last reply
                              1
                              • S Offline
                                S Offline
                                student_905_dub
                                wrote on last edited by
                                #24

                                dlaczego wynik w d3 wynosi 75?

                                1 Reply Last reply
                                0
                                • S Offline
                                  S Offline
                                  student_905_dub
                                  wrote on last edited by
                                  #25

                                  wytłumacz mi proszę pojęcie czułości

                                  1 Reply Last reply
                                  0
                                  • S Offline
                                    S Offline
                                    student_905_dub
                                    wrote on last edited by
                                    #26

                                    za co odpowiada czułość

                                    B 1 Reply Last reply
                                    0
                                    • S student_905_dub

                                      za co odpowiada czułość

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #27

                                      Czułość to miara zdolności modelu do rozpoznawania przykładów należących do klasy pozytywnej. Jest to miara, która określa, jak dobrze model rozpoznaje przykłady, które rzeczywiście należą do klasy pozytywnej.

                                      Czułość jest obliczana jako stosunek liczby przykładów, które zostały prawidłowo rozpoznane jako pozytywne (TP), do liczby wszystkich przykładów, które rzeczywiście należą do klasy pozytywnej (TP + FN).

                                      Na przykład, jeśli model rozpoznał 80 przykładów jako pozytywne i 20 z nich było poprawnie rozpoznanych, a w rzeczywistości 90 przykładów należało do klasy pozytywnej, to czułość modelu wynosi 80/90 = 0,89 lub 89%.

                                      Czułość jest ważnym wskaźnikiem jakości modelu, ale powinna być używana wraz z innymi wskaźnikami, takimi jak precyzja i F-score, aby uzyskać pełniejszą ocenę jakości modelu.

                                      1 Reply Last reply
                                      1
                                      Reply
                                      • Reply as topic
                                      Log in to reply
                                      • Oldest to Newest
                                      • Newest to Oldest
                                      • Most Votes


                                      • Login

                                      • Don't have an account? Register

                                      Powered by NodeBB Contributors
                                      • First post
                                        Last post
                                      0
                                      • Categories
                                      • Recent
                                      • Tags
                                      • Popular
                                      • World
                                      • Users
                                      • Groups