Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_dub

conversation_by_dub

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
dub2d4990663f722666wstęp do uczenia maszynowego
27 Posts 3 Posters 46 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_905_dub

    co zrobić w przypadku niezdecydowania w wyniku modelu?

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #7

    W przypadku niezdecydowania w wyniku modelu, należy sprawdzić macierz pomyłek w Google Teachable Machine. Macierz pomyłek pokazuje, jak często model błędnie klasyfikuje przykłady z różnych klas. Można również obliczyć dokładność, precyzję i F-score modelu, aby lepiej zrozumieć jego wyniki.

    W opisanej w kontekście demonstracji, model A ma F-score na poziomie 80%, co oznacza, że model jest dość dokładny, ale może popełniać błędy. W takim przypadku, należy sprawdzić macierz pomyłek, aby zrozumieć, jakie klasy są najczęściej błędnie klasyfikowane.

    Przykładowo, jeśli w macierzy pomyłek widzimy, że model często błędnie klasyfikuje przykłady z klasy "4" jako klasy "3", to może to wskazywać na to, że model potrzebuje więcej danych z klasy "4" lub że potrzebuje poprawy w swojej architekturze.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_905_dub
      wrote on last edited by
      #8

      czy liczebność przykładów klas ma znaczenie w modelu?

      B 1 Reply Last reply
      0
      • S student_905_dub

        czy liczebność przykładów klas ma znaczenie w modelu?

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #9

        Tak, liczebność przykładów klas ma znaczenie w modelu. W opisanej w kontekście demonstracji, model zignorował klasę mniej liczną (chorych) i automatycznie przypisał wszystkie przykłady do klasy dominującej (zdrowych), osiągając przy tym bardzo wysoką dokładność (accuracy) na poziomie 99%. To pokazuje, że model nie potrafił prawidłowo zdiagnozować osoby chorej, ponieważ nie miał wystarczającej liczby przykładów z klasy "chorych".

        W takim przypadku, model nie potrafił obliczyć precyzji, ponieważ nie mógł dzielić przez zero. To pokazuje, że liczebność przykładów klas ma znaczenie w modelu i że model powinien być trenowany na danych, które reprezentują różne klasy w sposób równomierny.

        1 Reply Last reply
        1
        • S Offline
          S Offline
          student_905_dub
          wrote on last edited by
          #10

          jaka jest optymalna proporcja zbioru uczącego i testowego?

          B 1 Reply Last reply
          0
          • S student_905_dub

            jaka jest optymalna proporcja zbioru uczącego i testowego?

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #11

            Optymalna proporcja zbioru uczącego i testowego nie jest określona w opisanej w kontekście demonstracji. W Google Teachable Machine, dane są automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15, ale nie jest to optymalna proporcja. W opisanej w kontekście demonstracji, wskazano, że w innych przypadkach, zbiór testowy może obejmować aż 20% wszystkich danych, albo tylko 10%, lub nawet jeszcze mniej przy bardzo dużych zbiorach danych.

            Ważne jest, by zawsze przestrzegać kilku zasad: zbiór uczący powinien być znacząco większy od zbioru testowego, by móc skutecznie klasyfikować, model musi mieć szansę potrenować na dużym zbiorze danych. Zbiór testowy musi być jakościowo reprezentatywny dla całości danych, muszą znajdować się w nim podobne przykłady, co w zbiorze uczącym, i nie należy wprowadzać na egzamin zadań całkowicie nowego typu, którego nie było w repetytorium. Zbiór testowy musi być wystarczająco duży, by móc ocenić, czy model poprawnie (lub błędnie) klasyfikuje przykłady.

            1 Reply Last reply
            1
            • S Offline
              S Offline
              student_905_dub
              wrote on last edited by
              #12

              jaka powinna być wielkość wsadu?

              B 1 Reply Last reply
              0
              • S student_905_dub

                jaka powinna być wielkość wsadu?

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #13

                Wielkość wsadu (batch size) to parametr, który możemy regulować w Google Teachable Machine. W opisanej w kontekście demonstracji, domyślna wielkość wsadu jest ustawiona na 16, co oznacza, że model otrzymuje 16 przykładów na raz do trenowania w pojedynczej iteracji.

                Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednocześnie jednak, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się. Analogicznie, mniejsza wielkość wsadu oznacza mniejsze obciążenie pod kątem zasobów, zwłaszcza pamięci, jednak by osiągnąć oczekiwane rezultaty, potrzebne jest więcej epok.

                W tym przypadku, nie ma informacji o optymalnej wielkości wsadu, ale można powiedzieć, że powinna być ona dostosowana do zasobów obliczeniowych i do potrzeb modelu.

                1 Reply Last reply
                1
                • S Offline
                  S Offline
                  student_905_dub
                  wrote on last edited by
                  #14

                  za co odpowiada współczynnik uczenia i jakie wielkości powinien przyjmować?

                  B 1 Reply Last reply
                  0
                  • S student_905_dub

                    za co odpowiada współczynnik uczenia i jakie wielkości powinien przyjmować?

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #15

                    Współczynnik uczenia (learning rate) to parametr, który określa wielkość kroku w każdej iteracji podczas przesuwania się w kierunku minimum funkcji straty. Jego zadaniem jest określenie, jak duży krok jest wykonywany w tym kierunku.

                    Współczynnik uczenia powinien być odpowiednio dobrany, aby osiągnąć szybszą zbieżność i uniknąć oscylacji. Za mała wartość współczynnika uczenia może spowodować, że uczenie będzie zbyt długie, a za duża wartość może spowodować, że model przeskoczy przez minimum.

                    Optymalna wartość współczynnika uczenia zależy od konkretnego problemu i modelu. Wartości współczynnika uczenia mogą być następujące:

                    • Za mała wartość: 0,001-0,01 (przykład: 0,001)
                    • Optymalna wartość: 0,1-0,5 (przykład: 0,1)
                    • Za duża wartość: 1-10 (przykład: 1)

                    Wartości te są tylko przykładowe i mogą być dostosowane do konkretnego problemu i modelu. Wartości współczynnika uczenia powinny być dostosowane eksperymentalnie, aby osiągnąć najlepsze wyniki.

                    Warto zauważyć, że współczynnik uczenia może być zmieniany w czasie treningu, aby osiągnąć lepsze wyniki. Można to osiągnąć za pomocą harmonogramu uczenia, który zmienia współczynnik uczenia w zależności od iteracji.

                    1 Reply Last reply
                    1
                    • S Offline
                      S Offline
                      student_905_dub
                      wrote on last edited by
                      #16

                      za co odpowiada strata?

                      B 1 Reply Last reply
                      0
                      • S student_905_dub

                        za co odpowiada strata?

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #17

                        Strata to funkcja, która określa ilość błędu lub różnicy między oczekiwanym a rzeczywistym wynikiem modelu. W opisanej w kontekście demonstracji, strata jest używana do określania, jak dobrze model klasyfikuje przykłady.

                        W szczególności, strata jest używana do obliczania średniego błędu kwadratowego estymatora, R(θ, θ^) = Eθ[(θ - θ^)^2], gdzie θ jest prawdziwym parametrem, a θ^ jest estymatorem parametru.

                        Strata może być różnego rodzaju, np. strata kwadratowa, strata Savage'a, strata Tangensa, itp. Każda strata ma swoje własne cechy i zalety, a wybór straty zależy od konkretnego problemu i modelu.

                        W opisanej w kontekście demonstracji, strata jest używana do określania, jak dobrze model klasyfikuje przykłady, a także do obliczania dokładności, precyzji i F-score modelu.

                        Warto zauważyć, że strata jest ważnym elementem uczenia maszynowego, ponieważ pozwala na ocenę jakości modelu i jego zdolności do klasyfikacji przykładów.

                        1 Reply Last reply
                        1
                        • S Offline
                          S Offline
                          student_905_dub
                          wrote on last edited by
                          #18

                          jak czytać tablicę pomyłek?

                          B 1 Reply Last reply
                          0
                          • S student_905_dub

                            jak czytać tablicę pomyłek?

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #19

                            Tablica pomyłek, również nazywana macierzą pomyłek, jest tabelą z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych.

                            Aby czytać tablicę pomyłek, należy zrozumieć, co oznaczają poszczególne pola w tabeli:

                            • Prawdziwie pozytywne (TP): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako pozytywne.
                            • Fałszywie negatywne (FN): Liczba przykładów, które zostały błędnie sklasyfikowane jako negatywne, pomimo tego, że są pozytywne.
                            • Fałszywie pozytywne (FP): Liczba przykładów, które zostały błędnie sklasyfikowane jako pozytywne, pomimo tego, że są negatywne.
                            • Prawdziwie negatywne (TN): Liczba przykładów, które zostały prawidłowo sklasyfikowane jako negatywne.

                            Na przykład, jeśli w tabeli pomyłek mamy następujące dane:

                            Pozytywne Negatywne
                            Prawdziwe 80 20
                            Błędne 10 90

                            Oznacza to, że:

                            • 80 przykładów zostało prawidłowo sklasyfikowanych jako pozytywne (TP).
                            • 20 przykładów zostało prawidłowo sklasyfikowanych jako negatywne (TN).
                            • 10 przykładów zostało błędnie sklasyfikowanych jako pozytywne (FP).
                            • 90 przykładów zostało błędnie sklasyfikowanych jako negatywne (FN).

                            Ta tabela pomyłek pozwala na ocenę jakości modelu i jego zdolności do klasyfikacji przykładów.

                            1 Reply Last reply
                            1
                            • S Offline
                              S Offline
                              student_905_dub
                              wrote on last edited by
                              #20

                              co mówi nam wykres straty na epokę?

                              B 1 Reply Last reply
                              0
                              • S student_905_dub

                                co mówi nam wykres straty na epokę?

                                B Offline
                                B Offline
                                bot_external
                                wrote on last edited by
                                #21

                                Wykres straty na epokę pokazuje zmianę wartości funkcji straty wraz z postępem uczenia się modelu. W opisanej w kontekście demonstracji, wykres ten jest przedstawiony w Google Teachable Machine, w sekcji "Dla zaawansowanych". Na wykresie zaznaczono dwie linie - niebieską dla zbioru uczącego i pomarańczową dla zbioru testowego.

                                Wykres straty na epokę może nam powiedzieć, czy model się uczy, czy nie. Jeśli wartość funkcji straty maleje wraz z postępem uczenia się, oznacza to, że model się uczy i jego dokładność wzrasta. Jeśli wartość funkcji straty nie zmienia się lub zaczyna rosnąć, oznacza to, że model się nie uczy lub przeuczył się.

                                W opisanej w kontekście demonstracji, wykres straty na epokę jest używany do oceny jakości modelu i jego zdolności do klasyfikacji przykładów.

                                1 Reply Last reply
                                1
                                • S Offline
                                  S Offline
                                  student_905_dub
                                  wrote on last edited by
                                  #22

                                  jak obliczyć precyzję dla całego modelu?

                                  B 1 Reply Last reply
                                  0
                                  • S student_905_dub

                                    jak obliczyć precyzję dla całego modelu?

                                    B Offline
                                    B Offline
                                    bot_external
                                    wrote on last edited by
                                    #23

                                    Aby obliczyć precyzję dla całego modelu, należy podzielić liczbę poprawnie rozpoznanych przykładów przez liczbę wszystkich przykładów rozpoznanych przez model jako prawidłowe.

                                    Na przykład, jeśli model rozpoznał 80 przykładów jako prawidłowe i 20 z nich było poprawnie rozpoznanych, to precyzja modelu wynosi 80/100 = 0,8 lub 80%.

                                    Warto zauważyć, że precyzja jest miarą dokładności modelu, a jej wartość powinna być maksymalnie możliwa, aby model był skuteczny w rozpoznawaniu przykładów.

                                    1 Reply Last reply
                                    1
                                    • S Offline
                                      S Offline
                                      student_905_dub
                                      wrote on last edited by
                                      #24

                                      dlaczego wynik w d3 wynosi 75?

                                      1 Reply Last reply
                                      0
                                      • S Offline
                                        S Offline
                                        student_905_dub
                                        wrote on last edited by
                                        #25

                                        wytłumacz mi proszę pojęcie czułości

                                        1 Reply Last reply
                                        0
                                        • S Offline
                                          S Offline
                                          student_905_dub
                                          wrote on last edited by
                                          #26

                                          za co odpowiada czułość

                                          B 1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups