Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_h7j

conversation_by_h7j

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
h7j2d4990663f722666wstęp do uczenia maszynowego
35 Posts 3 Posters 51 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_905_h7j
    wrote on last edited by
    #8

    Jaki jest najlepszy sposób z radzeniem sobie z "przypadkami granicznymi" w kontekście problemu klasyfikacji?

    B 1 Reply Last reply
    0
    • S student_905_h7j

      Jaki jest najlepszy sposób z radzeniem sobie z "przypadkami granicznymi" w kontekście problemu klasyfikacji?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #9

      W kontekście problemu klasyfikacji, "przypadki graniczne" odnoszą się do sytuacji, w których dane wejściowe są niepewne lub niejednoznaczne, co utrudnia modelowi klasyfikacji podejmowanie decyzji. W takich przypadkach, mamy dwa wyjścia:

      1. Dodanie dodatkowych danych: jeśli dysponujemy dodatkowymi danymi łącznie z ich prawidłową, jednoznaczną identyfikacją, możemy poszukać w nich więcej podobnych przypadków granicznych, a następnie dodać je do prawidłowych dla nich klas. Musi się ich jednak zebrać więcej niż kilka, by nasze działanie mogło odnieść skutek.
      2. Stworzenie klasy pośredniej: jeśli sami nie dysponujemy prawidłową odpowiedzią w przypadkach granicznych, możemy stworzyć klasę pośrednią, w tym wypadku np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.

      Warto zauważyć, że w przypadku granicznym, model klasyfikacji może się zatrzymać na jednej z możliwych klas, ale nie jest w stanie zdecydować się na żadną z nich. W takich przypadkach, dodanie dodatkowych danych lub stworzenie klasy pośredniej może pomóc modelowi klasyfikacji podejmować bardziej świadome decyzje.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_905_h7j
        wrote on last edited by
        #10

        w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

        1 Reply Last reply
        0
        • S Offline
          S Offline
          student_905_h7j
          wrote on last edited by
          #11

          w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

          1 Reply Last reply
          0
          • S Offline
            S Offline
            student_905_h7j
            wrote on last edited by
            #12

            w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?

            B 1 Reply Last reply
            0
            • S student_905_h7j

              w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #13

              W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz kliknąć przycisk "Dla zaawansowanych". To pozwoli Ci uzyskać dostęp do dodatkowych informacji i narzędzi, takich jak macierz pomyłek, która jest ważnym narzędziem do oceny modelu.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_905_h7j
                wrote on last edited by
                #14

                w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

                1 Reply Last reply
                0
                • S Offline
                  S Offline
                  student_905_h7j
                  wrote on last edited by
                  #15

                  czy w google teachable machine można zmienić podział zbioru uczącego i testowego?

                  B 1 Reply Last reply
                  0
                  • S student_905_h7j

                    czy w google teachable machine można zmienić podział zbioru uczącego i testowego?

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #16

                    Nie, w Google Teachable Machine nie można zmienić podziału zbioru uczącego i testowego. Zbiór danych jest automatycznie dzielony na zbiór uczący i zbiór testowy w proporcji 85:15, a ta proporcja nie może być zmieniona.

                    1 Reply Last reply
                    1
                    • S Offline
                      S Offline
                      student_905_h7j
                      wrote on last edited by
                      #17

                      Dlaczego akurat ta proporcja wynosi 85:15?

                      B 1 Reply Last reply
                      0
                      • S student_905_h7j

                        Dlaczego akurat ta proporcja wynosi 85:15?

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #18

                        W Google Teachable Machine, proporcja 85:15 jest ustalona jako domyślna proporcja podziału zbioru danych na zbiór uczący i zbiór testowy. Nie jest to jednak jedyna możliwa proporcja, a w innych przypadkach może być stosowana proporcja 20:80, 10:90 lub nawet mniejsza proporcja przy bardzo dużych zbiorach danych.

                        Warto zauważyć, że proporcja 85:15 jest wybrana w celu zapewnienia wystarczającej ilości danych w obu zbiorach, aby model mógł być odpowiednio wytrenowany i oceniony. Zbiór uczący powinien być znacząco większy od zbioru testowego, aby model mógł skutecznie klasyfikować dane, a zbiór testowy musi być jakościowo reprezentatywny dla całości danych.

                        1 Reply Last reply
                        1
                        • S Offline
                          S Offline
                          student_905_h7j
                          wrote on last edited by
                          #19

                          Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?

                          B 1 Reply Last reply
                          0
                          • S student_905_h7j

                            Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #20

                            Nie ma w kontekście żadnych informacji, które by wskazywały, dlaczego proporcja 85:15 została wybrana jako domyślna. Jest to raczej ustalenie techniczne, a nie oparte na jakichś matematycznych podstawach.

                            1 Reply Last reply
                            1
                            • S Offline
                              S Offline
                              student_905_h7j
                              wrote on last edited by
                              #21

                              w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

                              B 1 Reply Last reply
                              0
                              • S student_905_h7j

                                w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

                                B Offline
                                B Offline
                                bot_external
                                wrote on last edited by
                                #22

                                W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz znaleźć ustawienia takie jak: epoki, wielkość wsadu i tempo uczenia się.

                                • Epoki: Epoka to pojedyncze przejście modelu przez cały zbiór uczący w procesie trenowania. Im więcej epok, tym model ma więcej możliwości doświadczenia i poprawy swoich wyników. Jednak zbyt wiele epok może spowodować przeuczenie się modelu, czyli nadmierną adaptację do danych treningowych, co może negatywnie wpłynąć na jego zdolność do generalizacji.
                                • Wielkość wsadu: Wielkość wsadu to rozmiar porcji treningowej, czyli liczba przykładów, jaką model otrzymuje na raz do trenowania w pojedynczej iteracji swojego działania. Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednakże, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się.
                                • Tempo uczenia się: Tempo uczenia się to parametr, który określa, jak duże kroki w kierunku poprawnego rozwiązania po każdej nowej ekspozycji na dane model będzie wykonywał. Za mała wartość może bardzo wydłużyć proces uczenia się, a za duża może sprawić, że model nigdy nie osiągnie oczekiwanego rozwijania, tylko będzie ciągle je przeskakiwał w tę i z powrotem.

                                Jeśli zmienisz te ustawienia, możesz wpłynąć na proces uczenia się modelu. Na przykład, jeśli zmienisz wielkość wsadu na większą, model będzie potrzebował więcej zasobów obliczeniowych, ale może osiągnąć lepsze wyniki w krótszym czasie. Jednak, jeśli zmienisz tempo uczenia się na zbyt duże, model może przeuczyć się i nie osiągnąć oczekiwanego rozwijania.

                                1 Reply Last reply
                                1
                                • S Offline
                                  S Offline
                                  student_905_h7j
                                  wrote on last edited by
                                  #23

                                  Co jest lepsze: duży parametr wsady i mało epok czy mały wsad a dużo epok?

                                  1 Reply Last reply
                                  0
                                  • S Offline
                                    S Offline
                                    student_905_h7j
                                    wrote on last edited by
                                    #24

                                    Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?

                                    B 1 Reply Last reply
                                    0
                                    • S student_905_h7j

                                      Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #25

                                      Tak, istnieje różnica między dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok.

                                      Jeśli wielkość wsadu jest duża, model otrzymuje więcej przykładów do trenowania w pojedynczej iteracji, co może przyspieszyć proces uczenia się, ale wymaga więcej zasobów obliczeniowych. W tym przypadku, mniejsza ilość epok może być wystarczająca, aby osiągnąć zadowalające efekty uczenia się.

                                      Z drugiej strony, jeśli wielkość wsadu jest mała, model otrzymuje mniej przykładów do trenowania w pojedynczej iteracji, co może spowodować wolniejszy proces uczenia się. W tym przypadku, większa ilość epok może być potrzebna, aby osiągnąć zadowalające efekty uczenia się.

                                      Przykładowo, jeśli wielkość wsadu jest 32 i ilość epok jest 10, model otrzymuje 320 przykładów do trenowania w 10 iteracjach. Jeśli wielkość wsadu jest zmniejszona do 16, model otrzymuje 160 przykładów do trenowania w 20 iteracjach. W tym przypadku, większa ilość epok jest potrzebna, aby osiągnąć zadowalające efekty uczenia się.

                                      Warto zauważyć, że optymalne ustawienia wielkości wsadu i ilości epok zależą od konkretnego modelu i danych treningowych. Dlatego ważne jest, aby przetestować różne kombinacje ustawień i obserwować, jak wpływają one na wyniki modelu.

                                      1 Reply Last reply
                                      1
                                      • S Offline
                                        S Offline
                                        student_905_h7j
                                        wrote on last edited by
                                        #26

                                        czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?

                                        B 1 Reply Last reply
                                        0
                                        • S student_905_h7j

                                          czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?

                                          B Offline
                                          B Offline
                                          bot_external
                                          wrote on last edited by
                                          #27

                                          W kontekście rozmów o metrykach w AI, false positive (FP) i false negative (FN) są dwoma rodzajami błędów, które mogą wystąpić w modelach AI.

                                          False Positive (FP): To sytuacja, w której model AI sklasyfikuje przykład jako pozytywny (np. chory), podczas gdy w rzeczywistości jest on negatywny (np. zdrowy). Inaczej mówiąc, model AI zdiagnozuje chorobę u osoby, która w rzeczywistości nie ma tej choroby.

                                          False Negative (FN): To sytuacja, w której model AI sklasyfikuje przykład jako negatywny (np. zdrowy), podczas gdy w rzeczywistości jest on pozytywny (np. chory). Inaczej mówiąc, model AI nie zdiagnozuje choroby u osoby, która w rzeczywistości ją ma.

                                          W zależności od kontekstu, FP i FN mogą mieć różne konsekwencje. Na przykład, w przypadku modelu AI, który ma za zadanie wykrywać choroby, FP mogą prowadzić do niepotrzebnych leczeń, podczas gdy FN mogą prowadzić do opóźnień w leczeniu.

                                          Warto zauważyć, że FP i FN są częścią macierzy pomyłek, która jest używana do oceny jakości modelu AI.

                                          1 Reply Last reply
                                          1
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups