Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_h7j

conversation_by_h7j

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
h7j2d4990663f722666wstęp do uczenia maszynowego
35 Posts 3 Posters 51 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_905_h7j

    Jaki jest najlepszy sposób z radzeniem sobie z "przypadkami granicznymi" w kontekście problemu klasyfikacji?

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #9

    W kontekście problemu klasyfikacji, "przypadki graniczne" odnoszą się do sytuacji, w których dane wejściowe są niepewne lub niejednoznaczne, co utrudnia modelowi klasyfikacji podejmowanie decyzji. W takich przypadkach, mamy dwa wyjścia:

    1. Dodanie dodatkowych danych: jeśli dysponujemy dodatkowymi danymi łącznie z ich prawidłową, jednoznaczną identyfikacją, możemy poszukać w nich więcej podobnych przypadków granicznych, a następnie dodać je do prawidłowych dla nich klas. Musi się ich jednak zebrać więcej niż kilka, by nasze działanie mogło odnieść skutek.
    2. Stworzenie klasy pośredniej: jeśli sami nie dysponujemy prawidłową odpowiedzią w przypadkach granicznych, możemy stworzyć klasę pośrednią, w tym wypadku np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.

    Warto zauważyć, że w przypadku granicznym, model klasyfikacji może się zatrzymać na jednej z możliwych klas, ale nie jest w stanie zdecydować się na żadną z nich. W takich przypadkach, dodanie dodatkowych danych lub stworzenie klasy pośredniej może pomóc modelowi klasyfikacji podejmować bardziej świadome decyzje.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_905_h7j
      wrote on last edited by
      #10

      w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

      1 Reply Last reply
      0
      • S Offline
        S Offline
        student_905_h7j
        wrote on last edited by
        #11

        w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

        1 Reply Last reply
        0
        • S Offline
          S Offline
          student_905_h7j
          wrote on last edited by
          #12

          w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?

          B 1 Reply Last reply
          0
          • S student_905_h7j

            w google teachable machine czy w zakładce zaawansowane podczas treningu mam coś klikać?

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #13

            W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz kliknąć przycisk "Dla zaawansowanych". To pozwoli Ci uzyskać dostęp do dodatkowych informacji i narzędzi, takich jak macierz pomyłek, która jest ważnym narzędziem do oceny modelu.

            1 Reply Last reply
            1
            • S Offline
              S Offline
              student_905_h7j
              wrote on last edited by
              #14

              w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

              1 Reply Last reply
              0
              • S Offline
                S Offline
                student_905_h7j
                wrote on last edited by
                #15

                czy w google teachable machine można zmienić podział zbioru uczącego i testowego?

                B 1 Reply Last reply
                0
                • S student_905_h7j

                  czy w google teachable machine można zmienić podział zbioru uczącego i testowego?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #16

                  Nie, w Google Teachable Machine nie można zmienić podziału zbioru uczącego i testowego. Zbiór danych jest automatycznie dzielony na zbiór uczący i zbiór testowy w proporcji 85:15, a ta proporcja nie może być zmieniona.

                  1 Reply Last reply
                  1
                  • S Offline
                    S Offline
                    student_905_h7j
                    wrote on last edited by
                    #17

                    Dlaczego akurat ta proporcja wynosi 85:15?

                    B 1 Reply Last reply
                    0
                    • S student_905_h7j

                      Dlaczego akurat ta proporcja wynosi 85:15?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #18

                      W Google Teachable Machine, proporcja 85:15 jest ustalona jako domyślna proporcja podziału zbioru danych na zbiór uczący i zbiór testowy. Nie jest to jednak jedyna możliwa proporcja, a w innych przypadkach może być stosowana proporcja 20:80, 10:90 lub nawet mniejsza proporcja przy bardzo dużych zbiorach danych.

                      Warto zauważyć, że proporcja 85:15 jest wybrana w celu zapewnienia wystarczającej ilości danych w obu zbiorach, aby model mógł być odpowiednio wytrenowany i oceniony. Zbiór uczący powinien być znacząco większy od zbioru testowego, aby model mógł skutecznie klasyfikować dane, a zbiór testowy musi być jakościowo reprezentatywny dla całości danych.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_905_h7j
                        wrote on last edited by
                        #19

                        Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?

                        B 1 Reply Last reply
                        0
                        • S student_905_h7j

                          Czy są jakieś matematyczne podstawy by akurat wybrać stosunek 85:15?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #20

                          Nie ma w kontekście żadnych informacji, które by wskazywały, dlaczego proporcja 85:15 została wybrana jako domyślna. Jest to raczej ustalenie techniczne, a nie oparte na jakichś matematycznych podstawach.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_905_h7j
                            wrote on last edited by
                            #21

                            w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

                            B 1 Reply Last reply
                            0
                            • S student_905_h7j

                              w google teachable machine pod przyciskiem trening jest opcja zaawansowane a tam takie ustawienia jak: epoki, wielkość wsadu, tempo uczenia się; wiesz może co one znaczą i co się bedzie dziać jeśli je zmienie?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #22

                              W Google Teachable Machine, w zakładce "Zaawansowane" podczas treningu, możesz znaleźć ustawienia takie jak: epoki, wielkość wsadu i tempo uczenia się.

                              • Epoki: Epoka to pojedyncze przejście modelu przez cały zbiór uczący w procesie trenowania. Im więcej epok, tym model ma więcej możliwości doświadczenia i poprawy swoich wyników. Jednak zbyt wiele epok może spowodować przeuczenie się modelu, czyli nadmierną adaptację do danych treningowych, co może negatywnie wpłynąć na jego zdolność do generalizacji.
                              • Wielkość wsadu: Wielkość wsadu to rozmiar porcji treningowej, czyli liczba przykładów, jaką model otrzymuje na raz do trenowania w pojedynczej iteracji swojego działania. Im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednakże, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się.
                              • Tempo uczenia się: Tempo uczenia się to parametr, który określa, jak duże kroki w kierunku poprawnego rozwiązania po każdej nowej ekspozycji na dane model będzie wykonywał. Za mała wartość może bardzo wydłużyć proces uczenia się, a za duża może sprawić, że model nigdy nie osiągnie oczekiwanego rozwijania, tylko będzie ciągle je przeskakiwał w tę i z powrotem.

                              Jeśli zmienisz te ustawienia, możesz wpłynąć na proces uczenia się modelu. Na przykład, jeśli zmienisz wielkość wsadu na większą, model będzie potrzebował więcej zasobów obliczeniowych, ale może osiągnąć lepsze wyniki w krótszym czasie. Jednak, jeśli zmienisz tempo uczenia się na zbyt duże, model może przeuczyć się i nie osiągnąć oczekiwanego rozwijania.

                              1 Reply Last reply
                              1
                              • S Offline
                                S Offline
                                student_905_h7j
                                wrote on last edited by
                                #23

                                Co jest lepsze: duży parametr wsady i mało epok czy mały wsad a dużo epok?

                                1 Reply Last reply
                                0
                                • S Offline
                                  S Offline
                                  student_905_h7j
                                  wrote on last edited by
                                  #24

                                  Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?

                                  B 1 Reply Last reply
                                  0
                                  • S student_905_h7j

                                    Czy jest różnica między: dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok?

                                    B Offline
                                    B Offline
                                    bot_external
                                    wrote on last edited by
                                    #25

                                    Tak, istnieje różnica między dużym parametrem wielkości wsadu i małą ilością epok, a małym parametrem wielkości wsadu i dużą ilością epok.

                                    Jeśli wielkość wsadu jest duża, model otrzymuje więcej przykładów do trenowania w pojedynczej iteracji, co może przyspieszyć proces uczenia się, ale wymaga więcej zasobów obliczeniowych. W tym przypadku, mniejsza ilość epok może być wystarczająca, aby osiągnąć zadowalające efekty uczenia się.

                                    Z drugiej strony, jeśli wielkość wsadu jest mała, model otrzymuje mniej przykładów do trenowania w pojedynczej iteracji, co może spowodować wolniejszy proces uczenia się. W tym przypadku, większa ilość epok może być potrzebna, aby osiągnąć zadowalające efekty uczenia się.

                                    Przykładowo, jeśli wielkość wsadu jest 32 i ilość epok jest 10, model otrzymuje 320 przykładów do trenowania w 10 iteracjach. Jeśli wielkość wsadu jest zmniejszona do 16, model otrzymuje 160 przykładów do trenowania w 20 iteracjach. W tym przypadku, większa ilość epok jest potrzebna, aby osiągnąć zadowalające efekty uczenia się.

                                    Warto zauważyć, że optymalne ustawienia wielkości wsadu i ilości epok zależą od konkretnego modelu i danych treningowych. Dlatego ważne jest, aby przetestować różne kombinacje ustawień i obserwować, jak wpływają one na wyniki modelu.

                                    1 Reply Last reply
                                    1
                                    • S Offline
                                      S Offline
                                      student_905_h7j
                                      wrote on last edited by
                                      #26

                                      czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?

                                      B 1 Reply Last reply
                                      0
                                      • S student_905_h7j

                                        czym różni się false positive od false negative w kontekście rozmów o metrykach w AI?

                                        B Offline
                                        B Offline
                                        bot_external
                                        wrote on last edited by
                                        #27

                                        W kontekście rozmów o metrykach w AI, false positive (FP) i false negative (FN) są dwoma rodzajami błędów, które mogą wystąpić w modelach AI.

                                        False Positive (FP): To sytuacja, w której model AI sklasyfikuje przykład jako pozytywny (np. chory), podczas gdy w rzeczywistości jest on negatywny (np. zdrowy). Inaczej mówiąc, model AI zdiagnozuje chorobę u osoby, która w rzeczywistości nie ma tej choroby.

                                        False Negative (FN): To sytuacja, w której model AI sklasyfikuje przykład jako negatywny (np. zdrowy), podczas gdy w rzeczywistości jest on pozytywny (np. chory). Inaczej mówiąc, model AI nie zdiagnozuje choroby u osoby, która w rzeczywistości ją ma.

                                        W zależności od kontekstu, FP i FN mogą mieć różne konsekwencje. Na przykład, w przypadku modelu AI, który ma za zadanie wykrywać choroby, FP mogą prowadzić do niepotrzebnych leczeń, podczas gdy FN mogą prowadzić do opóźnień w leczeniu.

                                        Warto zauważyć, że FP i FN są częścią macierzy pomyłek, która jest używana do oceny jakości modelu AI.

                                        1 Reply Last reply
                                        1
                                        • S Offline
                                          S Offline
                                          student_905_h7j
                                          wrote on last edited by
                                          #28

                                          Jaki jest wzór na obliczanie dokładności modelu w kontekście metryk?

                                          B 1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups