Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_cb7

conversation_by_cb7

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
cb72d4990663f722666wstęp do uczenia maszynowego
17 Posts 3 Posters 17 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_cb7

    Czym różni się uczenie nadzorowane od nienadzorowanego w praktyce?

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #5

    Uczenie nadzorowane i nienadzorowane różnią się w praktyce tym, że w uczeniu nadzorowanym model ma dostęp do danych oznaczonych przez człowieka, czyli tzw. etykiet treningowych. Te etykiety są niezbędne do uczenia modelu, aby on mógł rozpoznać wzorce i zależności w danych.

    W przeciwieństwie do tego, w uczeniu nienadzorowanym model nie ma dostępu do etykiet treningowych i musi samodzielnie odkryć wzorce i zależności w danych. Przykładem uczenia nienadzorowanego jest klasteryzacja, czyli grupowanie danych w klastry na podstawie podobieństwa.

    Przykładem uczenia nadzorowanego jest rozróżnianie zdjęć psów i kotów na podstawie zdjęć podpisanych odpowiednio jako psy i koty.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_cb7
      wrote on last edited by
      #6

      czy danych w klasach musi byc DOKŁADNIE tyle samo?

      B 1 Reply Last reply
      0
      • S student_cb7

        czy danych w klasach musi byc DOKŁADNIE tyle samo?

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #7

        Nie, danych w klasach nie musi być dokładnie tyle samo. W kontekście, który jest dostępny, nie ma żadnych informacji, które sugerowałyby, że liczba danych w klasach musi być dokładnie taka sama.

        W rzeczywistości, w jednym z fragmentów tekstu, opisano, że w Google Teachable Machine, dane są automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15. Nie ma żadnych wskazówek, że ta proporcja musi być dokładnie taka sama w każdej klasie.

        1 Reply Last reply
        0
        • S Offline
          S Offline
          student_cb7
          wrote on last edited by
          #8

          jak ominąć problem że 1 i 7 wyglądają podobnie

          B 1 Reply Last reply
          0
          • S student_cb7

            jak ominąć problem że 1 i 7 wyglądają podobnie

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #9

            Nie ma informacji w dostępnym kontekście, która mówiłaby o sposobie omijania problemu, że 1 i 7 wyglądają podobnie. Kontekst dotyczy głównie uczenia maszynowego, klasteryzacji i rozpoznawania wzorów, ale nie zawiera informacji o tym, jak rozwiązać problem podobieństwa pomiędzy dwoma obiektami.

            1 Reply Last reply
            -1
            • S Offline
              S Offline
              student_cb7
              wrote on last edited by
              #10

              czy przez za dużo epok może dojść do overfitingu?

              B 1 Reply Last reply
              0
              • S student_cb7

                czy przez za dużo epok może dojść do overfitingu?

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #11

                Tak, przez za dużo epok może dojść do overfitingu. W jednym z fragmentów tekstu, opisano, że przeuczenie jest bezpośrednio związane z błędem aproksymacji wybranej klasy funkcji oraz błędem optymalizacji procedury optymalizacyjnej. Klasa funkcji, która jest zbyt duża, w odpowiednim sensie, w stosunku do rozmiaru zbioru danych, jest prawdopodobnie narażona na przeuczenie.

                W szczególności, wartość współczynnika determinacji zmniejszy się w stosunku do oryginalnych danych, jeśli model jest zbyt złożony w stosunku do rozmiaru danych. Aby zmniejszyć szansę lub stopień przeuczenia, dostępne są różne techniki, takie jak regularyzacja, wczesne zatrzymywanie, przycinanie, aprioryczne rozkłady Bayesa lub dropout.

                1 Reply Last reply
                1
                • S Offline
                  S Offline
                  student_cb7
                  wrote on last edited by
                  #12

                  jakie sa najlepsze praktyki by omijac overfiting

                  B 1 Reply Last reply
                  0
                  • S student_cb7

                    jakie sa najlepsze praktyki by omijac overfiting

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #13

                    Najlepsze praktyki, aby omijać overfitting, to:

                    1. Zwiększenie złożoności modelu ostrożnie: Jeśli model jest zbyt prosty, może być konieczne zwiększenie jego złożoności poprzez dodanie większej liczby cech, zwiększenie liczby parametrów lub użycie bardziej elastycznego modelu. Należy to jednak robić ostrożnie, aby uniknąć przeuczenia.
                    2. Użycie innego algorytmu: Jeśli obecny algorytm nie jest w stanie uchwycić wzorców w danych, może być konieczne wypróbowanie innego. Na przykład, sieć neuronowa może być bardziej efektywna niż model regresji liniowej dla niektórych typów danych.
                    3. Zwiększenie ilości danych treningowych: Jeśli model jest niedouczony z powodu braku danych, zwiększenie ilości danych treningowych może pomóc. Pozwoli to modelowi lepiej uchwycić ukryte wzorce w danych.
                    4. Regularyzacja: Regularyzacja to technika stosowana w celu zapobiegania przeuczeniu poprzez dodanie członu kary do funkcji straty, który zniechęca do dużych wartości parametrów. Może być również stosowana w celu zapobiegania niedouczeniu poprzez kontrolowanie złożoności modelu.
                    5. Metody zespołowe: Metody zespołowe łączą wiele modeli, aby stworzyć dokładniejszą predykcję. Może to pomóc zmniejszyć niedouczenie, umożliwiając wielu modelom współpracę w celu uchwycenia ukrytych wzorców w danych.
                    6. Inżynieria cech: Inżynieria cech obejmuje tworzenie nowych cech modelu z istniejących, które mogą być bardziej odpowiednie dla danego problemu. Może to pomóc poprawić dokładność modelu i zapobiec niedouczeniu.

                    Warto również pamiętać, że przeuczenie jest bezpośrednio związane z błędem aproksymacji wybranej klasy funkcji oraz błędem optymalizacji procedury optymalizacyjnej. Klasa funkcji, która jest zbyt duża, w odpowiednim sensie, w stosunku do rozmiaru zbioru danych, jest prawdopodobnie narażona na przeuczenie.

                    1 Reply Last reply
                    1
                    • S Offline
                      S Offline
                      student_cb7
                      wrote on last edited by
                      #14

                      porownaj te metryki do realnych codziennych przykladow

                      B 1 Reply Last reply
                      0
                      • S student_cb7

                        porownaj te metryki do realnych codziennych przykladow

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #15

                        Porównanie metryk do realnych codziennych przykładów:

                        • Dokładność (accuracy) - to często metryka domyślna, która mierzy ilość poprawnych predykcji w stosunku do ogólnej liczby próbek. Przykładem może być system rozpoznający numery tablic rejestracyjnych samochodów. Jeśli system ma 99% dokładności, to oznacza, że prawie zawsze poprawnie rozpoznaje numery tablic.
                        • Precyzja (precision) - jest najważniejszą metryką, jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych. Przykładem może być system diagnostyczny, który ma za zadanie rozpoznać choroby. Jeśli system ma 99% precyzji, to oznacza, że prawie zawsze poprawnie rozpoznaje choroby, ale może popełniać błędy fałszywie negatywne (nie rozpoznaje choroby, która jest rzeczywiście obecna).
                        • Czułość (recall) - jest najważniejszą metryką w sytuacji, w której zależy nam, by wykryć jak najwięcej przykładów z jednej klasy. Przykładem może być system wykrywający nowotwory. Jeśli system ma 99% czułości, to oznacza, że prawie zawsze wykrywa nowotwory, ale może popełniać błędy fałszywie pozytywne (wykrywa nowotwór, który nie jest rzeczywiście obecny).
                        • F-score - uniwersalna metryka, która łączy precyzję i czułość. Przykładem może być system rozpoznający teksty. Jeśli system ma 95% F-score, to oznacza, że ma 95% precyzji i 95% czułości.

                        Warto zauważyć, że te metryki są często używane w różnych dziedzinach, takich jak medycyna, finanse, czy marketing.

                        1 Reply Last reply
                        1
                        • S Offline
                          S Offline
                          student_cb7
                          wrote on last edited by
                          #16

                          jaka metryka oceny jest najbardziej kluczowa np dla takich przykladow z psami kotami

                          B 1 Reply Last reply
                          0
                          • S student_cb7

                            jaka metryka oceny jest najbardziej kluczowa np dla takich przykladow z psami kotami

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #17

                            W przypadku przykładów z psami i kotami, najbardziej kluczową metryką oceny jest czułość (recall). Czułość mierzy ilość prawdziwie pozytywnych przypadków (np. psów lub kotów) wykrytych przez model w stosunku do ogólnej liczby prawdziwie pozytywnych przypadków. W przypadku systemu rozpoznającego psy i koty, czułość jest najważniejsza, ponieważ chcemy, aby model wykrywał jak najwięcej prawdziwie pozytywnych przypadków (np. psów lub kotów), nawet jeśli to oznacza, że model popełnia błędy fałszywie pozytywne (np. wykrywa koty, które nie są rzeczywiście obecne).

                            Przykładem może być system wykrywający psy w zdjęciach. Jeśli system ma 95% czułości, to oznacza, że prawie zawsze wykrywa psy w zdjęciach, ale może popełniać błędy fałszywie pozytywne (np. wykrywa koty, które nie są rzeczywiście obecne).

                            Warto zauważyć, że w przypadku systemów rozpoznających psy i koty, precyzja (precision) również jest ważna, ponieważ chcemy uniknąć błędów fałszywie pozytywnych. Jednak w przypadku systemów, które mają za zadanie wykryć jak najwięcej prawdziwie pozytywnych przypadków, czułość jest najważniejsza.

                            1 Reply Last reply
                            1
                            Reply
                            • Reply as topic
                            Log in to reply
                            • Oldest to Newest
                            • Newest to Oldest
                            • Most Votes


                            • Login

                            • Don't have an account? Register

                            Powered by NodeBB Contributors
                            • First post
                              Last post
                            0
                            • Categories
                            • Recent
                            • Tags
                            • Popular
                            • World
                            • Users
                            • Groups