Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_cb7

conversation_by_cb7

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
cb72d4990663f722666wstęp do uczenia maszynowego
17 Posts 3 Posters 17 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_cb7
    wrote on last edited by
    #2

    Czy da się wyeksportować wytrenowany model z Teachable Machine i wykorzystać go w aplikacjach mobilnej?

    B 1 Reply Last reply
    0
    • S student_cb7

      Czy da się wyeksportować wytrenowany model z Teachable Machine i wykorzystać go w aplikacjach mobilnej?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #3

      Nie ma informacji w dostępnym kontekście, która potwierdzałaby możliwość wyeksportowania wytrenowanego modelu z Teachable Machine i wykorzystania go w aplikacjach mobilnej.

      1 Reply Last reply
      -1
      • S Offline
        S Offline
        student_cb7
        wrote on last edited by
        #4

        Czym różni się uczenie nadzorowane od nienadzorowanego w praktyce?

        B 1 Reply Last reply
        0
        • S student_cb7

          Czym różni się uczenie nadzorowane od nienadzorowanego w praktyce?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #5

          Uczenie nadzorowane i nienadzorowane różnią się w praktyce tym, że w uczeniu nadzorowanym model ma dostęp do danych oznaczonych przez człowieka, czyli tzw. etykiet treningowych. Te etykiety są niezbędne do uczenia modelu, aby on mógł rozpoznać wzorce i zależności w danych.

          W przeciwieństwie do tego, w uczeniu nienadzorowanym model nie ma dostępu do etykiet treningowych i musi samodzielnie odkryć wzorce i zależności w danych. Przykładem uczenia nienadzorowanego jest klasteryzacja, czyli grupowanie danych w klastry na podstawie podobieństwa.

          Przykładem uczenia nadzorowanego jest rozróżnianie zdjęć psów i kotów na podstawie zdjęć podpisanych odpowiednio jako psy i koty.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_cb7
            wrote on last edited by
            #6

            czy danych w klasach musi byc DOKŁADNIE tyle samo?

            B 1 Reply Last reply
            0
            • S student_cb7

              czy danych w klasach musi byc DOKŁADNIE tyle samo?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #7

              Nie, danych w klasach nie musi być dokładnie tyle samo. W kontekście, który jest dostępny, nie ma żadnych informacji, które sugerowałyby, że liczba danych w klasach musi być dokładnie taka sama.

              W rzeczywistości, w jednym z fragmentów tekstu, opisano, że w Google Teachable Machine, dane są automatycznie dzielone na zbiór uczący i zbiór testowy w proporcji 85:15. Nie ma żadnych wskazówek, że ta proporcja musi być dokładnie taka sama w każdej klasie.

              1 Reply Last reply
              0
              • S Offline
                S Offline
                student_cb7
                wrote on last edited by
                #8

                jak ominąć problem że 1 i 7 wyglądają podobnie

                B 1 Reply Last reply
                0
                • S student_cb7

                  jak ominąć problem że 1 i 7 wyglądają podobnie

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #9

                  Nie ma informacji w dostępnym kontekście, która mówiłaby o sposobie omijania problemu, że 1 i 7 wyglądają podobnie. Kontekst dotyczy głównie uczenia maszynowego, klasteryzacji i rozpoznawania wzorów, ale nie zawiera informacji o tym, jak rozwiązać problem podobieństwa pomiędzy dwoma obiektami.

                  1 Reply Last reply
                  -1
                  • S Offline
                    S Offline
                    student_cb7
                    wrote on last edited by
                    #10

                    czy przez za dużo epok może dojść do overfitingu?

                    B 1 Reply Last reply
                    0
                    • S student_cb7

                      czy przez za dużo epok może dojść do overfitingu?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #11

                      Tak, przez za dużo epok może dojść do overfitingu. W jednym z fragmentów tekstu, opisano, że przeuczenie jest bezpośrednio związane z błędem aproksymacji wybranej klasy funkcji oraz błędem optymalizacji procedury optymalizacyjnej. Klasa funkcji, która jest zbyt duża, w odpowiednim sensie, w stosunku do rozmiaru zbioru danych, jest prawdopodobnie narażona na przeuczenie.

                      W szczególności, wartość współczynnika determinacji zmniejszy się w stosunku do oryginalnych danych, jeśli model jest zbyt złożony w stosunku do rozmiaru danych. Aby zmniejszyć szansę lub stopień przeuczenia, dostępne są różne techniki, takie jak regularyzacja, wczesne zatrzymywanie, przycinanie, aprioryczne rozkłady Bayesa lub dropout.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_cb7
                        wrote on last edited by
                        #12

                        jakie sa najlepsze praktyki by omijac overfiting

                        B 1 Reply Last reply
                        0
                        • S student_cb7

                          jakie sa najlepsze praktyki by omijac overfiting

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #13

                          Najlepsze praktyki, aby omijać overfitting, to:

                          1. Zwiększenie złożoności modelu ostrożnie: Jeśli model jest zbyt prosty, może być konieczne zwiększenie jego złożoności poprzez dodanie większej liczby cech, zwiększenie liczby parametrów lub użycie bardziej elastycznego modelu. Należy to jednak robić ostrożnie, aby uniknąć przeuczenia.
                          2. Użycie innego algorytmu: Jeśli obecny algorytm nie jest w stanie uchwycić wzorców w danych, może być konieczne wypróbowanie innego. Na przykład, sieć neuronowa może być bardziej efektywna niż model regresji liniowej dla niektórych typów danych.
                          3. Zwiększenie ilości danych treningowych: Jeśli model jest niedouczony z powodu braku danych, zwiększenie ilości danych treningowych może pomóc. Pozwoli to modelowi lepiej uchwycić ukryte wzorce w danych.
                          4. Regularyzacja: Regularyzacja to technika stosowana w celu zapobiegania przeuczeniu poprzez dodanie członu kary do funkcji straty, który zniechęca do dużych wartości parametrów. Może być również stosowana w celu zapobiegania niedouczeniu poprzez kontrolowanie złożoności modelu.
                          5. Metody zespołowe: Metody zespołowe łączą wiele modeli, aby stworzyć dokładniejszą predykcję. Może to pomóc zmniejszyć niedouczenie, umożliwiając wielu modelom współpracę w celu uchwycenia ukrytych wzorców w danych.
                          6. Inżynieria cech: Inżynieria cech obejmuje tworzenie nowych cech modelu z istniejących, które mogą być bardziej odpowiednie dla danego problemu. Może to pomóc poprawić dokładność modelu i zapobiec niedouczeniu.

                          Warto również pamiętać, że przeuczenie jest bezpośrednio związane z błędem aproksymacji wybranej klasy funkcji oraz błędem optymalizacji procedury optymalizacyjnej. Klasa funkcji, która jest zbyt duża, w odpowiednim sensie, w stosunku do rozmiaru zbioru danych, jest prawdopodobnie narażona na przeuczenie.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_cb7
                            wrote on last edited by
                            #14

                            porownaj te metryki do realnych codziennych przykladow

                            B 1 Reply Last reply
                            0
                            • S student_cb7

                              porownaj te metryki do realnych codziennych przykladow

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #15

                              Porównanie metryk do realnych codziennych przykładów:

                              • Dokładność (accuracy) - to często metryka domyślna, która mierzy ilość poprawnych predykcji w stosunku do ogólnej liczby próbek. Przykładem może być system rozpoznający numery tablic rejestracyjnych samochodów. Jeśli system ma 99% dokładności, to oznacza, że prawie zawsze poprawnie rozpoznaje numery tablic.
                              • Precyzja (precision) - jest najważniejszą metryką, jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych. Przykładem może być system diagnostyczny, który ma za zadanie rozpoznać choroby. Jeśli system ma 99% precyzji, to oznacza, że prawie zawsze poprawnie rozpoznaje choroby, ale może popełniać błędy fałszywie negatywne (nie rozpoznaje choroby, która jest rzeczywiście obecna).
                              • Czułość (recall) - jest najważniejszą metryką w sytuacji, w której zależy nam, by wykryć jak najwięcej przykładów z jednej klasy. Przykładem może być system wykrywający nowotwory. Jeśli system ma 99% czułości, to oznacza, że prawie zawsze wykrywa nowotwory, ale może popełniać błędy fałszywie pozytywne (wykrywa nowotwór, który nie jest rzeczywiście obecny).
                              • F-score - uniwersalna metryka, która łączy precyzję i czułość. Przykładem może być system rozpoznający teksty. Jeśli system ma 95% F-score, to oznacza, że ma 95% precyzji i 95% czułości.

                              Warto zauważyć, że te metryki są często używane w różnych dziedzinach, takich jak medycyna, finanse, czy marketing.

                              1 Reply Last reply
                              1
                              • S Offline
                                S Offline
                                student_cb7
                                wrote on last edited by
                                #16

                                jaka metryka oceny jest najbardziej kluczowa np dla takich przykladow z psami kotami

                                B 1 Reply Last reply
                                0
                                • S student_cb7

                                  jaka metryka oceny jest najbardziej kluczowa np dla takich przykladow z psami kotami

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #17

                                  W przypadku przykładów z psami i kotami, najbardziej kluczową metryką oceny jest czułość (recall). Czułość mierzy ilość prawdziwie pozytywnych przypadków (np. psów lub kotów) wykrytych przez model w stosunku do ogólnej liczby prawdziwie pozytywnych przypadków. W przypadku systemu rozpoznającego psy i koty, czułość jest najważniejsza, ponieważ chcemy, aby model wykrywał jak najwięcej prawdziwie pozytywnych przypadków (np. psów lub kotów), nawet jeśli to oznacza, że model popełnia błędy fałszywie pozytywne (np. wykrywa koty, które nie są rzeczywiście obecne).

                                  Przykładem może być system wykrywający psy w zdjęciach. Jeśli system ma 95% czułości, to oznacza, że prawie zawsze wykrywa psy w zdjęciach, ale może popełniać błędy fałszywie pozytywne (np. wykrywa koty, które nie są rzeczywiście obecne).

                                  Warto zauważyć, że w przypadku systemów rozpoznających psy i koty, precyzja (precision) również jest ważna, ponieważ chcemy uniknąć błędów fałszywie pozytywnych. Jednak w przypadku systemów, które mają za zadanie wykryć jak najwięcej prawdziwie pozytywnych przypadków, czułość jest najważniejsza.

                                  1 Reply Last reply
                                  1
                                  Reply
                                  • Reply as topic
                                  Log in to reply
                                  • Oldest to Newest
                                  • Newest to Oldest
                                  • Most Votes


                                  • Login

                                  • Don't have an account? Register

                                  Powered by NodeBB Contributors
                                  • First post
                                    Last post
                                  0
                                  • Categories
                                  • Recent
                                  • Tags
                                  • Popular
                                  • World
                                  • Users
                                  • Groups