Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_gj4

conversation_by_gj4

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
gj42d4990663f722666wstęp do uczenia maszynowego
23 Posts 3 Posters 44 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_gj4
    wrote on last edited by
    #2

    Jakie funkcje straty są często używane w uczeniu nadzorowanym?

    B 1 Reply Last reply
    0
    • S student_gj4

      Jakie funkcje straty są często używane w uczeniu nadzorowanym?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #3

      Funkcje straty często używane w uczeniu nadzorowanym to te, które są łatwe w obsłudze dla powszechnie używanych algorytmów uczenia. W szczególności, w przypadku klasyfikacji binarnej, funkcje straty 0-1 (funkcja indykatorowa 0-1) jest modelowana przez V(f(x→), y) = H(-yf(x→)), gdzie H oznacza funkcję skokową Heaviside'a. Jednak ta funkcja straty jest niewypukła i niezgładka, a rozwiązanie optymalnego rozwiązania jest problemem optymalizacji kombinatorycznej NP-trudnym. W związku z tym, lepiej jest zastąpić ją funkcjami straty, które są łatwe w obsłudze, takie jak wypukłe i gładkie.

      1 Reply Last reply
      -1
      • S Offline
        S Offline
        student_gj4
        wrote on last edited by
        #4

        Jakie modele uczenia maszynowego możemy utworzyć za pomocą Google Teachable Machine

        B 1 Reply Last reply
        0
        • S student_gj4

          Jakie modele uczenia maszynowego możemy utworzyć za pomocą Google Teachable Machine

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #5

          Na podstawie dostępnych informacji, możemy utworzyć modele uczenia maszynowego za pomocą Google Teachable Machine, które będą potrafiły odróżniać od siebie obrazki należące do dwóch różnych klas (kategorii). Jest to typowy przykład zadania klasyfikacji.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_gj4
            wrote on last edited by
            #6

            Jak oszacować jak duży powinien być zbiór danych do trenowania modelu klasyfikacji

            B 1 Reply Last reply
            0
            • S student_gj4

              Jak oszacować jak duży powinien być zbiór danych do trenowania modelu klasyfikacji

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #7

              Oszacowanie wielkości zbioru danych do trenowania modelu klasyfikacji jest istotnym krokiem w procesie uczenia maszynowego. Zgodnie z dostępnymi informacjami, zbiór danych treningowych powinien być duży i reprezentatywny, aby model mógł się dobrze dopasować do danych i osiągnąć dobrych wyników.

              W szczególności, w jednym z dostępnych tekstów, zbiór danych treningowych jest opisany jako "zbiór przykładów używany podczas procesu uczenia i służący do dopasowywania parametrów (np. wag) na przykład klasyfikatora". To oznacza, że zbiór danych treningowych powinien być wystarczająco duży, aby model mógł się dobrze dopasować do danych i osiągnąć dobrych wyników.

              Jednakże, nie ma konkretnych informacji o tym, jak duży powinien być zbiór danych do trenowania modelu klasyfikacji. W jednym z tekstów, Google Teachable Machine stosuje automatyczny podział danych na zbiór uczący i zbiór testowy w proporcji 85:15, ale nie ma informacji o tym, czy to jest standardowa proporcja, czy nie.

              W związku z tym, nie mogę udzielić precyzyjnej odpowiedzi na to pytanie.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_gj4
                wrote on last edited by
                #8

                Jak możemy naprawić model, żeby lepiej klasyfikował przypadki graniczne?

                B 1 Reply Last reply
                0
                • S student_gj4

                  Jak możemy naprawić model, żeby lepiej klasyfikował przypadki graniczne?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #9

                  Aby naprawić model, aby lepiej klasyfikował przypadki graniczne, możemy wykonać następujące kroki:

                  1. Dodać klasę "4" i załadować tam zawartość katalogu "4" z Materiałów.
                  2. Uzupełnić klasę "3", ładując do niej zawartość katalogu "3" z Materiałów.
                  3. Wcisnąć przycisk "Trenuj model" i poczekać na zakończenie procesu.
                  4. Ponownie załadować pliki "test_B2.jpg" i "test_B3.jpg" (możliwe, że trzeba będzie przełączyć źródło danych wejściowych na "Webcam" i ponownie na "Plik") - zobaczyć, jak teraz zostaną zaklasyfikowane obrazki.

                  Alternatywnie, jeśli sami nie dysponujemy prawidłową odpowiedzią w przypadkach granicznych, możemy stworzyć klasę pośrednią, w tym wypadku np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.

                  1 Reply Last reply
                  -1
                  • S Offline
                    S Offline
                    student_gj4
                    wrote on last edited by
                    #10

                    Jaki przykład z prawdziwego życia dobrze odzwierciedla zbiory treningowe i testowe?

                    B 1 Reply Last reply
                    0
                    • S student_gj4

                      Jaki przykład z prawdziwego życia dobrze odzwierciedla zbiory treningowe i testowe?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #11

                      Przykładem z prawdziwego życia, który dobrze odzwierciedla zbiory treningowe i testowe, jest ocena zdrowia osoby. Zbiór treningowy może składać się z danych osób, które zostały już zdiagnozowane z chorobą X, a zbiór testowy może składać się z danych osób, które nie zostały jeszcze zdiagnozowane z chorobą X.

                      W tym przykładzie, zbiór treningowy jest używany do trenowania modelu, który będzie w stanie rozpoznać chorobę X na podstawie danych osób, które zostały już zdiagnozowane. Zbiór testowy jest używany do przetestowania modelu, aby sprawdzić, jak dobrze on radzi sobie z rozpoznawaniem choroby X w przypadkach, w których nie ma jeszcze diagnozy.

                      To odzwierciedla proces uczenia maszynowego, w którym model jest trenowany na danych treningowych i następnie testowany na danych testowych, aby sprawdzić jego skuteczność.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_gj4
                        wrote on last edited by
                        #12

                        Po czym poznać, że model jest przeuczony?

                        B 1 Reply Last reply
                        0
                        • S student_gj4

                          Po czym poznać, że model jest przeuczony?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #13

                          Model jest przeuczony, gdy jest zbyt skomplikowany, by poradzić sobie skutecznie z danymi ze zbioru uczącego. W tym przypadku model jest przeuczony, gdy jest zbyt skomplikowany, by rozpoznać wszystkie klasy, które zostały zdefiniowane. Przykładem tego jest sytuacja, w której model nie jest w stanie rozpoznać cyfry 3, 4, 6, 8 i 9, ponieważ dostarczono zbyt mało przykładów tych cyfr lub tylko jeden przykład.

                          1 Reply Last reply
                          -1
                          • S Offline
                            S Offline
                            student_gj4
                            wrote on last edited by
                            #14

                            W jakich sytuacjach dokładność nie jest dobrą metryką?

                            B 1 Reply Last reply
                            0
                            • S student_gj4

                              W jakich sytuacjach dokładność nie jest dobrą metryką?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #15

                              Dokładność (accuracy) nie jest dobrą metryką w sytuacjach, w których model jest zbyt skomplikowany, by poradzić sobie skutecznie z danymi ze zbioru uczącego. Przykładem tego jest sytuacja, w której model nie jest w stanie rozpoznać wszystkich klas, które zostały zdefiniowane.

                              Jednak, w opisanym w tekście przypadku, dokładność nie jest dobrą metryką również wtedy, gdy model zawsze wskazuje, że osoba jest chora, nawet jeśli jest zdrowa. W takim przypadku model jest mało użyteczny, ale jego dokładność wynosi 100%, ponieważ poprawnie zdiagnozował wszystkie osoby, które rzeczywiście były chore.

                              1 Reply Last reply
                              -1
                              • S Offline
                                S Offline
                                student_gj4
                                wrote on last edited by
                                #16

                                Czym jest przykład "false positive"

                                B 1 Reply Last reply
                                0
                                • S student_gj4

                                  Czym jest przykład "false positive"

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #17

                                  Przykładem "false positive" jest sytuacja, w której model klasyfikacji zaklasyfikuje przykład jako pozytywny, ale w rzeczywistości jest to negatywny. Inaczej mówiąc, model zdiagnozuje osobę jako chore, ale w rzeczywistości jest zdrowa.

                                  Przykładem tego jest sytuacja, w której model klasyfikacji błędnie zaklasyfikuje 10 nie-kotów jako koty, co oznacza, że są one przykładami "false positive".

                                  1 Reply Last reply
                                  1
                                  • S Offline
                                    S Offline
                                    student_gj4
                                    wrote on last edited by
                                    #18

                                    Czym się różni precyzja od dokładności?

                                    B 1 Reply Last reply
                                    0
                                    • S student_gj4

                                      Czym się różni precyzja od dokładności?

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #19

                                      Precyzja i dokładność to dwa pojęcia, które często są mylone, ale mają różne znaczenia w kontekście modelowania i oceny dokładności.

                                      Precyzja odnosi się do miary błędów losowych, czyli zmienności statystycznej. Oznacza to, że precyzja mierzy, jak blisko są pomiary względem siebie. Im wyższa precyzja, tym mniejsze są błędy losowe.

                                      Dokładność, z drugiej strony, odnosi się do miary błędów systematycznych, czyli obciążenia statystycznego danej miary tendencji centralnej, takiej jak średnia. Dokładność mierzy, jak blisko dany zbiór pomiarów jest od prawdziwej wartości. Im wyższa dokładność, tym mniejsze są błędy systematyczne.

                                      Przykładem, który ilustruje różnicę między precyzją a dokładnością, jest sytuacja, w której model klasyfikacji zawsze wskazuje, że osoba jest chora, nawet jeśli jest zdrowa. W takim przypadku model ma 100% dokładność, ponieważ poprawnie zdiagnozował wszystkie osoby, które rzeczywiście były chore, ale jego precyzja jest niska, ponieważ błędnie zaklasyfikował wszystkie osoby zdrowe jako chore.

                                      1 Reply Last reply
                                      -1
                                      • S Offline
                                        S Offline
                                        student_gj4
                                        wrote on last edited by
                                        #20

                                        Czy F-score jest uniwersalną metryką?

                                        B 1 Reply Last reply
                                        0
                                        • S student_gj4

                                          Czy F-score jest uniwersalną metryką?

                                          B Offline
                                          B Offline
                                          bot_external
                                          wrote on last edited by
                                          #21

                                          F-score nie jest uniwersalną metryką. Jak wskazano w tekście, F-score bierze pod uwagę tylko 3 z 4 ćwiartek macierzy pomyłek, ignorując przykłady true negative (TN) - prawdziwie negatywne. To oznacza, że F-score nie uwzględnia wyników prawdziwie negatywnych, co może prowadzić do nieprawidłowych ocen modeli w niektórych sytuacjach.

                                          Przykładem tego jest sytuacja, w której model klasyfikacji zawsze wskazuje, że osoba jest chora, nawet jeśli jest zdrowa. W takim przypadku model ma 100% dokładność, ponieważ poprawnie zdiagnozował wszystkie osoby, które rzeczywiście były chore, ale jego F-score może być niski, ponieważ błędnie zaklasyfikował wszystkie osoby zdrowe jako chore.

                                          W takich sytuacjach, lepszym wyborem może być inna metryka, taką jak współczynnik korelacji Matthews'a, świadomość (Informedness) lub kappa Cohena, które uwzględniają wyniki prawdziwie negatywne.

                                          1 Reply Last reply
                                          -1
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups