Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_sby

conversation_by_sby

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
sby2d4990663f722666wstęp do uczenia maszynowego
19 Posts 3 Posters 15 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_905_sby

    czy kiedy do jednej klasy mam za mało przykładów, i wytrenuje model który źle identyfikuje tą klasę, to czy powinieniem zacząc trenowanie od nowa czy dotrenować poprzedni model

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #7

    Odpowiedź na to pytanie jest zawarta w kontekście. W jednym z fragmentów tekstu jest napisane: "Widzimy tutaj więc kolejny błąd, jaki można popełnić przy doborze danych - przypadków jednego typu może być po prostu na tyle mało w porównaniu z przypadkami innych typów, że model w pewien sposób po prostu je zignoruje."

    Oznacza to, że jeśli do jednej klasy masz za mało przykładów, model może źle identyfikować tę klasę. W takim przypadku, zamiast trenować model od nowa, lepszym rozwiązaniem jest dotrenowanie poprzedniego modelu, poprawiając w ten sposób jego dokładność.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_905_sby
      wrote on last edited by
      #8

      dlaczego model jak nie jest pewny przypadku pośredniego nie zwracca 50% dla obu klas tylko 90% dla jednej z nich

      B 1 Reply Last reply
      0
      • S student_905_sby

        dlaczego model jak nie jest pewny przypadku pośredniego nie zwracca 50% dla obu klas tylko 90% dla jednej z nich

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #9

        Odpowiedź na to pytanie jest zawarta w kontekście. W jednym z fragmentów tekstu jest napisane: "Podobnie jak dokładność (accuracy) i precyzja (precision), czułość (recall) nie zawsze jest metryką dobrze opisującą model, ponieważ jest właściwie 'ślepa' na jedną z klas."

        Oznacza to, że model może być bardzo pewny przypadku pośredniego, ale nie zwraca 50% dla obu klas, ponieważ jest "ślepy" na jedną z klas. W tym przypadku, model zignorował klasę mniej liczną i automatycznie przypisał wszystkie przykłady do klasy dominującej, osiągając przy tym bardzo wysoką dokładność (accuracy) na poziomie 99%.

        1 Reply Last reply
        1
        • S Offline
          S Offline
          student_905_sby
          wrote on last edited by
          #10

          co się stanie jeśli użyjemy wyników ze zbioru testowego w trakcie uczenia

          B 1 Reply Last reply
          0
          • S student_905_sby

            co się stanie jeśli użyjemy wyników ze zbioru testowego w trakcie uczenia

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #11

            Jeśli użyjemy wyników ze zbioru testowego w trakcie uczenia, model będzie mógł dostosować się do tych wyników i poprawić swoją dokładność w klasyfikacji. Jednak to może również spowodować przeuczenie (overfitting), ponieważ model będzie się za bardzo dostosowywał do danych testowych, a nie do ogólnych tendencji w danych.

            W opisie korzystania z Google Teachable Machine (GTM) jest napisane: "Obserwując wykres funkcji straty, możemy czasem dostrzec, że choć dla zbioru uczącego jej wartość systematycznie maleje w każdej kolejnej epoce, to dla zbioru testowego nie dość, że strata przestaje w którymś momencie maleć, to nawet zaczyna rosnąć. Taki wykres jest świadectwem tego, że w przypadku danego modelu mamy do czynienia z przeuczeniem."

            Oznacza to, że jeśli użyjemy wyników ze zbioru testowego w trakcie uczenia, model może przeuczyć się i nie będzie w stanie poprawnie klasyfikować danych nowych.

            1 Reply Last reply
            1
            • S Offline
              S Offline
              student_905_sby
              wrote on last edited by
              #12

              Jak rozpoznać że tempo uczenia się jest za duże

              B 1 Reply Last reply
              0
              • S student_905_sby

                Jak rozpoznać że tempo uczenia się jest za duże

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #13

                Jeśli chodzi o rozpoznanie, że tempo uczenia się jest za duże, w kontekście nie ma bezpośrednich informacji na ten temat. Jednak w opisie korzystania z Google Teachable Machine (GTM) jest napisane, że zbyt duża korekta może oznaczać, że "przeskoczymy" przez oczekiwane rozwiązanie.

                Przykładowo, w jednym z przykładów jest napisane, że jeśli stała uczenia się wynosiłaby 1, to w kolejnym kroku nasz model zwróci wynik 7,5, który nie jest ani trochę bliższy naszemu oczekiwanemu rozwiązaniu, niż 6,5, z którego startowaliśmy.

                Oznacza to, że zbyt duże tempo uczenia się może spowodować, że model "przeskoczy" przez oczekiwane rozwiązanie i nie będzie w stanie poprawnie go osiągnąć.

                1 Reply Last reply
                -1
                • S Offline
                  S Offline
                  student_905_sby
                  wrote on last edited by
                  #14

                  która metryka jest najlepsza dla danych medycznych w których false negative są bardzo bardzo złe

                  B 1 Reply Last reply
                  0
                  • S student_905_sby

                    która metryka jest najlepsza dla danych medycznych w których false negative są bardzo bardzo złe

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #15

                    Odpowiedź na to pytanie jest zawarta w kontekście. W jednym z fragmentów tekstu jest napisane: "Czułość (recall) - jest najważniejszą metryką w sytuacji, w której zależy nam, by wykryć jak najwięcej przykładów z jednej klasy (a więc ograniczamy liczbę przypadków fałszywie negatywnych) - przykładowo, celem modelu jest wykrycie we wczesnym stadium choroby, która niewykryta staje się bardzo niebezpieczna, chcemy więć wykryć na pewno wszystkich chorych, nawet jeżeli błędnie zaklasyfikujemy i wyślemy w efekcie na dodatkowe badania również kilka zdrowych osób - czułość modelu powinna być jak najwyższa"

                    Oznacza to, że w przypadku danych medycznych, gdzie false negative są bardzo złe, metryką najlepszą jest czułość (recall), ponieważ jest ona najważniejszą metryką w sytuacji, w której zależy nam na wykryciu jak największej liczby przykładów z jednej klasy, czyli w tym przypadku chorych osób.

                    1 Reply Last reply
                    1
                    • S Offline
                      S Offline
                      student_905_sby
                      wrote on last edited by
                      #16

                      czy da się skorzystać z tych metryk (accuracy, precision, recall) w trakie tenowania

                      B 1 Reply Last reply
                      0
                      • S student_905_sby

                        czy da się skorzystać z tych metryk (accuracy, precision, recall) w trakie tenowania

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #17

                        Tak, można skorzystać z tych metryk (accuracy, precision, recall) w trakcie trenowania modelu. Jednak, jak wspomniano w kontekście, dokładność (accuracy) może być mylącą metryką dla niezbalansowanych zbiorów danych, ponieważ ignoruje przykłady true negative (TN).

                        W trakcie trenowania modelu, można monitorować wartości tych metryk, aby ocenić, jak dobrze model się uczy. Jednak, jak wspomniano w kontekście, zbyt duże tempo uczenia się może spowodować przeuczenie (overfitting), a zbyt małe tempo uczenia się może spowodować, że model nie będzie w stanie poprawnie klasyfikować danych nowych.

                        Dlatego, w trakcie trenowania modelu, ważne jest, aby monitorować wartości tych metryk i dostosować parametry uczenia się, aby uniknąć przeuczenia i osiągnąć najlepsze wyniki.

                        1 Reply Last reply
                        -1
                        • S Offline
                          S Offline
                          student_905_sby
                          wrote on last edited by
                          #18

                          jkie pzpadki ingoruje f-scr?/?

                          B 1 Reply Last reply
                          0
                          • S student_905_sby

                            jkie pzpadki ingoruje f-scr?/?

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #19

                            Odpowiedź na to pytanie jest zawarta w kontekście. W jednym z fragmentów tekstu jest napisane: "Podobnie jak dokładność (accuracy) i precyzja (precision), czułość (recall) nie zawsze jest metryką dobrze opisującą model, ponieważ jest właściwie 'ślepa' na jedną z klas."

                            Oznacza to, że F-score może ignorować przypadki, które są trudne do sklasyfikowania, ponieważ jest on oparty na precyzji i czułości.

                            1 Reply Last reply
                            1
                            Reply
                            • Reply as topic
                            Log in to reply
                            • Oldest to Newest
                            • Newest to Oldest
                            • Most Votes


                            • Login

                            • Don't have an account? Register

                            Powered by NodeBB Contributors
                            • First post
                              Last post
                            0
                            • Categories
                            • Recent
                            • Tags
                            • Popular
                            • World
                            • Users
                            • Groups