Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_0zh

conversation_by_0zh

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
0zh2d4990663f722666wstęp do uczenia maszynowego
23 Posts 3 Posters 22 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_905_0zh
    wrote on last edited by
    #14

    a co jeśli przypadki graniczne są tak zróżnicowane że nie da się ich sensownie pogrupować? Czy to oznacza że problemu nie da się rozwiązać klasyfikacją?

    B 1 Reply Last reply
    0
    • S student_905_0zh

      a co jeśli przypadki graniczne są tak zróżnicowane że nie da się ich sensownie pogrupować? Czy to oznacza że problemu nie da się rozwiązać klasyfikacją?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #15

      Jeśli przypadki graniczne są tak zróżnicowane, że nie da się ich sensownie pogrupować, to oznacza, że problem może być trudny do rozwiązania za pomocą klasyfikacji. W takim przypadku istnieją dwa możliwe rozwiązania:

      1. Zdefiniowanie nowych klas: Można zdefiniować nowe klasy, które będą lepiej reprezentować dane. W ten sposób model może nauczyć się rozpoznawać te nowe klasy i poprawić swoją dokładność.
      2. Użycie innych metod: Można użyć innych metod, takich jak regresja lub analiza skojarzeń, które mogą być bardziej odpowiednie do rozwiązania problemu.

      Warto zauważyć, że przypadki graniczne są częścią naturalnego procesu uczenia się modelu i nie oznaczają, że model jest wadliwy. Przeciwnie, to oznacza, że model potrzebuje więcej danych lub że potrzebuje poprawy w swojej architekturze lub parametrach.

      Przykładowo, jeśli mamy do czynienia z problemem rozpoznawania nowotworów w obrazach mammograficznych, a przypadki graniczne są tak zróżnicowane, że nie da się ich sensownie pogrupować, to może być konieczne zdefiniowanie nowych klas, takich jak "nowotwór wczesny", "nowotwór późny" lub "nowotwór niepewny". W ten sposób model może nauczyć się rozpoznawać te nowe klasy i poprawić swoją dokładność.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_905_0zh
        wrote on last edited by
        #16

        czy da się inaczej podzielić zbiory danych niż na zbiór uczący i zbiór testowy?

        B 1 Reply Last reply
        0
        • S student_905_0zh

          czy da się inaczej podzielić zbiory danych niż na zbiór uczący i zbiór testowy?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #17

          Tak, da się inaczej podzielić zbiory danych niż na zbiór uczący i zbiór testowy. W Uczeniu Maszynowym spotyka się inne proporcje, np. zbiór testowy może obejmować aż 20% wszystkich danych, albo tylko 10%, lub nawet jeszcze mniej przy bardzo dużych zbiorach danych.

          Warto zauważyć, że podział danych na zbiór uczący i zbiór testowy powinien spełniać kilka warunków, takich jak:

          • Zbiór uczący powinien być znacząco większy od zbioru testowego, aby model mógł skutecznie klasyfikować.
          • Zbiór testowy powinien być jakościowo reprezentatywny dla całości danych, aby model mógł się nauczyć rozpoznawać różne przypadki.
          • Zbiór testowy powinien być wystarczająco duży, aby model mógł się nauczyć rozpoznawać różne przypadki i unikać błędnych ocen.

          Jeśli te warunki nie są spełnione, to może być konieczne zmienić proporcję podziału danych lub zdefiniować nowe klasy, aby model mógł się nauczyć rozpoznawać dane w sposób skuteczny.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_905_0zh
            wrote on last edited by
            #18

            czy większy wsad oznacza lepsze wyniki?

            B 1 Reply Last reply
            0
            • S student_905_0zh

              czy większy wsad oznacza lepsze wyniki?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #19

              Nie, większy wsad nie zawsze oznacza lepsze wyniki. W przypadku modelu sztucznej inteligencji, większy wsad może oznaczać, że model ma więcej danych do trenowania, ale niekoniecznie oznacza to, że wyniki będą lepsze.

              W rzeczywistości, większy wsad może również oznaczać, że model ma więcej przypadków granicznych, które mogą wpłynąć na dokładność modelu. Przypadki graniczne to sytuacje, w których model ma trudności z rozpoznaniem obiektu lub klasyfikacją, i mogą powodować błędy w wynikach.

              Aby uzyskać lepsze wyniki, model sztucznej inteligencji powinien być trenowany na danych, które są reprezentatywne dla problemu, i powinien być dostosowany do potrzeb danego problemu. Większy wsad może być korzystny, jeśli model jest odpowiednio dostosowany do potrzeb danego problemu, ale niekoniecznie oznacza to, że wyniki będą lepsze.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_905_0zh
                wrote on last edited by
                #20

                na przykładzie opisz jak wyglądałaby macierz pomyłek dla 3 klas

                B 1 Reply Last reply
                0
                • S student_905_0zh

                  na przykładzie opisz jak wyglądałaby macierz pomyłek dla 3 klas

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #21

                  Macierz pomyłek to tabela, która przedstawia liczbę prawidłowych i błędnych klasyfikacji dla każdej klasy. Na przykładzie 3 klas, macierz pomyłek mogłaby wyglądać następująco:

                  Klasa 1 Klasa 2 Klasa 3
                  Klasa 1 80 10 5
                  Klasa 2 20 70 10
                  Klasa 3 5 15 80

                  W tej macierzy, liczby w kolumnach reprezentują liczbę przykładów, które zostały zaklasyfikowane do danej klasy, a liczby w wierszach reprezentują liczbę przykładów, które rzeczywiście należą do danej klasy.

                  Na przykład, w pierwszym wierszu, 80 przykładów zostało prawidłowo zaklasyfikowanych do klasy 1, 10 zostało błędnie zaklasyfikowanych do klasy 2, a 5 zostało błędnie zaklasyfikowanych do klasy 3.

                  Macierz pomyłek może być używana do oceny dokładności modelu i do identyfikacji problemów z klasyfikacją.

                  1 Reply Last reply
                  1
                  • S Offline
                    S Offline
                    student_905_0zh
                    wrote on last edited by
                    #22

                    czy istnieje metryka doskonała dla oceny wytrenowania uczenia maszynowego?

                    B 1 Reply Last reply
                    0
                    • S student_905_0zh

                      czy istnieje metryka doskonała dla oceny wytrenowania uczenia maszynowego?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #23

                      Tak, istnieje metryka doskonała dla oceny wytrenowania uczenia maszynowego. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve). AUC-ROC jest miarą dokładności modelu klasyfikacji i wskazuje, jak dobrze model rozróżnia pomiędzy klasami.

                      AUC-ROC jest wyrażany jako wartość między 0 a 1, gdzie:

                      • 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami,
                      • 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami.

                      Wartość AUC-ROC powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry.

                      Innym przykładem metryki doskonałej jest metryka F1-score, która łączy w sobie dokładność i czułość modelu. F1-score jest wyrażany jako wartość między 0 a 1, gdzie:

                      • 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami,
                      • 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami.

                      Wartość F1-score powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry.

                      Warto zauważyć, że istnieją inne metryki, takie jak dokładność, czułość, swoistość, współczynnik fałszywie pozytywnych i współczynnik fałszywie negatywnych, które również mogą być używane do oceny wytrenowania uczenia maszynowego.

                      1 Reply Last reply
                      1
                      Reply
                      • Reply as topic
                      Log in to reply
                      • Oldest to Newest
                      • Newest to Oldest
                      • Most Votes


                      • Login

                      • Don't have an account? Register

                      Powered by NodeBB Contributors
                      • First post
                        Last post
                      0
                      • Categories
                      • Recent
                      • Tags
                      • Popular
                      • World
                      • Users
                      • Groups