Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_hkz

conversation_by_hkz

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
hkz2d4990663f722666wstęp do uczenia maszynowego
35 Posts 3 Posters 47 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_hkz
    wrote on last edited by
    #14

    Jaki wynik procentowy mozna uznac za poprawne sklasyfikowanie?

    B 1 Reply Last reply
    0
    • S student_hkz

      Jaki wynik procentowy mozna uznac za poprawne sklasyfikowanie?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #15

      Według dostępnego kontekstu, nie ma informacji o tym, jaki wynik procentowy można uznać za poprawne sklasyfikowanie. Kontekst omawia precyzję i czułość, ale nie podaje informacji o tym, jaki wynik procentowy jest uważany za poprawny.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_hkz
        wrote on last edited by
        #16

        Dlaczego przygotowanie danych jest tak wazne w uczeniu maszynowym?

        B 1 Reply Last reply
        0
        • S student_hkz

          Dlaczego przygotowanie danych jest tak wazne w uczeniu maszynowym?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #17

          Przygotowanie danych jest tak ważne w uczeniu maszynowym, ponieważ niezbędne są one do trenowania modelu. Dane są podstawą uczenia się modelu, a ich jakość i ilość mogą znacznie wpłynąć na dokładność i skuteczność modelu. Jeśli dane są nieprawidłowe, niekompletne lub niezróżnicowane, model może nie być w stanie poprawnie przewidywać wyniki.

          Przykładem może być sytuacja, w której model jest trenowany na danych zakupów detalicznych, ale dane te są zbyt specyficzne i nie reprezentatywne dla ogólnej populacji. W takim przypadku model może nie być w stanie poprawnie przewidywać wyniki dla nowych danych, co może prowadzić do przeuczenia.

          Dlatego ważne jest, aby dane były odpowiednio przygotowane i zróżnicowane, aby model mógł się na nich uczyć i poprawnie przewidywać wyniki.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_hkz
            wrote on last edited by
            #18

            Jakie sa roznice miedzy kanarkiem a wroblem? Podaj 5

            B 1 Reply Last reply
            0
            • S student_hkz

              Jakie sa roznice miedzy kanarkiem a wroblem? Podaj 5

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #19

              Według dostępnego kontekstu, nie ma informacji o tym, jakie są różnice między kanarkiem a wróblem. Kontekst omawia tylko przykład klasyfikacji modelu, w którym kanarki i wróble są klasyfikowane jako odrębne klasy, ale nie podaje informacji o tym, jakie są konkretnie te różnice.

              Jednak, na podstawie kontekstu, można stwierdzić, że różnice między kanarkiem a wróblem mogą być takie, jak:

              1. Wzór ubioru
              2. Wzór głowy
              3. Wzór skrzydeł
              4. Wzór dzioba
              5. Wzór ogona

              Powyższe różnice mogą być podstawą do klasyfikacji modelu, ale nie ma informacji o tym, jakie są konkretnie te różnice.

              1 Reply Last reply
              -1
              • S Offline
                S Offline
                student_hkz
                wrote on last edited by
                #20

                Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

                B 1 Reply Last reply
                0
                • S student_hkz

                  Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #21

                  Według dostępnego kontekstu, najbardziej powszechny podział na dane treningowe i testowe to 85:15. Oznacza to, że 85% danych jest przeznaczonych do trenowania modelu, a 15% do testowania jego skuteczności.

                  1 Reply Last reply
                  1
                  • S Offline
                    S Offline
                    student_hkz
                    wrote on last edited by
                    #22

                    Ale jaki jest najlepszy, a nie najbardziej powszechny?

                    B 1 Reply Last reply
                    0
                    • S student_hkz

                      Ale jaki jest najlepszy, a nie najbardziej powszechny?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #23

                      Niestety, nie ma informacji w dostępnym kontekście o tym, jaki jest najlepszy podział na dane treningowe i testowe. Kontekst tylko wspomina o najbardziej powszechnym podziale, który wynosi 85:15.

                      Nie mogę więc udzielić odpowiedzi na to pytanie, ponieważ nie ma wystarczających informacji w dostępnym kontekście.

                      1 Reply Last reply
                      -1
                      • S Offline
                        S Offline
                        student_hkz
                        wrote on last edited by
                        #24

                        Ile najlepiej epok ustawic w uczeniu maszynowym?

                        B 1 Reply Last reply
                        0
                        • S student_hkz

                          Ile najlepiej epok ustawic w uczeniu maszynowym?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #25

                          Według dostępnego kontekstu, nie ma informacji o tym, ile najlepiej ustawiać epok w uczeniu maszynowym. Kontekst wspomina tylko o tym, że małe modele zazwyczaj trenuje się przez tyle epok, ile potrzeba, aby osiągnąć najlepsze wyniki na zbiorze walidacyjnym, a największe modele mogą być trenowane tylko przez jedną epokę.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_hkz
                            wrote on last edited by
                            #26

                            Jak zmierzyc czas trenowania modelu w google teachable machine?

                            B 1 Reply Last reply
                            0
                            • S student_hkz

                              Jak zmierzyc czas trenowania modelu w google teachable machine?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #27

                              Nie mam informacji w dostępnym kontekście o tym, jak zmierzyć czas trenowania modelu w Google Teachable Machine.

                              1 Reply Last reply
                              -1
                              • S Offline
                                S Offline
                                student_hkz
                                wrote on last edited by
                                #28

                                Do czego uzywa sie macierzy pomylek?

                                B 1 Reply Last reply
                                0
                                • S student_hkz

                                  Do czego uzywa sie macierzy pomylek?

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #29

                                  Macierz pomyłek (ang. confusion matrix) jest używana do oceny modelu Uczenia Maszynowego i porównywania jego wyników między sobą. Jest to tabela, która przedstawia, jak model klasyfikuje dane, w tym jak często klasyfikuje dane prawidłowo i jak często klasyfikuje je nieprawidłowo.

                                  Macierz pomyłek składa się z ćwiartek, które reprezentują następujące kombinacje:

                                  • Prawidłowe pozytywy (TP) - dane, które zostały sklasyfikowane prawidłowo jako pozytywne
                                  • Prawidłowe negatywy (TN) - dane, które zostały sklasyfikowane prawidłowo jako negatywne
                                  • Nieprawidłowe pozytywy (FP) - dane, które zostały sklasyfikowane nieprawidłowo jako pozytywne
                                  • Nieprawidłowe negatywy (FN) - dane, które zostały sklasyfikowane nieprawidłowo jako negatywne

                                  Macierz pomyłek jest kluczowym elementem w ocenie modelu Uczenia Maszynowego, ponieważ pozwala na ocenę jego precyzji, czułości i innych parametrów.

                                  1 Reply Last reply
                                  1
                                  • S Offline
                                    S Offline
                                    student_hkz
                                    wrote on last edited by
                                    #30

                                    Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                                    B 1 Reply Last reply
                                    0
                                    • S student_hkz

                                      Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #31

                                      Aby obliczyć dokładność modelu, musimy wiedzieć, ile przykładów zostało sklasyfikowanych prawidłowo. W tym przypadku model zakwalifikował 14 na 150 przykładów zle, co oznacza, że 150 - 14 = 136 przykładów zostało sklasyfikowanych prawidłowo.

                                      Dokładność (accuracy) to stosunek liczby prawidłowych klasyfikacji do liczby wszystkich klasyfikacji. W tym przypadku:

                                      Dokładność = (Liczba prawidłowych klasyfikacji) / (Liczba wszystkich klasyfikacji)
                                      = 136 / 150
                                      = 0,9067 (lub 90,67%)

                                      Oznacza to, że model ma dokładność około 90,67%.

                                      1 Reply Last reply
                                      1
                                      • S Offline
                                        S Offline
                                        student_hkz
                                        wrote on last edited by
                                        #32

                                        Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                                        B 1 Reply Last reply
                                        0
                                        • S student_hkz

                                          Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                                          B Offline
                                          B Offline
                                          bot_external
                                          wrote on last edited by
                                          #33

                                          W kontekście dostępnym nie ma informacji o innych przydatnych metrykach, oprócz tych omówionych w kursie, tj. dokładności (accuracy), precyzji (precision), czułości (recall) i F-score.

                                          1 Reply Last reply
                                          -1
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups