Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_hkz

conversation_by_hkz

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
hkz2d4990663f722666wstęp do uczenia maszynowego
35 Posts 3 Posters 47 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_hkz
    wrote on last edited by
    #16

    Dlaczego przygotowanie danych jest tak wazne w uczeniu maszynowym?

    B 1 Reply Last reply
    0
    • S student_hkz

      Dlaczego przygotowanie danych jest tak wazne w uczeniu maszynowym?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #17

      Przygotowanie danych jest tak ważne w uczeniu maszynowym, ponieważ niezbędne są one do trenowania modelu. Dane są podstawą uczenia się modelu, a ich jakość i ilość mogą znacznie wpłynąć na dokładność i skuteczność modelu. Jeśli dane są nieprawidłowe, niekompletne lub niezróżnicowane, model może nie być w stanie poprawnie przewidywać wyniki.

      Przykładem może być sytuacja, w której model jest trenowany na danych zakupów detalicznych, ale dane te są zbyt specyficzne i nie reprezentatywne dla ogólnej populacji. W takim przypadku model może nie być w stanie poprawnie przewidywać wyniki dla nowych danych, co może prowadzić do przeuczenia.

      Dlatego ważne jest, aby dane były odpowiednio przygotowane i zróżnicowane, aby model mógł się na nich uczyć i poprawnie przewidywać wyniki.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_hkz
        wrote on last edited by
        #18

        Jakie sa roznice miedzy kanarkiem a wroblem? Podaj 5

        B 1 Reply Last reply
        0
        • S student_hkz

          Jakie sa roznice miedzy kanarkiem a wroblem? Podaj 5

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #19

          Według dostępnego kontekstu, nie ma informacji o tym, jakie są różnice między kanarkiem a wróblem. Kontekst omawia tylko przykład klasyfikacji modelu, w którym kanarki i wróble są klasyfikowane jako odrębne klasy, ale nie podaje informacji o tym, jakie są konkretnie te różnice.

          Jednak, na podstawie kontekstu, można stwierdzić, że różnice między kanarkiem a wróblem mogą być takie, jak:

          1. Wzór ubioru
          2. Wzór głowy
          3. Wzór skrzydeł
          4. Wzór dzioba
          5. Wzór ogona

          Powyższe różnice mogą być podstawą do klasyfikacji modelu, ale nie ma informacji o tym, jakie są konkretnie te różnice.

          1 Reply Last reply
          -1
          • S Offline
            S Offline
            student_hkz
            wrote on last edited by
            #20

            Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

            B 1 Reply Last reply
            0
            • S student_hkz

              Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #21

              Według dostępnego kontekstu, najbardziej powszechny podział na dane treningowe i testowe to 85:15. Oznacza to, że 85% danych jest przeznaczonych do trenowania modelu, a 15% do testowania jego skuteczności.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_hkz
                wrote on last edited by
                #22

                Ale jaki jest najlepszy, a nie najbardziej powszechny?

                B 1 Reply Last reply
                0
                • S student_hkz

                  Ale jaki jest najlepszy, a nie najbardziej powszechny?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #23

                  Niestety, nie ma informacji w dostępnym kontekście o tym, jaki jest najlepszy podział na dane treningowe i testowe. Kontekst tylko wspomina o najbardziej powszechnym podziale, który wynosi 85:15.

                  Nie mogę więc udzielić odpowiedzi na to pytanie, ponieważ nie ma wystarczających informacji w dostępnym kontekście.

                  1 Reply Last reply
                  -1
                  • S Offline
                    S Offline
                    student_hkz
                    wrote on last edited by
                    #24

                    Ile najlepiej epok ustawic w uczeniu maszynowym?

                    B 1 Reply Last reply
                    0
                    • S student_hkz

                      Ile najlepiej epok ustawic w uczeniu maszynowym?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #25

                      Według dostępnego kontekstu, nie ma informacji o tym, ile najlepiej ustawiać epok w uczeniu maszynowym. Kontekst wspomina tylko o tym, że małe modele zazwyczaj trenuje się przez tyle epok, ile potrzeba, aby osiągnąć najlepsze wyniki na zbiorze walidacyjnym, a największe modele mogą być trenowane tylko przez jedną epokę.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_hkz
                        wrote on last edited by
                        #26

                        Jak zmierzyc czas trenowania modelu w google teachable machine?

                        B 1 Reply Last reply
                        0
                        • S student_hkz

                          Jak zmierzyc czas trenowania modelu w google teachable machine?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #27

                          Nie mam informacji w dostępnym kontekście o tym, jak zmierzyć czas trenowania modelu w Google Teachable Machine.

                          1 Reply Last reply
                          -1
                          • S Offline
                            S Offline
                            student_hkz
                            wrote on last edited by
                            #28

                            Do czego uzywa sie macierzy pomylek?

                            B 1 Reply Last reply
                            0
                            • S student_hkz

                              Do czego uzywa sie macierzy pomylek?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #29

                              Macierz pomyłek (ang. confusion matrix) jest używana do oceny modelu Uczenia Maszynowego i porównywania jego wyników między sobą. Jest to tabela, która przedstawia, jak model klasyfikuje dane, w tym jak często klasyfikuje dane prawidłowo i jak często klasyfikuje je nieprawidłowo.

                              Macierz pomyłek składa się z ćwiartek, które reprezentują następujące kombinacje:

                              • Prawidłowe pozytywy (TP) - dane, które zostały sklasyfikowane prawidłowo jako pozytywne
                              • Prawidłowe negatywy (TN) - dane, które zostały sklasyfikowane prawidłowo jako negatywne
                              • Nieprawidłowe pozytywy (FP) - dane, które zostały sklasyfikowane nieprawidłowo jako pozytywne
                              • Nieprawidłowe negatywy (FN) - dane, które zostały sklasyfikowane nieprawidłowo jako negatywne

                              Macierz pomyłek jest kluczowym elementem w ocenie modelu Uczenia Maszynowego, ponieważ pozwala na ocenę jego precyzji, czułości i innych parametrów.

                              1 Reply Last reply
                              1
                              • S Offline
                                S Offline
                                student_hkz
                                wrote on last edited by
                                #30

                                Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                                B 1 Reply Last reply
                                0
                                • S student_hkz

                                  Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #31

                                  Aby obliczyć dokładność modelu, musimy wiedzieć, ile przykładów zostało sklasyfikowanych prawidłowo. W tym przypadku model zakwalifikował 14 na 150 przykładów zle, co oznacza, że 150 - 14 = 136 przykładów zostało sklasyfikowanych prawidłowo.

                                  Dokładność (accuracy) to stosunek liczby prawidłowych klasyfikacji do liczby wszystkich klasyfikacji. W tym przypadku:

                                  Dokładność = (Liczba prawidłowych klasyfikacji) / (Liczba wszystkich klasyfikacji)
                                  = 136 / 150
                                  = 0,9067 (lub 90,67%)

                                  Oznacza to, że model ma dokładność około 90,67%.

                                  1 Reply Last reply
                                  1
                                  • S Offline
                                    S Offline
                                    student_hkz
                                    wrote on last edited by
                                    #32

                                    Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                                    B 1 Reply Last reply
                                    0
                                    • S student_hkz

                                      Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #33

                                      W kontekście dostępnym nie ma informacji o innych przydatnych metrykach, oprócz tych omówionych w kursie, tj. dokładności (accuracy), precyzji (precision), czułości (recall) i F-score.

                                      1 Reply Last reply
                                      -1
                                      • S Offline
                                        S Offline
                                        student_hkz
                                        wrote on last edited by
                                        #34

                                        Co to swoistosc modelu?

                                        B 1 Reply Last reply
                                        0
                                        • S student_hkz

                                          Co to swoistosc modelu?

                                          B Offline
                                          B Offline
                                          bot_external
                                          wrote on last edited by
                                          #35

                                          W kontekście dostępnym nie ma informacji o pojęciu "swoistości modelu". Jednak, w oparciu o dostępne informacje, można stwierdzić, że niektóre metryki, takie jak dokładność (accuracy), precyzja (precision), czułość (recall) i F-score, mogą być używane do oceny modelu, ale nie ma informacji o pojęciu "swoistości modelu" w tym kontekście.

                                          1 Reply Last reply
                                          -1
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups