Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_hkz

conversation_by_hkz

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
hkz2d4990663f722666wstęp do uczenia maszynowego
35 Posts 3 Posters 47 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_hkz

    Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #21

    Według dostępnego kontekstu, najbardziej powszechny podział na dane treningowe i testowe to 85:15. Oznacza to, że 85% danych jest przeznaczonych do trenowania modelu, a 15% do testowania jego skuteczności.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_hkz
      wrote on last edited by
      #22

      Ale jaki jest najlepszy, a nie najbardziej powszechny?

      B 1 Reply Last reply
      0
      • S student_hkz

        Ale jaki jest najlepszy, a nie najbardziej powszechny?

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #23

        Niestety, nie ma informacji w dostępnym kontekście o tym, jaki jest najlepszy podział na dane treningowe i testowe. Kontekst tylko wspomina o najbardziej powszechnym podziale, który wynosi 85:15.

        Nie mogę więc udzielić odpowiedzi na to pytanie, ponieważ nie ma wystarczających informacji w dostępnym kontekście.

        1 Reply Last reply
        -1
        • S Offline
          S Offline
          student_hkz
          wrote on last edited by
          #24

          Ile najlepiej epok ustawic w uczeniu maszynowym?

          B 1 Reply Last reply
          0
          • S student_hkz

            Ile najlepiej epok ustawic w uczeniu maszynowym?

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #25

            Według dostępnego kontekstu, nie ma informacji o tym, ile najlepiej ustawiać epok w uczeniu maszynowym. Kontekst wspomina tylko o tym, że małe modele zazwyczaj trenuje się przez tyle epok, ile potrzeba, aby osiągnąć najlepsze wyniki na zbiorze walidacyjnym, a największe modele mogą być trenowane tylko przez jedną epokę.

            1 Reply Last reply
            1
            • S Offline
              S Offline
              student_hkz
              wrote on last edited by
              #26

              Jak zmierzyc czas trenowania modelu w google teachable machine?

              B 1 Reply Last reply
              0
              • S student_hkz

                Jak zmierzyc czas trenowania modelu w google teachable machine?

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #27

                Nie mam informacji w dostępnym kontekście o tym, jak zmierzyć czas trenowania modelu w Google Teachable Machine.

                1 Reply Last reply
                -1
                • S Offline
                  S Offline
                  student_hkz
                  wrote on last edited by
                  #28

                  Do czego uzywa sie macierzy pomylek?

                  B 1 Reply Last reply
                  0
                  • S student_hkz

                    Do czego uzywa sie macierzy pomylek?

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #29

                    Macierz pomyłek (ang. confusion matrix) jest używana do oceny modelu Uczenia Maszynowego i porównywania jego wyników między sobą. Jest to tabela, która przedstawia, jak model klasyfikuje dane, w tym jak często klasyfikuje dane prawidłowo i jak często klasyfikuje je nieprawidłowo.

                    Macierz pomyłek składa się z ćwiartek, które reprezentują następujące kombinacje:

                    • Prawidłowe pozytywy (TP) - dane, które zostały sklasyfikowane prawidłowo jako pozytywne
                    • Prawidłowe negatywy (TN) - dane, które zostały sklasyfikowane prawidłowo jako negatywne
                    • Nieprawidłowe pozytywy (FP) - dane, które zostały sklasyfikowane nieprawidłowo jako pozytywne
                    • Nieprawidłowe negatywy (FN) - dane, które zostały sklasyfikowane nieprawidłowo jako negatywne

                    Macierz pomyłek jest kluczowym elementem w ocenie modelu Uczenia Maszynowego, ponieważ pozwala na ocenę jego precyzji, czułości i innych parametrów.

                    1 Reply Last reply
                    1
                    • S Offline
                      S Offline
                      student_hkz
                      wrote on last edited by
                      #30

                      Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                      B 1 Reply Last reply
                      0
                      • S student_hkz

                        Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #31

                        Aby obliczyć dokładność modelu, musimy wiedzieć, ile przykładów zostało sklasyfikowanych prawidłowo. W tym przypadku model zakwalifikował 14 na 150 przykładów zle, co oznacza, że 150 - 14 = 136 przykładów zostało sklasyfikowanych prawidłowo.

                        Dokładność (accuracy) to stosunek liczby prawidłowych klasyfikacji do liczby wszystkich klasyfikacji. W tym przypadku:

                        Dokładność = (Liczba prawidłowych klasyfikacji) / (Liczba wszystkich klasyfikacji)
                        = 136 / 150
                        = 0,9067 (lub 90,67%)

                        Oznacza to, że model ma dokładność około 90,67%.

                        1 Reply Last reply
                        1
                        • S Offline
                          S Offline
                          student_hkz
                          wrote on last edited by
                          #32

                          Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                          B 1 Reply Last reply
                          0
                          • S student_hkz

                            Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #33

                            W kontekście dostępnym nie ma informacji o innych przydatnych metrykach, oprócz tych omówionych w kursie, tj. dokładności (accuracy), precyzji (precision), czułości (recall) i F-score.

                            1 Reply Last reply
                            -1
                            • S Offline
                              S Offline
                              student_hkz
                              wrote on last edited by
                              #34

                              Co to swoistosc modelu?

                              B 1 Reply Last reply
                              0
                              • S student_hkz

                                Co to swoistosc modelu?

                                B Offline
                                B Offline
                                bot_external
                                wrote on last edited by
                                #35

                                W kontekście dostępnym nie ma informacji o pojęciu "swoistości modelu". Jednak, w oparciu o dostępne informacje, można stwierdzić, że niektóre metryki, takie jak dokładność (accuracy), precyzja (precision), czułość (recall) i F-score, mogą być używane do oceny modelu, ale nie ma informacji o pojęciu "swoistości modelu" w tym kontekście.

                                1 Reply Last reply
                                -1
                                Reply
                                • Reply as topic
                                Log in to reply
                                • Oldest to Newest
                                • Newest to Oldest
                                • Most Votes


                                • Login

                                • Don't have an account? Register

                                Powered by NodeBB Contributors
                                • First post
                                  Last post
                                0
                                • Categories
                                • Recent
                                • Tags
                                • Popular
                                • World
                                • Users
                                • Groups