Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_hkz

conversation_by_hkz

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
hkz2d4990663f722666wstęp do uczenia maszynowego
35 Posts 3 Posters 47 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_hkz
    wrote on last edited by
    #20

    Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

    B 1 Reply Last reply
    0
    • S student_hkz

      Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #21

      Według dostępnego kontekstu, najbardziej powszechny podział na dane treningowe i testowe to 85:15. Oznacza to, że 85% danych jest przeznaczonych do trenowania modelu, a 15% do testowania jego skuteczności.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_hkz
        wrote on last edited by
        #22

        Ale jaki jest najlepszy, a nie najbardziej powszechny?

        B 1 Reply Last reply
        0
        • S student_hkz

          Ale jaki jest najlepszy, a nie najbardziej powszechny?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #23

          Niestety, nie ma informacji w dostępnym kontekście o tym, jaki jest najlepszy podział na dane treningowe i testowe. Kontekst tylko wspomina o najbardziej powszechnym podziale, który wynosi 85:15.

          Nie mogę więc udzielić odpowiedzi na to pytanie, ponieważ nie ma wystarczających informacji w dostępnym kontekście.

          1 Reply Last reply
          -1
          • S Offline
            S Offline
            student_hkz
            wrote on last edited by
            #24

            Ile najlepiej epok ustawic w uczeniu maszynowym?

            B 1 Reply Last reply
            0
            • S student_hkz

              Ile najlepiej epok ustawic w uczeniu maszynowym?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #25

              Według dostępnego kontekstu, nie ma informacji o tym, ile najlepiej ustawiać epok w uczeniu maszynowym. Kontekst wspomina tylko o tym, że małe modele zazwyczaj trenuje się przez tyle epok, ile potrzeba, aby osiągnąć najlepsze wyniki na zbiorze walidacyjnym, a największe modele mogą być trenowane tylko przez jedną epokę.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_hkz
                wrote on last edited by
                #26

                Jak zmierzyc czas trenowania modelu w google teachable machine?

                B 1 Reply Last reply
                0
                • S student_hkz

                  Jak zmierzyc czas trenowania modelu w google teachable machine?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #27

                  Nie mam informacji w dostępnym kontekście o tym, jak zmierzyć czas trenowania modelu w Google Teachable Machine.

                  1 Reply Last reply
                  -1
                  • S Offline
                    S Offline
                    student_hkz
                    wrote on last edited by
                    #28

                    Do czego uzywa sie macierzy pomylek?

                    B 1 Reply Last reply
                    0
                    • S student_hkz

                      Do czego uzywa sie macierzy pomylek?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #29

                      Macierz pomyłek (ang. confusion matrix) jest używana do oceny modelu Uczenia Maszynowego i porównywania jego wyników między sobą. Jest to tabela, która przedstawia, jak model klasyfikuje dane, w tym jak często klasyfikuje dane prawidłowo i jak często klasyfikuje je nieprawidłowo.

                      Macierz pomyłek składa się z ćwiartek, które reprezentują następujące kombinacje:

                      • Prawidłowe pozytywy (TP) - dane, które zostały sklasyfikowane prawidłowo jako pozytywne
                      • Prawidłowe negatywy (TN) - dane, które zostały sklasyfikowane prawidłowo jako negatywne
                      • Nieprawidłowe pozytywy (FP) - dane, które zostały sklasyfikowane nieprawidłowo jako pozytywne
                      • Nieprawidłowe negatywy (FN) - dane, które zostały sklasyfikowane nieprawidłowo jako negatywne

                      Macierz pomyłek jest kluczowym elementem w ocenie modelu Uczenia Maszynowego, ponieważ pozwala na ocenę jego precyzji, czułości i innych parametrów.

                      1 Reply Last reply
                      1
                      • S Offline
                        S Offline
                        student_hkz
                        wrote on last edited by
                        #30

                        Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                        B 1 Reply Last reply
                        0
                        • S student_hkz

                          Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #31

                          Aby obliczyć dokładność modelu, musimy wiedzieć, ile przykładów zostało sklasyfikowanych prawidłowo. W tym przypadku model zakwalifikował 14 na 150 przykładów zle, co oznacza, że 150 - 14 = 136 przykładów zostało sklasyfikowanych prawidłowo.

                          Dokładność (accuracy) to stosunek liczby prawidłowych klasyfikacji do liczby wszystkich klasyfikacji. W tym przypadku:

                          Dokładność = (Liczba prawidłowych klasyfikacji) / (Liczba wszystkich klasyfikacji)
                          = 136 / 150
                          = 0,9067 (lub 90,67%)

                          Oznacza to, że model ma dokładność około 90,67%.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_hkz
                            wrote on last edited by
                            #32

                            Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                            B 1 Reply Last reply
                            0
                            • S student_hkz

                              Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #33

                              W kontekście dostępnym nie ma informacji o innych przydatnych metrykach, oprócz tych omówionych w kursie, tj. dokładności (accuracy), precyzji (precision), czułości (recall) i F-score.

                              1 Reply Last reply
                              -1
                              • S Offline
                                S Offline
                                student_hkz
                                wrote on last edited by
                                #34

                                Co to swoistosc modelu?

                                B 1 Reply Last reply
                                0
                                • S student_hkz

                                  Co to swoistosc modelu?

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #35

                                  W kontekście dostępnym nie ma informacji o pojęciu "swoistości modelu". Jednak, w oparciu o dostępne informacje, można stwierdzić, że niektóre metryki, takie jak dokładność (accuracy), precyzja (precision), czułość (recall) i F-score, mogą być używane do oceny modelu, ale nie ma informacji o pojęciu "swoistości modelu" w tym kontekście.

                                  1 Reply Last reply
                                  -1
                                  Reply
                                  • Reply as topic
                                  Log in to reply
                                  • Oldest to Newest
                                  • Newest to Oldest
                                  • Most Votes


                                  • Login

                                  • Don't have an account? Register

                                  Powered by NodeBB Contributors
                                  • First post
                                    Last post
                                  0
                                  • Categories
                                  • Recent
                                  • Tags
                                  • Popular
                                  • World
                                  • Users
                                  • Groups