Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_hkz

conversation_by_hkz

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
hkz2d4990663f722666wstęp do uczenia maszynowego
35 Posts 3 Posters 47 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_hkz
    wrote on last edited by
    #18

    Jakie sa roznice miedzy kanarkiem a wroblem? Podaj 5

    B 1 Reply Last reply
    0
    • S student_hkz

      Jakie sa roznice miedzy kanarkiem a wroblem? Podaj 5

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #19

      Według dostępnego kontekstu, nie ma informacji o tym, jakie są różnice między kanarkiem a wróblem. Kontekst omawia tylko przykład klasyfikacji modelu, w którym kanarki i wróble są klasyfikowane jako odrębne klasy, ale nie podaje informacji o tym, jakie są konkretnie te różnice.

      Jednak, na podstawie kontekstu, można stwierdzić, że różnice między kanarkiem a wróblem mogą być takie, jak:

      1. Wzór ubioru
      2. Wzór głowy
      3. Wzór skrzydeł
      4. Wzór dzioba
      5. Wzór ogona

      Powyższe różnice mogą być podstawą do klasyfikacji modelu, ale nie ma informacji o tym, jakie są konkretnie te różnice.

      1 Reply Last reply
      -1
      • S Offline
        S Offline
        student_hkz
        wrote on last edited by
        #20

        Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

        B 1 Reply Last reply
        0
        • S student_hkz

          Jaki jest najrozsadniejszy podzial na dane treningowe i testowe?

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #21

          Według dostępnego kontekstu, najbardziej powszechny podział na dane treningowe i testowe to 85:15. Oznacza to, że 85% danych jest przeznaczonych do trenowania modelu, a 15% do testowania jego skuteczności.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_hkz
            wrote on last edited by
            #22

            Ale jaki jest najlepszy, a nie najbardziej powszechny?

            B 1 Reply Last reply
            0
            • S student_hkz

              Ale jaki jest najlepszy, a nie najbardziej powszechny?

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #23

              Niestety, nie ma informacji w dostępnym kontekście o tym, jaki jest najlepszy podział na dane treningowe i testowe. Kontekst tylko wspomina o najbardziej powszechnym podziale, który wynosi 85:15.

              Nie mogę więc udzielić odpowiedzi na to pytanie, ponieważ nie ma wystarczających informacji w dostępnym kontekście.

              1 Reply Last reply
              -1
              • S Offline
                S Offline
                student_hkz
                wrote on last edited by
                #24

                Ile najlepiej epok ustawic w uczeniu maszynowym?

                B 1 Reply Last reply
                0
                • S student_hkz

                  Ile najlepiej epok ustawic w uczeniu maszynowym?

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #25

                  Według dostępnego kontekstu, nie ma informacji o tym, ile najlepiej ustawiać epok w uczeniu maszynowym. Kontekst wspomina tylko o tym, że małe modele zazwyczaj trenuje się przez tyle epok, ile potrzeba, aby osiągnąć najlepsze wyniki na zbiorze walidacyjnym, a największe modele mogą być trenowane tylko przez jedną epokę.

                  1 Reply Last reply
                  1
                  • S Offline
                    S Offline
                    student_hkz
                    wrote on last edited by
                    #26

                    Jak zmierzyc czas trenowania modelu w google teachable machine?

                    B 1 Reply Last reply
                    0
                    • S student_hkz

                      Jak zmierzyc czas trenowania modelu w google teachable machine?

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #27

                      Nie mam informacji w dostępnym kontekście o tym, jak zmierzyć czas trenowania modelu w Google Teachable Machine.

                      1 Reply Last reply
                      -1
                      • S Offline
                        S Offline
                        student_hkz
                        wrote on last edited by
                        #28

                        Do czego uzywa sie macierzy pomylek?

                        B 1 Reply Last reply
                        0
                        • S student_hkz

                          Do czego uzywa sie macierzy pomylek?

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #29

                          Macierz pomyłek (ang. confusion matrix) jest używana do oceny modelu Uczenia Maszynowego i porównywania jego wyników między sobą. Jest to tabela, która przedstawia, jak model klasyfikuje dane, w tym jak często klasyfikuje dane prawidłowo i jak często klasyfikuje je nieprawidłowo.

                          Macierz pomyłek składa się z ćwiartek, które reprezentują następujące kombinacje:

                          • Prawidłowe pozytywy (TP) - dane, które zostały sklasyfikowane prawidłowo jako pozytywne
                          • Prawidłowe negatywy (TN) - dane, które zostały sklasyfikowane prawidłowo jako negatywne
                          • Nieprawidłowe pozytywy (FP) - dane, które zostały sklasyfikowane nieprawidłowo jako pozytywne
                          • Nieprawidłowe negatywy (FN) - dane, które zostały sklasyfikowane nieprawidłowo jako negatywne

                          Macierz pomyłek jest kluczowym elementem w ocenie modelu Uczenia Maszynowego, ponieważ pozwala na ocenę jego precyzji, czułości i innych parametrów.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_hkz
                            wrote on last edited by
                            #30

                            Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                            B 1 Reply Last reply
                            0
                            • S student_hkz

                              Jesli model zakwalifikowal 14 na 150 przykladow zle to jaka jest dokladnosc?

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #31

                              Aby obliczyć dokładność modelu, musimy wiedzieć, ile przykładów zostało sklasyfikowanych prawidłowo. W tym przypadku model zakwalifikował 14 na 150 przykładów zle, co oznacza, że 150 - 14 = 136 przykładów zostało sklasyfikowanych prawidłowo.

                              Dokładność (accuracy) to stosunek liczby prawidłowych klasyfikacji do liczby wszystkich klasyfikacji. W tym przypadku:

                              Dokładność = (Liczba prawidłowych klasyfikacji) / (Liczba wszystkich klasyfikacji)
                              = 136 / 150
                              = 0,9067 (lub 90,67%)

                              Oznacza to, że model ma dokładność około 90,67%.

                              1 Reply Last reply
                              1
                              • S Offline
                                S Offline
                                student_hkz
                                wrote on last edited by
                                #32

                                Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                                B 1 Reply Last reply
                                0
                                • S student_hkz

                                  Jakie sa jeszcze inne przydatne metryki oprocz tych omowionych w kursie?

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #33

                                  W kontekście dostępnym nie ma informacji o innych przydatnych metrykach, oprócz tych omówionych w kursie, tj. dokładności (accuracy), precyzji (precision), czułości (recall) i F-score.

                                  1 Reply Last reply
                                  -1
                                  • S Offline
                                    S Offline
                                    student_hkz
                                    wrote on last edited by
                                    #34

                                    Co to swoistosc modelu?

                                    B 1 Reply Last reply
                                    0
                                    • S student_hkz

                                      Co to swoistosc modelu?

                                      B Offline
                                      B Offline
                                      bot_external
                                      wrote on last edited by
                                      #35

                                      W kontekście dostępnym nie ma informacji o pojęciu "swoistości modelu". Jednak, w oparciu o dostępne informacje, można stwierdzić, że niektóre metryki, takie jak dokładność (accuracy), precyzja (precision), czułość (recall) i F-score, mogą być używane do oceny modelu, ale nie ma informacji o pojęciu "swoistości modelu" w tym kontekście.

                                      1 Reply Last reply
                                      -1
                                      Reply
                                      • Reply as topic
                                      Log in to reply
                                      • Oldest to Newest
                                      • Newest to Oldest
                                      • Most Votes


                                      • Login

                                      • Don't have an account? Register

                                      Powered by NodeBB Contributors
                                      • First post
                                        Last post
                                      0
                                      • Categories
                                      • Recent
                                      • Tags
                                      • Popular
                                      • World
                                      • Users
                                      • Groups