Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_uex

conversation_by_uex

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
uex2d4990663f722666wstęp do uczenia maszynowego
22 Posts 3 Posters 23 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_uex

    jak procent danych jaki wrzucamy do naszego modelui powinien byc danymi testowymi

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #13

    Nie ma określonego procentu danych, który powinien być użyty jako dane testowe. Zbiór testowy powinien być niezależny od zbioru uczącego i nie powinien być używany do trenowania modelu. Zwykle zbiór testowy składa się z 10-20% danych, ale może to być dowolna liczba, która pozwoli na sprawdzenie, jak dobrze model jest wytrenowany.

    Warto zauważyć, że zbiór testowy powinien być wybrany losowo z całego zbioru danych, aby model mógł być przetestowany w różnych sytuacjach. Jeśli zbiór testowy jest zbyt mały, model może być zbyt dobrze dopasowany do danych z tego zbioru, co może prowadzić do nadmiernego optymizmu.

    Przykładowo, jeśli mamy 1000 przykładów danych, zbiór testowy powinien składać się z 100-200 przykładów. W ten sposób model będzie mógł być przetestowany w różnych sytuacjach i jego dokładność będzie bardziej wiarygodna.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_uex
      wrote on last edited by
      #14

      powiedz mi cos o swoich autorach

      B 1 Reply Last reply
      0
      • S student_uex

        powiedz mi cos o swoich autorach

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #15

        Oto odpowiedź na pytanie kursanta:

        Autorami, których mowa w tym kontekście, są:

        • Dan Sperber - filozof i socjolog, który razem z Deirdre Wilson zaproponował teorię relewancji w 1986 roku.
        • Deirdre Wilson - filozofka i socjolog, która razem z Danem Sperberem zaproponowała teorię relewancji w 1986 roku.
        • Gorayska i Lindsay - autorzy, którzy zaproponowali inną teorię relewancji w latach 90.
        • David Chalmers - filozof, który zidentyfikował dwa problemy w zrozumieniu umysłu, które nazwał "trudnym" i "łatwym" problemem świadomości.
        • Michael Quinn Patton - autor, który zmotywował koncepcję, że procedura ewaluacji powinna być skierowana na czynności, charakterystyki, wyniki, dokonywanie ocen programu, poprawę jego efektywności i podejmowanie świadomych decyzji programowych.
        • Thomson i Hoffman - autorzy, którzy opisali sytuację, w której proces ewaluacji nie byłby wskazany, np. gdy program jest nieprzewidywalny lub wadliwy.
        • Isaac Asimov - autor, który wprowadził Trzy Prawa Robotyki w swoich opowiadaniach.
        • Philip K. Dick - autor, który rozważał ideę, że nasze rozumienie ludzkiej podmiotowości zmienia się pod wpływem technologii stworzonej przy użyciu sztucznej inteligencji.
        • Mary Shelley - autorka powieści "Frankensteina", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
        • Arthur C. Clarke - autor powieści "2001: Odyseja kosmiczna", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
        • Stanley Kubrick - reżyser filmu "2001: Odyseja kosmiczna", który zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
        • Kareł Čapek - autor powieści "R.U.R.", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
        • Dennett - filozof, który twierdzi, że świadomościowy iluzjonizm jest iluzją.
        1 Reply Last reply
        -1
        • S Offline
          S Offline
          student_uex
          wrote on last edited by
          #16

          czym sa metryki

          B 1 Reply Last reply
          0
          • S student_uex

            czym sa metryki

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #17

            Metryki to miary jakości modelu Uczenia Maszynowego, które umożliwiają porównywanie modeli między sobą. W kontekście kursu, omawiane są cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Te metryki są obliczane na podstawie macierzy pomyłek i pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane.

            Dokładność (accuracy) to stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Precyzja (precision) to stosunek liczby prawdziwie pozytywnych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Czułość (recall) to stosunek liczby prawdziwie pozytywnych przykładów do liczby wszystkich pozytywnych przykładów w rzeczywistości. F-score to uniwersalna metryka, która stanowi kompromis pomiędzy precyzją i czułością.

            Metryki te są ważne, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów. Warto zauważyć, że każda metryka ma swoje wady i zalety, a wybór metryki zależy od celu, jaki chcemy osiągnąć.

            1 Reply Last reply
            1
            • S Offline
              S Offline
              student_uex
              wrote on last edited by
              #18

              czym jest fp i fn w dokladnosci

              B 1 Reply Last reply
              0
              • S student_uex

                czym jest fp i fn w dokladnosci

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #19

                FP i FN to skróty od angielskich słów "False Positive" i "False Negative", które oznaczają odpowiednio "fałszywie pozytywny" i "fałszywie negatywny".

                W kontekście dokładności (accuracy), FP i FN są liczbami, które są używane do obliczenia dokładności.

                • FP (False Positive) to liczba przykładów, które zostały sklasyfikowane jako pozytywne, ale w rzeczywistości są negatywnymi przykładami.
                • FN (False Negative) to liczba przykładów, które zostały sklasyfikowane jako negatywne, ale w rzeczywistości są pozytywnymi przykładami.

                Dokładność (accuracy) jest obliczana jako stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Warto zauważyć, że FP i FN są również używane do obliczenia innych metryk, takich jak precyzja (precision) i czułość (recall).

                Przykładem może być następująca tabela:

                Przykład Rzeczywista klasa Klasyfikacja modelu
                1 Pozytywny Pozytywny
                2 Pozytywny Negatywny
                3 Negatywny Pozytywny
                4 Negatywny Negatywny

                W tym przykładzie:

                • FP = 1 (przykład 2 został sklasyfikowany jako negatywny, ale w rzeczywistości jest pozytywnym przykładem)
                • FN = 1 (przykład 3 został sklasyfikowany jako pozytywny, ale w rzeczywistości jest negatywnym przykładem)

                Dokładność (accuracy) w tym przypadku jest obliczana jako:

                Dokładność = (Poprawnie sklasyfikowane przykłady) / (Wszystkie przykłady)
                = (3) / (4)
                = 0,75

                Warto zauważyć, że FP i FN są ważnymi parametrami w ocenie dokładności modelu, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów.

                1 Reply Last reply
                1
                • S Offline
                  S Offline
                  student_uex
                  wrote on last edited by
                  #20

                  napisz mi więcej o precyzji niz jest w kursie

                  B 1 Reply Last reply
                  0
                  • S student_uex

                    napisz mi więcej o precyzji niz jest w kursie

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #21

                    Precyzja (ang. precision) to miara jakości modelu Uczenia Maszynowego, która określa stosunek liczby poprawnie sklasyfikowanych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Inaczej mówiąc, precyzja to proporcja prawdziwie pozytywnych przykładów do wszystkich przykładów, które zostały sklasyfikowane jako pozytywne.

                    Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.

                    W praktyce, precyzja jest obliczana jako:

                    Precyzja = (Liczba prawdziwie pozytywnych przykładów) / (Liczba przykładów, które zostały sklasyfikowane jako pozytne)

                    Przykładem może być następująca tabela:

                    Przykład Rzeczywista klasa Klasyfikacja modelu
                    1 Pozytywny Pozytywny
                    2 Pozytywny Pozytywny
                    3 Negatywny Pozytywny
                    4 Pozytywny Pozytywny

                    W tym przykładzie:

                    • Liczba prawdziwie pozytywnych przykładów = 3 (przykłady 1, 2 i 4)
                    • Liczba przykładów, które zostały sklasyfikowane jako pozytne = 4 (przykłady 1, 2, 3 i 4)

                    Precyzja w tym przypadku jest obliczana jako:

                    Precyzja = (3) / (4)
                    = 0,75

                    Warto zauważyć, że precyzja jest zależna od liczby fałszywie pozytywnych przykładów, które zostały sklasyfikowane jako pozytne. Im mniej fałszywie pozytywnych przykładów, tym wyższa precyzja.

                    Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.

                    1 Reply Last reply
                    1
                    • S Offline
                      S Offline
                      student_uex
                      wrote on last edited by
                      #22

                      jaki jest wzor na fscorer

                      1 Reply Last reply
                      0
                      Reply
                      • Reply as topic
                      Log in to reply
                      • Oldest to Newest
                      • Newest to Oldest
                      • Most Votes


                      • Login

                      • Don't have an account? Register

                      Powered by NodeBB Contributors
                      • First post
                        Last post
                      0
                      • Categories
                      • Recent
                      • Tags
                      • Popular
                      • World
                      • Users
                      • Groups