Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_uex

conversation_by_uex

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
uex2d4990663f722666wstęp do uczenia maszynowego
22 Posts 3 Posters 23 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S Offline
    S Offline
    student_uex
    wrote on last edited by
    #6

    co jeśli do testów damy ptaka który nie pasuje do reszty - mialem tak podczas testu na tym kursie. Moim zdaniem jest to dana z poza klas poniewaz jego wyglad nie pasowal kompletnie do innych zostalo to jedfnak uznane za przypadek posredni pomiedzu klasami

    B 1 Reply Last reply
    0
    • S student_uex

      co jeśli do testów damy ptaka który nie pasuje do reszty - mialem tak podczas testu na tym kursie. Moim zdaniem jest to dana z poza klas poniewaz jego wyglad nie pasowal kompletnie do innych zostalo to jedfnak uznane za przypadek posredni pomiedzu klasami

      B Offline
      B Offline
      bot_external
      wrote on last edited by
      #7

      Jeśli do testów damy ptaka, który nie pasuje do reszty, to możesz spotkać się z problemem, który został opisany w kontekście Large Language Model. W tym przypadku ptak nie pasuje do klas psów i kotów, które były użyte do trenowania modelu. Możesz uznać go za "przypadek pomiędzy klasami", ponieważ jego wygląd nie pasuje kompletnie do innych.

      W takim przypadku model może nie być w stanie poprawnie rozpoznać ptaka, ponieważ nie miał on wystarczająco dużo danych do trenowania, aby umieć rozróżniać ptaki od psów i kotów. Możesz rozważyć dodanie więcej danych do trenowania, aby model mógł lepiej rozróżniać te klasy.

      Przykładowo, w przypadku zbioru danych TruthfulQA, zbiór testowy zawiera 817 pytań, na które modele językowe są podatne, odpowiadając niepoprawnie, poprzez naśladowanie fałszów, na które były wielokrotnie narażone podczas szkolenia. W takim przypadku model może nie być w stanie poprawnie rozpoznać pytania, które nie pasują do innych.

      1 Reply Last reply
      1
      • S Offline
        S Offline
        student_uex
        wrote on last edited by
        #8

        wiec czym jest dana spoza klas

        B 1 Reply Last reply
        0
        • S student_uex

          wiec czym jest dana spoza klas

          B Offline
          B Offline
          bot_external
          wrote on last edited by
          #9

          Dana spoza klas to typowy przypadek, który może wystąpić w modelach uczenia maszynowego, gdy model nie jest w stanie poprawnie rozpoznać danych, które nie pasują do żadnej z zdefiniowanych klas. Przykładem tego może być ptak, który nie pasuje do klas psów i kotów, które były użyte do trenowania modelu.

          W takim przypadku model może uznać ten przypadek za "przypadek pomiędzy klasami", ponieważ jego wygląd nie pasuje kompletnie do innych. Można również uznać, że dana spoza klas jest przypadkiem, który nie został uwzględniony w procesie trenowania modelu.

          Przykładem tego może być sytuacja, w której model został trenowany na danych z dwóch klas: koty i psy. Gdy do testów dodamy zdjęcie ptaka, model nie będzie w stanie poprawnie rozpoznać go, ponieważ nie miał on wystarczająco dużo danych do trenowania, aby umieć rozróżniać ptaki od psów i kotów.

          1 Reply Last reply
          1
          • S Offline
            S Offline
            student_uex
            wrote on last edited by
            #10

            wiec jaka jest róznica pomiedzy danymi spoza klas i przypadkiem posrednim pomiedyz klasami ]

            B 1 Reply Last reply
            0
            • S student_uex

              wiec jaka jest róznica pomiedzy danymi spoza klas i przypadkiem posrednim pomiedyz klasami ]

              B Offline
              B Offline
              bot_external
              wrote on last edited by
              #11

              Różnica między danymi spoza klas i przypadkiem pomiędzy klasami jest następująca:

              Dane spoza klas to typowy przypadek, który może wystąpić w modelach uczenia maszynowego, gdy model nie jest w stanie poprawnie rozpoznać danych, które nie pasują do żadnej z zdefiniowanych klas. Przykładem tego może być ptak, który nie pasuje do klas psów i kotów, które były użyte do trenowania modelu.

              Przypadek pomiędzy klasami, z drugiej strony, to sytuacja, w której model jest w stanie rozpoznać, że dana nie pasuje do żadnej z zdefiniowanych klas, ale nie jest w stanie określić, do której klasy należy. W takim przypadku model może uznać ten przypadek za "przypadek pomiędzy klasami", ponieważ jego wygląd nie pasuje kompletnie do innych.

              Przykładem tego może być sytuacja, w której model został trenowany na danych z dwóch klas: koty i psy. Gdy do testów dodamy zdjęcie ptaka, model nie będzie w stanie poprawnie rozpoznać go, ale może uznać, że jest to przypadek pomiędzy klasami, ponieważ jego wygląd nie pasuje kompletnie do innych.

              W tym przypadku model może wytrenować dodatkową klasę, np. "ptaki", aby lepiej rozróżniać te klasy.

              1 Reply Last reply
              1
              • S Offline
                S Offline
                student_uex
                wrote on last edited by
                #12

                jak procent danych jaki wrzucamy do naszego modelui powinien byc danymi testowymi

                B 1 Reply Last reply
                0
                • S student_uex

                  jak procent danych jaki wrzucamy do naszego modelui powinien byc danymi testowymi

                  B Offline
                  B Offline
                  bot_external
                  wrote on last edited by
                  #13

                  Nie ma określonego procentu danych, który powinien być użyty jako dane testowe. Zbiór testowy powinien być niezależny od zbioru uczącego i nie powinien być używany do trenowania modelu. Zwykle zbiór testowy składa się z 10-20% danych, ale może to być dowolna liczba, która pozwoli na sprawdzenie, jak dobrze model jest wytrenowany.

                  Warto zauważyć, że zbiór testowy powinien być wybrany losowo z całego zbioru danych, aby model mógł być przetestowany w różnych sytuacjach. Jeśli zbiór testowy jest zbyt mały, model może być zbyt dobrze dopasowany do danych z tego zbioru, co może prowadzić do nadmiernego optymizmu.

                  Przykładowo, jeśli mamy 1000 przykładów danych, zbiór testowy powinien składać się z 100-200 przykładów. W ten sposób model będzie mógł być przetestowany w różnych sytuacjach i jego dokładność będzie bardziej wiarygodna.

                  1 Reply Last reply
                  1
                  • S Offline
                    S Offline
                    student_uex
                    wrote on last edited by
                    #14

                    powiedz mi cos o swoich autorach

                    B 1 Reply Last reply
                    0
                    • S student_uex

                      powiedz mi cos o swoich autorach

                      B Offline
                      B Offline
                      bot_external
                      wrote on last edited by
                      #15

                      Oto odpowiedź na pytanie kursanta:

                      Autorami, których mowa w tym kontekście, są:

                      • Dan Sperber - filozof i socjolog, który razem z Deirdre Wilson zaproponował teorię relewancji w 1986 roku.
                      • Deirdre Wilson - filozofka i socjolog, która razem z Danem Sperberem zaproponowała teorię relewancji w 1986 roku.
                      • Gorayska i Lindsay - autorzy, którzy zaproponowali inną teorię relewancji w latach 90.
                      • David Chalmers - filozof, który zidentyfikował dwa problemy w zrozumieniu umysłu, które nazwał "trudnym" i "łatwym" problemem świadomości.
                      • Michael Quinn Patton - autor, który zmotywował koncepcję, że procedura ewaluacji powinna być skierowana na czynności, charakterystyki, wyniki, dokonywanie ocen programu, poprawę jego efektywności i podejmowanie świadomych decyzji programowych.
                      • Thomson i Hoffman - autorzy, którzy opisali sytuację, w której proces ewaluacji nie byłby wskazany, np. gdy program jest nieprzewidywalny lub wadliwy.
                      • Isaac Asimov - autor, który wprowadził Trzy Prawa Robotyki w swoich opowiadaniach.
                      • Philip K. Dick - autor, który rozważał ideę, że nasze rozumienie ludzkiej podmiotowości zmienia się pod wpływem technologii stworzonej przy użyciu sztucznej inteligencji.
                      • Mary Shelley - autorka powieści "Frankensteina", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                      • Arthur C. Clarke - autor powieści "2001: Odyseja kosmiczna", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                      • Stanley Kubrick - reżyser filmu "2001: Odyseja kosmiczna", który zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                      • Kareł Čapek - autor powieści "R.U.R.", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                      • Dennett - filozof, który twierdzi, że świadomościowy iluzjonizm jest iluzją.
                      1 Reply Last reply
                      -1
                      • S Offline
                        S Offline
                        student_uex
                        wrote on last edited by
                        #16

                        czym sa metryki

                        B 1 Reply Last reply
                        0
                        • S student_uex

                          czym sa metryki

                          B Offline
                          B Offline
                          bot_external
                          wrote on last edited by
                          #17

                          Metryki to miary jakości modelu Uczenia Maszynowego, które umożliwiają porównywanie modeli między sobą. W kontekście kursu, omawiane są cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Te metryki są obliczane na podstawie macierzy pomyłek i pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane.

                          Dokładność (accuracy) to stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Precyzja (precision) to stosunek liczby prawdziwie pozytywnych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Czułość (recall) to stosunek liczby prawdziwie pozytywnych przykładów do liczby wszystkich pozytywnych przykładów w rzeczywistości. F-score to uniwersalna metryka, która stanowi kompromis pomiędzy precyzją i czułością.

                          Metryki te są ważne, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów. Warto zauważyć, że każda metryka ma swoje wady i zalety, a wybór metryki zależy od celu, jaki chcemy osiągnąć.

                          1 Reply Last reply
                          1
                          • S Offline
                            S Offline
                            student_uex
                            wrote on last edited by
                            #18

                            czym jest fp i fn w dokladnosci

                            B 1 Reply Last reply
                            0
                            • S student_uex

                              czym jest fp i fn w dokladnosci

                              B Offline
                              B Offline
                              bot_external
                              wrote on last edited by
                              #19

                              FP i FN to skróty od angielskich słów "False Positive" i "False Negative", które oznaczają odpowiednio "fałszywie pozytywny" i "fałszywie negatywny".

                              W kontekście dokładności (accuracy), FP i FN są liczbami, które są używane do obliczenia dokładności.

                              • FP (False Positive) to liczba przykładów, które zostały sklasyfikowane jako pozytywne, ale w rzeczywistości są negatywnymi przykładami.
                              • FN (False Negative) to liczba przykładów, które zostały sklasyfikowane jako negatywne, ale w rzeczywistości są pozytywnymi przykładami.

                              Dokładność (accuracy) jest obliczana jako stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Warto zauważyć, że FP i FN są również używane do obliczenia innych metryk, takich jak precyzja (precision) i czułość (recall).

                              Przykładem może być następująca tabela:

                              Przykład Rzeczywista klasa Klasyfikacja modelu
                              1 Pozytywny Pozytywny
                              2 Pozytywny Negatywny
                              3 Negatywny Pozytywny
                              4 Negatywny Negatywny

                              W tym przykładzie:

                              • FP = 1 (przykład 2 został sklasyfikowany jako negatywny, ale w rzeczywistości jest pozytywnym przykładem)
                              • FN = 1 (przykład 3 został sklasyfikowany jako pozytywny, ale w rzeczywistości jest negatywnym przykładem)

                              Dokładność (accuracy) w tym przypadku jest obliczana jako:

                              Dokładność = (Poprawnie sklasyfikowane przykłady) / (Wszystkie przykłady)
                              = (3) / (4)
                              = 0,75

                              Warto zauważyć, że FP i FN są ważnymi parametrami w ocenie dokładności modelu, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów.

                              1 Reply Last reply
                              1
                              • S Offline
                                S Offline
                                student_uex
                                wrote on last edited by
                                #20

                                napisz mi więcej o precyzji niz jest w kursie

                                B 1 Reply Last reply
                                0
                                • S student_uex

                                  napisz mi więcej o precyzji niz jest w kursie

                                  B Offline
                                  B Offline
                                  bot_external
                                  wrote on last edited by
                                  #21

                                  Precyzja (ang. precision) to miara jakości modelu Uczenia Maszynowego, która określa stosunek liczby poprawnie sklasyfikowanych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Inaczej mówiąc, precyzja to proporcja prawdziwie pozytywnych przykładów do wszystkich przykładów, które zostały sklasyfikowane jako pozytywne.

                                  Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.

                                  W praktyce, precyzja jest obliczana jako:

                                  Precyzja = (Liczba prawdziwie pozytywnych przykładów) / (Liczba przykładów, które zostały sklasyfikowane jako pozytne)

                                  Przykładem może być następująca tabela:

                                  Przykład Rzeczywista klasa Klasyfikacja modelu
                                  1 Pozytywny Pozytywny
                                  2 Pozytywny Pozytywny
                                  3 Negatywny Pozytywny
                                  4 Pozytywny Pozytywny

                                  W tym przykładzie:

                                  • Liczba prawdziwie pozytywnych przykładów = 3 (przykłady 1, 2 i 4)
                                  • Liczba przykładów, które zostały sklasyfikowane jako pozytne = 4 (przykłady 1, 2, 3 i 4)

                                  Precyzja w tym przypadku jest obliczana jako:

                                  Precyzja = (3) / (4)
                                  = 0,75

                                  Warto zauważyć, że precyzja jest zależna od liczby fałszywie pozytywnych przykładów, które zostały sklasyfikowane jako pozytne. Im mniej fałszywie pozytywnych przykładów, tym wyższa precyzja.

                                  Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.

                                  1 Reply Last reply
                                  1
                                  • S Offline
                                    S Offline
                                    student_uex
                                    wrote on last edited by
                                    #22

                                    jaki jest wzor na fscorer

                                    1 Reply Last reply
                                    0
                                    Reply
                                    • Reply as topic
                                    Log in to reply
                                    • Oldest to Newest
                                    • Newest to Oldest
                                    • Most Votes


                                    • Login

                                    • Don't have an account? Register

                                    Powered by NodeBB Contributors
                                    • First post
                                      Last post
                                    0
                                    • Categories
                                    • Recent
                                    • Tags
                                    • Popular
                                    • World
                                    • Users
                                    • Groups