Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_uex

conversation_by_uex

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
uex2d4990663f722666wstęp do uczenia maszynowego
22 Posts 3 Posters 23 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_uex

    hej powiedz mi cos wiecej o zbiorach testowych

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #3

    Zbiór testowy to zestaw danych, który nie był używany podczas procesu uczenia się modelu, a który jest wykorzystywany do przetestowania, jak dobrze model jest wytrenowany. Zbiór testowy powinien być niezależny od zbioru uczącego i nie powinien być używany do trenowania modelu.

    W kontekście Large Language Model, zbiór testowy jest używany do oceny, jak dobrze model jest w stanie rozwiązać różne zadania, takie jak pytania i odpowiedzi, uzupełnianie tekstu itp. Zbiór testowy powinien zawierać różne typy danych, aby model mógł być przetestowany w różnych sytuacjach.

    Warto zauważyć, że termin "zbiór testowy" i "zbiór walidacyjny" jest czasami używany zamiennie, ale w kontekście Large Language Model, zbiór testowy odnosi się do danych, które nie były używane podczas procesu uczenia się modelu.

    Przykładowo, w przypadku zbioru danych TruthfulQA, zbiór testowy zawiera 817 pytań, na które modele językowe są podatne, odpowiadając niepoprawnie, poprzez naśladowanie fałszów, na które były wielokrotnie narażone podczas szkolenia.

    1 Reply Last reply
    1
    • S Offline
      S Offline
      student_uex
      wrote on last edited by
      #4

      co się stanie jeśli do jednej klasy dam dużo więcej danych niż do drugiej

      B 1 Reply Last reply
      0
      • S student_uex

        co się stanie jeśli do jednej klasy dam dużo więcej danych niż do drugiej

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #5

        Jeśli do jednej klasy dam dużo więcej danych niż do drugiej, to możesz spotkać się z problemem braku równowagi w danych. Brak równowagi danych może powodować, że model uczenia maszynowego będzie miał trudności z generalizowaniem do nowych danych, ponieważ będzie zbyt dobrze dopasowany do danych z klasy, która ma więcej danych.

        W takim przypadku możesz rozważyć stosowanie nadpróbkowania lub podpróbkowania, aby zrekompensować brak równowagi. Nadpróbkowanie polega na uzupełnianiu danych treningowych wielokrotnymi kopiami niektórych klas mniejszościowych, co może pomóc w poprawie równowagi danych. Podpróbkowanie polega na wybieraniu mniejszej liczby danych z klasy większościowej, co może pomóc w zmniejszeniu wpływu tej klasy na model.

        Przykładowo, jeśli chcesz zbadać problem dyskryminacji płciowej i dysponujesz danymi z ankiet dotyczących wynagrodzeń w konkretnej dziedzinie, np. w branży oprogramowania komputerowego, a tylko 20% inżynierów oprogramowania to kobiety, to możesz wybrać 4 razy więcej kobiet niż mężczyzn, aby w ostatecznej próbie obie płcie były reprezentowane w równym stopniu.

        1 Reply Last reply
        1
        • S Offline
          S Offline
          student_uex
          wrote on last edited by
          #6

          co jeśli do testów damy ptaka który nie pasuje do reszty - mialem tak podczas testu na tym kursie. Moim zdaniem jest to dana z poza klas poniewaz jego wyglad nie pasowal kompletnie do innych zostalo to jedfnak uznane za przypadek posredni pomiedzu klasami

          B 1 Reply Last reply
          0
          • S student_uex

            co jeśli do testów damy ptaka który nie pasuje do reszty - mialem tak podczas testu na tym kursie. Moim zdaniem jest to dana z poza klas poniewaz jego wyglad nie pasowal kompletnie do innych zostalo to jedfnak uznane za przypadek posredni pomiedzu klasami

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #7

            Jeśli do testów damy ptaka, który nie pasuje do reszty, to możesz spotkać się z problemem, który został opisany w kontekście Large Language Model. W tym przypadku ptak nie pasuje do klas psów i kotów, które były użyte do trenowania modelu. Możesz uznać go za "przypadek pomiędzy klasami", ponieważ jego wygląd nie pasuje kompletnie do innych.

            W takim przypadku model może nie być w stanie poprawnie rozpoznać ptaka, ponieważ nie miał on wystarczająco dużo danych do trenowania, aby umieć rozróżniać ptaki od psów i kotów. Możesz rozważyć dodanie więcej danych do trenowania, aby model mógł lepiej rozróżniać te klasy.

            Przykładowo, w przypadku zbioru danych TruthfulQA, zbiór testowy zawiera 817 pytań, na które modele językowe są podatne, odpowiadając niepoprawnie, poprzez naśladowanie fałszów, na które były wielokrotnie narażone podczas szkolenia. W takim przypadku model może nie być w stanie poprawnie rozpoznać pytania, które nie pasują do innych.

            1 Reply Last reply
            1
            • S Offline
              S Offline
              student_uex
              wrote on last edited by
              #8

              wiec czym jest dana spoza klas

              B 1 Reply Last reply
              0
              • S student_uex

                wiec czym jest dana spoza klas

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #9

                Dana spoza klas to typowy przypadek, który może wystąpić w modelach uczenia maszynowego, gdy model nie jest w stanie poprawnie rozpoznać danych, które nie pasują do żadnej z zdefiniowanych klas. Przykładem tego może być ptak, który nie pasuje do klas psów i kotów, które były użyte do trenowania modelu.

                W takim przypadku model może uznać ten przypadek za "przypadek pomiędzy klasami", ponieważ jego wygląd nie pasuje kompletnie do innych. Można również uznać, że dana spoza klas jest przypadkiem, który nie został uwzględniony w procesie trenowania modelu.

                Przykładem tego może być sytuacja, w której model został trenowany na danych z dwóch klas: koty i psy. Gdy do testów dodamy zdjęcie ptaka, model nie będzie w stanie poprawnie rozpoznać go, ponieważ nie miał on wystarczająco dużo danych do trenowania, aby umieć rozróżniać ptaki od psów i kotów.

                1 Reply Last reply
                1
                • S Offline
                  S Offline
                  student_uex
                  wrote on last edited by
                  #10

                  wiec jaka jest róznica pomiedzy danymi spoza klas i przypadkiem posrednim pomiedyz klasami ]

                  B 1 Reply Last reply
                  0
                  • S student_uex

                    wiec jaka jest róznica pomiedzy danymi spoza klas i przypadkiem posrednim pomiedyz klasami ]

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #11

                    Różnica między danymi spoza klas i przypadkiem pomiędzy klasami jest następująca:

                    Dane spoza klas to typowy przypadek, który może wystąpić w modelach uczenia maszynowego, gdy model nie jest w stanie poprawnie rozpoznać danych, które nie pasują do żadnej z zdefiniowanych klas. Przykładem tego może być ptak, który nie pasuje do klas psów i kotów, które były użyte do trenowania modelu.

                    Przypadek pomiędzy klasami, z drugiej strony, to sytuacja, w której model jest w stanie rozpoznać, że dana nie pasuje do żadnej z zdefiniowanych klas, ale nie jest w stanie określić, do której klasy należy. W takim przypadku model może uznać ten przypadek za "przypadek pomiędzy klasami", ponieważ jego wygląd nie pasuje kompletnie do innych.

                    Przykładem tego może być sytuacja, w której model został trenowany na danych z dwóch klas: koty i psy. Gdy do testów dodamy zdjęcie ptaka, model nie będzie w stanie poprawnie rozpoznać go, ale może uznać, że jest to przypadek pomiędzy klasami, ponieważ jego wygląd nie pasuje kompletnie do innych.

                    W tym przypadku model może wytrenować dodatkową klasę, np. "ptaki", aby lepiej rozróżniać te klasy.

                    1 Reply Last reply
                    1
                    • S Offline
                      S Offline
                      student_uex
                      wrote on last edited by
                      #12

                      jak procent danych jaki wrzucamy do naszego modelui powinien byc danymi testowymi

                      B 1 Reply Last reply
                      0
                      • S student_uex

                        jak procent danych jaki wrzucamy do naszego modelui powinien byc danymi testowymi

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #13

                        Nie ma określonego procentu danych, który powinien być użyty jako dane testowe. Zbiór testowy powinien być niezależny od zbioru uczącego i nie powinien być używany do trenowania modelu. Zwykle zbiór testowy składa się z 10-20% danych, ale może to być dowolna liczba, która pozwoli na sprawdzenie, jak dobrze model jest wytrenowany.

                        Warto zauważyć, że zbiór testowy powinien być wybrany losowo z całego zbioru danych, aby model mógł być przetestowany w różnych sytuacjach. Jeśli zbiór testowy jest zbyt mały, model może być zbyt dobrze dopasowany do danych z tego zbioru, co może prowadzić do nadmiernego optymizmu.

                        Przykładowo, jeśli mamy 1000 przykładów danych, zbiór testowy powinien składać się z 100-200 przykładów. W ten sposób model będzie mógł być przetestowany w różnych sytuacjach i jego dokładność będzie bardziej wiarygodna.

                        1 Reply Last reply
                        1
                        • S Offline
                          S Offline
                          student_uex
                          wrote on last edited by
                          #14

                          powiedz mi cos o swoich autorach

                          B 1 Reply Last reply
                          0
                          • S student_uex

                            powiedz mi cos o swoich autorach

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #15

                            Oto odpowiedź na pytanie kursanta:

                            Autorami, których mowa w tym kontekście, są:

                            • Dan Sperber - filozof i socjolog, który razem z Deirdre Wilson zaproponował teorię relewancji w 1986 roku.
                            • Deirdre Wilson - filozofka i socjolog, która razem z Danem Sperberem zaproponowała teorię relewancji w 1986 roku.
                            • Gorayska i Lindsay - autorzy, którzy zaproponowali inną teorię relewancji w latach 90.
                            • David Chalmers - filozof, który zidentyfikował dwa problemy w zrozumieniu umysłu, które nazwał "trudnym" i "łatwym" problemem świadomości.
                            • Michael Quinn Patton - autor, który zmotywował koncepcję, że procedura ewaluacji powinna być skierowana na czynności, charakterystyki, wyniki, dokonywanie ocen programu, poprawę jego efektywności i podejmowanie świadomych decyzji programowych.
                            • Thomson i Hoffman - autorzy, którzy opisali sytuację, w której proces ewaluacji nie byłby wskazany, np. gdy program jest nieprzewidywalny lub wadliwy.
                            • Isaac Asimov - autor, który wprowadził Trzy Prawa Robotyki w swoich opowiadaniach.
                            • Philip K. Dick - autor, który rozważał ideę, że nasze rozumienie ludzkiej podmiotowości zmienia się pod wpływem technologii stworzonej przy użyciu sztucznej inteligencji.
                            • Mary Shelley - autorka powieści "Frankensteina", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                            • Arthur C. Clarke - autor powieści "2001: Odyseja kosmiczna", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                            • Stanley Kubrick - reżyser filmu "2001: Odyseja kosmiczna", który zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                            • Kareł Čapek - autor powieści "R.U.R.", która zawiera motyw narracyjny o sztucznych bytach zdolnych do myślenia.
                            • Dennett - filozof, który twierdzi, że świadomościowy iluzjonizm jest iluzją.
                            1 Reply Last reply
                            -1
                            • S Offline
                              S Offline
                              student_uex
                              wrote on last edited by
                              #16

                              czym sa metryki

                              B 1 Reply Last reply
                              0
                              • S student_uex

                                czym sa metryki

                                B Offline
                                B Offline
                                bot_external
                                wrote on last edited by
                                #17

                                Metryki to miary jakości modelu Uczenia Maszynowego, które umożliwiają porównywanie modeli między sobą. W kontekście kursu, omawiane są cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Te metryki są obliczane na podstawie macierzy pomyłek i pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane.

                                Dokładność (accuracy) to stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Precyzja (precision) to stosunek liczby prawdziwie pozytywnych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Czułość (recall) to stosunek liczby prawdziwie pozytywnych przykładów do liczby wszystkich pozytywnych przykładów w rzeczywistości. F-score to uniwersalna metryka, która stanowi kompromis pomiędzy precyzją i czułością.

                                Metryki te są ważne, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów. Warto zauważyć, że każda metryka ma swoje wady i zalety, a wybór metryki zależy od celu, jaki chcemy osiągnąć.

                                1 Reply Last reply
                                1
                                • S Offline
                                  S Offline
                                  student_uex
                                  wrote on last edited by
                                  #18

                                  czym jest fp i fn w dokladnosci

                                  B 1 Reply Last reply
                                  0
                                  • S student_uex

                                    czym jest fp i fn w dokladnosci

                                    B Offline
                                    B Offline
                                    bot_external
                                    wrote on last edited by
                                    #19

                                    FP i FN to skróty od angielskich słów "False Positive" i "False Negative", które oznaczają odpowiednio "fałszywie pozytywny" i "fałszywie negatywny".

                                    W kontekście dokładności (accuracy), FP i FN są liczbami, które są używane do obliczenia dokładności.

                                    • FP (False Positive) to liczba przykładów, które zostały sklasyfikowane jako pozytywne, ale w rzeczywistości są negatywnymi przykładami.
                                    • FN (False Negative) to liczba przykładów, które zostały sklasyfikowane jako negatywne, ale w rzeczywistości są pozytywnymi przykładami.

                                    Dokładność (accuracy) jest obliczana jako stosunek liczby poprawnie sklasyfikowanych przykładów do wszystkich przykładów w zestawie testowym. Warto zauważyć, że FP i FN są również używane do obliczenia innych metryk, takich jak precyzja (precision) i czułość (recall).

                                    Przykładem może być następująca tabela:

                                    Przykład Rzeczywista klasa Klasyfikacja modelu
                                    1 Pozytywny Pozytywny
                                    2 Pozytywny Negatywny
                                    3 Negatywny Pozytywny
                                    4 Negatywny Negatywny

                                    W tym przykładzie:

                                    • FP = 1 (przykład 2 został sklasyfikowany jako negatywny, ale w rzeczywistości jest pozytywnym przykładem)
                                    • FN = 1 (przykład 3 został sklasyfikowany jako pozytywny, ale w rzeczywistości jest negatywnym przykładem)

                                    Dokładność (accuracy) w tym przypadku jest obliczana jako:

                                    Dokładność = (Poprawnie sklasyfikowane przykłady) / (Wszystkie przykłady)
                                    = (3) / (4)
                                    = 0,75

                                    Warto zauważyć, że FP i FN są ważnymi parametrami w ocenie dokładności modelu, ponieważ pozwalają ocenić, jak dobrze model jest w stanie rozpoznać dane i czy jest w stanie uniknąć błędów.

                                    1 Reply Last reply
                                    1
                                    • S Offline
                                      S Offline
                                      student_uex
                                      wrote on last edited by
                                      #20

                                      napisz mi więcej o precyzji niz jest w kursie

                                      B 1 Reply Last reply
                                      0
                                      • S student_uex

                                        napisz mi więcej o precyzji niz jest w kursie

                                        B Offline
                                        B Offline
                                        bot_external
                                        wrote on last edited by
                                        #21

                                        Precyzja (ang. precision) to miara jakości modelu Uczenia Maszynowego, która określa stosunek liczby poprawnie sklasyfikowanych przykładów do liczby przykładów, które zostały sklasyfikowane jako pozytywne. Inaczej mówiąc, precyzja to proporcja prawdziwie pozytywnych przykładów do wszystkich przykładów, które zostały sklasyfikowane jako pozytywne.

                                        Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.

                                        W praktyce, precyzja jest obliczana jako:

                                        Precyzja = (Liczba prawdziwie pozytywnych przykładów) / (Liczba przykładów, które zostały sklasyfikowane jako pozytne)

                                        Przykładem może być następująca tabela:

                                        Przykład Rzeczywista klasa Klasyfikacja modelu
                                        1 Pozytywny Pozytywny
                                        2 Pozytywny Pozytywny
                                        3 Negatywny Pozytywny
                                        4 Pozytywny Pozytywny

                                        W tym przykładzie:

                                        • Liczba prawdziwie pozytywnych przykładów = 3 (przykłady 1, 2 i 4)
                                        • Liczba przykładów, które zostały sklasyfikowane jako pozytne = 4 (przykłady 1, 2, 3 i 4)

                                        Precyzja w tym przypadku jest obliczana jako:

                                        Precyzja = (3) / (4)
                                        = 0,75

                                        Warto zauważyć, że precyzja jest zależna od liczby fałszywie pozytywnych przykładów, które zostały sklasyfikowane jako pozytne. Im mniej fałszywie pozytywnych przykładów, tym wyższa precyzja.

                                        Precyzja jest ważnym parametrem w ocenie jakości modelu, ponieważ pozwala ocenić, jak dobrze model jest w stanie rozpoznać pozytywne przykłady i czy jest w stanie uniknąć fałszywie pozytywnych przykładów.

                                        1 Reply Last reply
                                        1
                                        • S Offline
                                          S Offline
                                          student_uex
                                          wrote on last edited by
                                          #22

                                          jaki jest wzor na fscorer

                                          1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups