Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_28f58b2cb19102e2
  3. conversation_by_vt4

conversation_by_vt4

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_28f58b2cb19102e2
vt428f58b2cb19102e2wstęp do uczenia maszynowego
15 Posts 3 Posters 15 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • S student_918_vt4

    Kiedy accuracy będzie lepszą metryką niż precision?

    B Offline
    B Offline
    bot_external
    wrote on last edited by
    #5

    Zgodnie z informacjami przedstawionymi w kursie, accuracy będzie lepszą metryką niż precision w sytuacji, w której zależy nam na wykryciu jak największej liczby przykładów z jednej klasy, a nie na ograniczeniu liczby przypadków fałszywie pozytywnych.

    W takim przypadku, czułość (recall) jest najważniejszą metryką, a accuracy może być używana jako miara ogólnej jakości modelu. Przykładem może być sytuacja, w której model jest używany do wykrycia choroby, na którą jest tylko jeden lek, i ma niechciane efekty uboczne. W takim przypadku, precyzja modelu powinna być jak najwyższa, aby uniknąć niepotrzebnych podań leku osobom zdrowym.

    1 Reply Last reply
    0
    • S Offline
      S Offline
      student_918_vt4
      wrote on last edited by
      #6

      Kiedy używać zbioru walidacyjnego?

      B 1 Reply Last reply
      0
      • S student_918_vt4

        Kiedy używać zbioru walidacyjnego?

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #7

        Zgodnie z informacjami przedstawionymi w kursie, zbiór walidacyjny (validation set) jest używany do dostrojenia parametrów i optymalizacji wydajności modelu. Jest to zbiór danych, który jest używany do sprawdzenia, czy model jest w stanie dobrze przewidywać wyniki, zanim zostanie użyty do oceny dokładności modelu na zbiorze testowym.

        W tym kontekście, zbiór walidacyjny jest używany do:

        1. Dostrojenia parametrów: Użytkownik może dostroić parametry modelu, takie jak wagi cech lub liczba warstw, aby uzyskać najlepsze wyniki na zbiorze walidacyjnym.
        2. Optymalizacji wydajności: Zbiór walidacyjny jest używany do sprawdzenia, czy model jest w stanie dobrze przewidywać wyniki, a także do optymalizacji wydajności modelu.

        Przykładem może być sytuacja, w której model jest używany do rozpoznawania zdjęć ptaków. Zbiór walidacyjny może zawierać zdjęcia ptaków, które nie są używane do trenowania modelu, ale są używane do sprawdzenia, czy model jest w stanie dobrze rozpoznawać zdjęcia ptaków.

        1 Reply Last reply
        0
        • S Offline
          S Offline
          student_918_vt4
          wrote on last edited by
          #8

          Na czym polega uczenie ze wzmacnianiem?

          B 1 Reply Last reply
          0
          • S student_918_vt4

            Na czym polega uczenie ze wzmacnianiem?

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #9

            Uczenie ze wzmacnianiem (Reinforcement Learning) to interdyscyplinarna dziedzina uczenia maszynowego i sterowania optymalnego, która zajmuje się tym, jak inteligentny agent powinien podejmować działania w dynamicznym środowisku, aby zmaksymalizować sygnał nagrody.

            Główną różnicą między uczeniem ze wzmacnianiem a innymi paradygmatami uczenia maszynowego, takimi jak uczenie nadzorowane i nienadzorowane, jest to, że uczenie ze wzmacnianiem nie wymaga przedstawiania oznaczonych par wejście-wyjście i nie wymaga wyraźnego korygowania suboptymalnych działań. Zamiast tego, nacisk kładziony jest na znalezienie równowagi między eksploracją (niezbadanego terytorium) a eksploatacją (aktualnej wiedzy) w celu zmaksymalizowania skumulowanej nagrody.

            Poszukiwanie tej równowagi znane jest jako dylemat eksploracji i eksploatacji. Środowisko jest zazwyczaj przedstawiane w formie Markowskiego procesu decyzyjnego (MDP), ponieważ wiele algorytmów uczenia ze wzmacnianiem wykorzystuje techniki programowania dynamicznego.

            1 Reply Last reply
            0
            • S Offline
              S Offline
              student_918_vt4
              wrote on last edited by
              #10

              Ale napisz jednym zdaniem.

              B 1 Reply Last reply
              0
              • S student_918_vt4

                Ale napisz jednym zdaniem.

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #11

                Precyzja będzie lepszą metryką niż accuracy w sytuacji, w której zależy nam na ograniczeniu liczby przypadków fałszywie pozytywnych, a nie na wykryciu jak największej liczby przykładów z jednej klasy.

                1 Reply Last reply
                0
                • S Offline
                  S Offline
                  student_918_vt4
                  wrote on last edited by
                  #12

                  Pytałem o uczenie ze wzmacnianiem

                  B 1 Reply Last reply
                  0
                  • S student_918_vt4

                    Pytałem o uczenie ze wzmacnianiem

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #13

                    Uczenie ze wzmacnianiem (Reinforcement Learning) to interdyscyplinarna dziedzina uczenia maszynowego i sterowania optymalnego, która zajmuje się tym, jak inteligentny agent powinien podejmować działania w dynamicznym środowisku, aby zmaksymalizować sygnał nagrody.

                    1 Reply Last reply
                    0
                    • S Offline
                      S Offline
                      student_918_vt4
                      wrote on last edited by
                      #14

                      Ale napisz tak żeby to uczeń zrozumiał

                      B 1 Reply Last reply
                      0
                      • S student_918_vt4

                        Ale napisz tak żeby to uczeń zrozumiał

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #15

                        Uczenie ze wzmacnianiem to sposób uczenia modelu, w którym model otrzymuje nagrodę lub karę za swoje działania w dynamicznym środowisku. Celem jest znalezienie najlepszych działań, które maksymalizują nagrodę. To jest podobne do uczenia się w świecie rzeczywistym, gdzie model musi podejmować decyzje w oparciu o wyniki swoich działań.

                        1 Reply Last reply
                        0
                        Reply
                        • Reply as topic
                        Log in to reply
                        • Oldest to Newest
                        • Newest to Oldest
                        • Most Votes


                        • Login

                        • Don't have an account? Register

                        Powered by NodeBB Contributors
                        • First post
                          Last post
                        0
                        • Categories
                        • Recent
                        • Tags
                        • Popular
                        • World
                        • Users
                        • Groups