Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse

Eduexe Forum

  1. Home
  2. Wstęp do uczenia maszynowego_2d4990663f722666
  3. conversation_by_pdb

conversation_by_pdb

Scheduled Pinned Locked Moved Wstęp do uczenia maszynowego_2d4990663f722666
pdb2d4990663f722666wstęp do uczenia maszynowego
25 Posts 3 Posters 26 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • E Online
    E Online
    eduexe.admin
    wrote on last edited by
    #1
    1 Reply Last reply
    0
    • S Offline
      S Offline
      student_pdb
      wrote on last edited by
      #2

      witam, czym jest uczenie przez wzmocnienie?

      B 1 Reply Last reply
      0
      • S student_pdb

        witam, czym jest uczenie przez wzmocnienie?

        B Offline
        B Offline
        bot_external
        wrote on last edited by
        #3

        Uczenie przez wzmocnienie (ang. Reinforcement Learning, RL) to jeden z trzech podstawowych paradygmatów uczenia maszynowego. Polega ono na tym, że agent programowy podejmuje działania w środowisku, aby zmaksymalizować pewną miarę skumulowanej nagrody. Uczenie przez wzmocnienie różni się od uczenia nadzorowanego tym, że nie trzeba prezentować oznaczonych par wejście/wyjście, a suboptymalne działania nie muszą być wyraźnie korygowane.

        Celem uczenia przez wzmocnienie jest nauczenie agenta optymalnej (lub prawie optymalnej) polityki, która maksymalizuje funkcję nagrody lub inny sygnał wzmocnienia dostarczony przez użytkownika. Jest to podobne do procesów, które wydają się zachodzić w psychologii zwierząt, gdzie zwierzęta uczą się przyjmować zachowania, które optymalizują te nagrody.

        Uczenie przez wzmocnienie jest szczególnie dobrze dopasowane do problemów, które obejmują kompromis między nagrodą długoterminową a krótkoterminową. Zostało z powodzeniem zastosowane do różnych problemów, w tym magazynowania energii, sterowania robotami, generatorów fotowoltaicznych, backgammona, warcabów, Go (AlphaGo) i autonomicznych systemów jazdy.

        1 Reply Last reply
        1
        • S Offline
          S Offline
          student_pdb
          wrote on last edited by
          #4

          dobrze, a jak działa ten sygnał wzmocnienia ?

          B 1 Reply Last reply
          0
          • S student_pdb

            dobrze, a jak działa ten sygnał wzmocnienia ?

            B Offline
            B Offline
            bot_external
            wrote on last edited by
            #5

            Sygnał wzmocnienia (ang. reward signal) jest kluczowym elementem uczenia przez wzmocnienie. Jest to sygnał, który informuje agenta o tym, czy jego działania są korzystne lub niekorzystne. Sygnał wzmocnienia jest dostarczany przez użytkownika i jest używany do oceny skuteczności agenta.

            W praktyce sygnał wzmocnienia może przyjmować różne formy, takie jak:

            • Liczba punktów lub nagrody za wykonanie określonego działania
            • Czas, który agent musi spędzić w określonym stanie
            • Liczba błędów lub niepowodzeń, które agent popełnia

            Celem sygnału wzmocnienia jest nauczenie agenta, aby podejmował działania, które maksymalizują jego wartość. W tym celu sygnał wzmocnienia jest używany do aktualizacji modelu agenta, tak aby on mógł wybierać działania, które są najbardziej korzystne.

            Przykładem sygnału wzmocnienia może być gra w gry komputerowe. W takim przypadku sygnał wzmocnienia może być liczbą punktów, które agent zdobywa za wykonanie określonego ruchu. Jeśli agent wykonuje ruch, który jest korzystny, otrzymuje on nagrodę w postaci punktów. Jeśli agent popełnia błąd, otrzymuje on karę w postaci utraty punktów.

            Warto zauważyć, że sygnał wzmocnienia nie musi być zawsze pozytywny. Może on również być negatywny, co oznacza, że agent otrzymuje karę za wykonanie określonego działania.

            1 Reply Last reply
            1
            • S Offline
              S Offline
              student_pdb
              wrote on last edited by
              #6

              dzięki

              B 1 Reply Last reply
              0
              • S student_pdb

                dzięki

                B Offline
                B Offline
                bot_external
                wrote on last edited by
                #7

                Nie widzę w historii rozmowy żadnego pytania kursanta, które mogłoby być odpowiedziane. Proszę o powtórzenie pytania kursanta, aby móc odpowiedzieć.

                1 Reply Last reply
                0
                • S Offline
                  S Offline
                  student_pdb
                  wrote on last edited by
                  #8

                  witam, nie ma takiej zakladki w materialach jak modele

                  B 1 Reply Last reply
                  0
                  • S student_pdb

                    witam, nie ma takiej zakladki w materialach jak modele

                    B Offline
                    B Offline
                    bot_external
                    wrote on last edited by
                    #9

                    Nie widzę w historii rozmowy żadnego pytania kursanta, które mogłoby być odpowiedziane. Proszę o powtórzenie pytania kursanta, aby móc odpowiedzieć.

                    1 Reply Last reply
                    0
                    • S Offline
                      S Offline
                      student_pdb
                      wrote on last edited by
                      #10

                      skad mam wziac folder modele

                      B 1 Reply Last reply
                      0
                      • S student_pdb

                        skad mam wziac folder modele

                        B Offline
                        B Offline
                        bot_external
                        wrote on last edited by
                        #11

                        W materiałach powinieneś znaleźć folder o nazwie "Modele".

                        1 Reply Last reply
                        1
                        • S Offline
                          S Offline
                          student_pdb
                          wrote on last edited by
                          #12

                          nie ma

                          B 1 Reply Last reply
                          0
                          • S student_pdb

                            nie ma

                            B Offline
                            B Offline
                            bot_external
                            wrote on last edited by
                            #13

                            Nie widzę w historii rozmowy żadnego pytania kursanta, które mogłoby być odpowiedziane. Proszę o powtórzenie pytania kursanta, aby móc odpowiedzieć.

                            1 Reply Last reply
                            -1
                            • S Offline
                              S Offline
                              student_pdb
                              wrote on last edited by
                              #14

                              czy uda sie kiedys stworzyc model idealny?

                              B 1 Reply Last reply
                              0
                              • S student_pdb

                                czy uda sie kiedys stworzyc model idealny?

                                B Offline
                                B Offline
                                bot_external
                                wrote on last edited by
                                #15

                                Odpowiedź na to pytanie jest niejednoznaczna, ponieważ nie ma w kontekście żadnych informacji o tym, czy istnieje możliwość stworzenia modelu idealnego. Jednak można powiedzieć, że w praktyce model idealny jest niemożliwy do stworzenia, ponieważ zawsze istnieją przypadki, w których model może się mylić.

                                W jednym z przykładów w materiałach jest mowa o modelu, który na 100 przykładach testowych ocenił poprawnie 90, ale popełnił błąd w jednym przypadku. To pokazuje, że nawet najlepsze modele mogą się mylić, a więc model idealny jest niemożliwy do stworzenia.

                                1 Reply Last reply
                                1
                                • S Offline
                                  S Offline
                                  student_pdb
                                  wrote on last edited by
                                  #16

                                  jak to uczenie działa? jak trenuje się taki model?

                                  B 1 Reply Last reply
                                  0
                                  • S student_pdb

                                    jak to uczenie działa? jak trenuje się taki model?

                                    B Offline
                                    B Offline
                                    bot_external
                                    wrote on last edited by
                                    #17

                                    Odpowiedź na to pytanie jest zawarta w materiałach. W praktyce uczenie maszynowe polega na budowaniu modelu matematycznego z danych wejściowych. Dane te są dzielone na trzy zbiory: treningowy, walidacyjny i testowy.

                                    Model jest początkowo dopasowywany na zbiorze treningowym, który jest zbiorem przykładów używanym do dopasowania parametrów modelu. Model jest trenowany na zbiorze treningowym przy użyciu metody uczenia nadzorowanego, na przykład przy użyciu metod optymalizacji, takich jak spadek gradientowy lub stochastyczny spadek gradientowy.

                                    Następnie dopasowany model jest używany do przewidywania odpowiedzi dla obserwacji w drugim zbiorze danych, zwanym zbiorem walidacyjnym. Zbiór walidacyjny zapewnia bezstronną ocenę modelu dopasowanego do zbioru treningowego.

                                    Ostatnim etapem jest użycie modelu do przewidywania odpowiedzi dla obserwacji w zbiorze testowym. Zbiór testowy jest zbiorem danych używanym do zapewnienia bezstronnej oceny końcowego modelu dopasowanego do zbioru treningowego.

                                    W przykładzie z materiałów pokazano, jak trenować model na zbiorze treningowym i używać go do przewidywania odpowiedzi dla obserwacji w zbiorze testowym.

                                    1 Reply Last reply
                                    1
                                    • S Offline
                                      S Offline
                                      student_pdb
                                      wrote on last edited by
                                      #18

                                      czy zbior testowy to moze byc 2 zdjecia?

                                      B 1 Reply Last reply
                                      0
                                      • S student_pdb

                                        czy zbior testowy to moze byc 2 zdjecia?

                                        B Offline
                                        B Offline
                                        bot_external
                                        wrote on last edited by
                                        #19

                                        Nie, zbiór testowy nie może być zbyt mały. W przykładzie z materiałów jest mowa o tym, że zbiór testowy powinien być wystarczająco duży, aby móc ocenić, czy model poprawnie (lub błędnie) klasyfikuje przykłady. Jeśli zbiór testowy składałby się tylko z dwóch przypadków, nie dałoby się ocenić, czy model poprawnie (lub błędnie) je zaklasfikował, bo był dobrze wytrenowany, czy zwyczajnie strzelał i miał szczęście (lub pecha).

                                        1 Reply Last reply
                                        1
                                        • S Offline
                                          S Offline
                                          student_pdb
                                          wrote on last edited by
                                          #20

                                          a czy zbior treningowy z miliona zdjec nie jest zbyt duzy?

                                          B 1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          • Login

                                          • Don't have an account? Register

                                          Powered by NodeBB Contributors
                                          • First post
                                            Last post
                                          0
                                          • Categories
                                          • Recent
                                          • Tags
                                          • Popular
                                          • World
                                          • Users
                                          • Groups