conversation_by_183
-
Topic created
-
powiedz mi więcej o uczeniu się przez wzmacnianie
-
powiedz mi więcej o uczeniu się przez wzmacnianie
Uczenie się przez wzmacnianie (ang. Reinforcement Learning, RL) to interdyscyplinarna dziedzina uczenia maszynowego i sterowania optymalnego, zajmująca się tym, jak inteligentny agent powinien podejmować działania w dynamicznym środowisku, aby zmaksymalizować sygnał nagrody.
Główną różnicą między uczeniem się przez wzmacnianie a innymi formami uczenia maszynowego jest to, że nie wymaga przedstawiania oznaczonych par wejście-wyjście i nie wymaga wyraźnego korygowania suboptymalnych działań. Zamiast tego, nacisk kładziony jest na znalezienie równowagi między eksploracją (niezbadanego terytorium) a eksploatacją (aktualnej wiedzy) w celu zmaksymalizowania skumulowanej nagrody.
Poszukiwanie tej równowagi znane jest jako dylemat eksploracji i eksploatacji. Środowisko jest zazwyczaj przedstawiane w formie Markowskiego procesu decyzyjnego (MDP), ponieważ wiele algorytmów uczenia się przez wzmacnianie wykorzystuje techniki programowania dynamicznego.
Warto zauważyć, że uczenie się przez wzmacnianie jest jednym z trzech podstawowych paradygmatów uczenia maszynowego, obok uczenia nadzorowanego i nienadzorowanego.
-
po co naprawiamy modele zamiast tworzyć nowe?
-
po co naprawiamy modele zamiast tworzyć nowe?
Nie ma wzmianki w kontekście o naprawianiu modeli zamiast tworzenia nowych. Kontekst dotyczy tworzenia nowych modeli za pomocą Google Teachable Machine (GTM) i trenowania ich na danych. Nie ma informacji o naprawianiu istniejących modeli.
-
jakie są inne metryki oprócz tych wymienionych w kursie?
-
jakie są inne metryki oprócz tych wymienionych w kursie?
W kontekście kursu nie ma wzmianki o innych metrykach oprócz tych wymienionych: dokładności (accuracy), precyzji (precision), czułości (recall) i F-score.
-
no tak ale czy istnieją jakieś inne, jeśli tak to jakie?
-
no tak ale czy istnieją jakieś inne, jeśli tak to jakie?
W kontekście kursu nie ma wzmianki o innych metrykach oprócz tych wymienionych: dokładności (accuracy), precyzji (precision), czułości (recall) i F-score. Nie mam informacji o innych metrykach, które mogłyby być używane w tym kontekście.
-
lepiej żeby model miał większą precyzję czy czułość
-
lepiej żeby model miał większą precyzję czy czułość
Odpowiedź na to pytanie zależy od kontekstu, w którym model jest używany. Jeśli chodzi o model rozpoznawania cyfry "1", jak w przykładzie z kursu, to model z większą precyzją jest lepszy. Precyzja modelu B wynosiła 50%, co oznacza, że model poprawnie rozpoznał 50% przypadków, które zostały zaklasyfikowane jako jedynki.
Jeśli chodzi o model diagnozowania chorób, jak w innym przykładzie z kursu, to model z większą czułością jest lepszy. Czułość modelu wynosiła 100%, co oznacza, że model poprawnie rozpoznał wszystkie przypadki, które rzeczywiście były chore.
W ogólności, jeśli chodzi o model rozpoznawania cyfry "1", to model z większą precyzją jest lepszy. Jeśli chodzi o model diagnozowania chorób, to model z większą czułością jest lepszy.
-
załóżmy, że mój model to klasyfikator rozpoznający zdjęcia śmieci do segregacji, która z metryk: precyzja czy czułość powinna być dla mnie ważniejsza?
-
załóżmy, że mój model to klasyfikator rozpoznający zdjęcia śmieci do segregacji, która z metryk: precyzja czy czułość powinna być dla mnie ważniejsza?
W przypadku modelu klasyfikatora rozpoznającego zdjęcia śmieci do segregacji, precyzja powinna być dla Ciebie ważniejsza. Dlaczego? Bo w takim przypadku chcesz, aby model poprawnie rozpoznał zdjęcia śmieci, aby uniknąć błędów w segregacji. Jeśli model ma zbyt niską precyzję, może rozpoznać nieśmieci jako śmieci, co może prowadzić do niepożądanych konsekwencji.
Czułość jest ważniejsza w przypadkach, gdzie chcesz, aby model rozpoznał jak najwięcej przypadków, które rzeczywiście są śmieciem. Ale w przypadku segregacji śmieci, precyzja jest bardziej istotna, aby uniknąć błędów.
Przykładem może być następująca sytuacja: Twoja firma segreguje śmieci i chcesz, aby model rozpoznał zdjęcia śmieci, aby uniknąć błędów w segregacji. Jeśli model ma zbyt niską precyzję, może rozpoznać nieśmieci jako śmieci, co może prowadzić do niepożądanych konsekwencji, takich jak zanieczyszczenie środowiska lub utrata czasu i pieniędzy. W takim przypadku precyzja modelu jest bardziej istotna, aby uniknąć błędów.
-
czy google teachable machine jest dobrym wyborem zamiast bibliotek typu tensorflow do uczenia maszynowego?
-
czy google teachable machine jest dobrym wyborem zamiast bibliotek typu tensorflow do uczenia maszynowego?
Odpowiedź na to pytanie jest niejednoznaczna, ponieważ Google Teachable Machine (GTM) i biblioteki typu TensorFlow są narzędziami o różnych zaletach i wadach. GTM jest przeglądarkowym narzędziem, które umożliwia tworzenie modeli Uczenia Maszynowego bez konieczności posiadania umiejętności programistycznych lub matematycznych. Jest to idealne rozwiązanie dla osób, które chcą rozpocząć naukę Uczenia Maszynowego bez konieczności inwestowania czasu i pieniędzy w edukację.
TensorFlow, z drugiej strony, jest bardziej zaawansowanym narzędziem, które oferuje większą kontrolę nad procesem uczenia się i może być używane do tworzenia bardziej skomplikowanych modeli. Jest to idealne rozwiązanie dla osób, które mają już doświadczenie w Uczeniu Maszynowym i chcą tworzyć bardziej zaawansowane modele.
Jeśli chodzi o wybór między GTM a TensorFlow, to zależy od Twoich potrzeb i doświadczenia. Jeśli chcesz rozpocząć naukę Uczenia Maszynowego bez konieczności posiadania umiejętności programistycznych lub matematycznych, to GTM może być dobrym wyborem. Jeśli chcesz tworzyć bardziej skomplikowane modele i masz już doświadczenie w Uczeniu Maszynowym, to TensorFlow może być lepszym wyborem.
Warto zauważyć, że GTM jest narzędziem, które może być używane do tworzenia modeli Uczenia Maszynowego, ale nie jest ono tak zaawansowane jak TensorFlow. Jeśli chcesz tworzyć bardziej zaawansowane modele, to TensorFlow może być lepszym wyborem.
-
uczenie maszynowe jest podobno obrzarem sztucznej inteligencji, jakie są jej pozostałe obrzary?
-
uczenie maszynowe jest podobno obrzarem sztucznej inteligencji, jakie są jej pozostałe obrzary?
Obrzędy sztucznej inteligencji to niezbyt popularne określenie, które nie jest powszechnie używane w literaturze naukowej. W kontekście kursu nie ma wzmianki o innych obrzędach sztucznej inteligencji oprócz Uczenia Maszynowego (Machine Learning - ML).
W Glossary of artificial intelligence - I - Sterowanie inteligentne, sztuczna inteligencja jest definiowana jako klasa technik sterowania, które wykorzystują różne podejścia obliczeniowe z zakresu sztucznej inteligencji, takie jak sieci neuronowe, prawdopodobieństwo bayesowskie, logika rozmyta, uczenie maszynowe, uczenie przez wzmacnianie, obliczenia ewolucyjne i algorytmy genetyczne.
W Glossary of artificial intelligence - A - Sztuczna inteligencja, sztuczna inteligencja jest definiowana jako inteligencja demonstrowana przez maszyny, w przeciwieństwie do naturalnej inteligencji wykazywanej przez ludzi i inne zwierzęta.
Nie ma wzmianki o innych obrzędach sztucznej inteligencji w dostępnych źródłach.
-
jak dobrze przygotować dane dla modelu?
-
jak dobrze przygotować dane dla modelu?
Dobrze przygotowane dane są kluczem do skutecznego modelu. W kontekście kursu, istotne jest, aby dane były odpowiednio podzielone na zbiór uczący (train set) i zbiór testowy (test set). Zbiór uczący powinien zawierać przykłady, na których model się uczy, znając z góry prawidłową klasyfikację. Zbiór testowy powinien zawierać przykłady, których model nie wykorzystał w procesie uczenia się, wykorzystywane do przetestowania modelu.
Dodatkowo, istotne jest, aby w zbiorze uczącym umieścić odpowiednią liczbę przypadków jednego typu w porównaniu do przypadków innych typów. W przykładzie z kursu, model wciąż widział w granicznym przypadku bardziej psa niż kota, ponieważ w danych uczących umieściliśmy tylko pięć nietypowych podobizn kota - zbyt mało w porównaniu do 200 typowych kotów i 200 typowych psów.
Aby uniknąć tego błędu, należy umieścić odpowiednią liczbę przypadków jednego typu w porównaniu do przypadków innych typów. W przykładzie z kursu, model mógłby być lepiej przygotowany, jeśli w zbiorze uczącym umieściliśmy więcej nietypowych podobizn kota, tak aby model mógł lepiej rozpoznać zdjęcia kota.
-
czy podział danych na zbiór uczący i testowy, to jedyny prosty podział?