conversation_by_vt4
-
W czym LLM jest lepszy od ML?
-
W czym LLM jest lepszy od ML?
LLM (Large Language Model) nie jest wprost lepszy od ML (Machine Learning). LLM jest rodzajem modelu językowego, który jest zbudowany na podstawie algorytmów ML. LLM jest szczególnym przypadkiem aplikacji ML, która jest przeznaczona do rozwiązywania problemów związanych z językiem naturalnym.
W kontekście przedstawionym w kursie, LLM jest opisany jako model językowy z dużą liczbą parametrów, który wymaga dużej ilości danych i mocy obliczeniowej do trenowania. LLM jest oparty na architekturze transformatorowej i jest przeznaczony do rozwiązywania problemów związanych z językiem naturalnym, takich jak rozpoznawanie cyfry '1' w przykładzie przedstawionym w kursie.
W związku z tym, nie ma bezpośredniej porównywalności między LLM a ML, ponieważ LLM jest rodzajem modelu językowego, który jest zbudowany na podstawie algorytmów ML.
-
Kiedy accuracy będzie lepszą metryką niż precision?
-
Kiedy accuracy będzie lepszą metryką niż precision?
Zgodnie z informacjami przedstawionymi w kursie, accuracy będzie lepszą metryką niż precision w sytuacji, w której zależy nam na wykryciu jak największej liczby przykładów z jednej klasy, a nie na ograniczeniu liczby przypadków fałszywie pozytywnych.
W takim przypadku, czułość (recall) jest najważniejszą metryką, a accuracy może być używana jako miara ogólnej jakości modelu. Przykładem może być sytuacja, w której model jest używany do wykrycia choroby, na którą jest tylko jeden lek, i ma niechciane efekty uboczne. W takim przypadku, precyzja modelu powinna być jak najwyższa, aby uniknąć niepotrzebnych podań leku osobom zdrowym.
-
Kiedy używać zbioru walidacyjnego?
-
Kiedy używać zbioru walidacyjnego?
Zgodnie z informacjami przedstawionymi w kursie, zbiór walidacyjny (validation set) jest używany do dostrojenia parametrów i optymalizacji wydajności modelu. Jest to zbiór danych, który jest używany do sprawdzenia, czy model jest w stanie dobrze przewidywać wyniki, zanim zostanie użyty do oceny dokładności modelu na zbiorze testowym.
W tym kontekście, zbiór walidacyjny jest używany do:
- Dostrojenia parametrów: Użytkownik może dostroić parametry modelu, takie jak wagi cech lub liczba warstw, aby uzyskać najlepsze wyniki na zbiorze walidacyjnym.
- Optymalizacji wydajności: Zbiór walidacyjny jest używany do sprawdzenia, czy model jest w stanie dobrze przewidywać wyniki, a także do optymalizacji wydajności modelu.
Przykładem może być sytuacja, w której model jest używany do rozpoznawania zdjęć ptaków. Zbiór walidacyjny może zawierać zdjęcia ptaków, które nie są używane do trenowania modelu, ale są używane do sprawdzenia, czy model jest w stanie dobrze rozpoznawać zdjęcia ptaków.
-
Na czym polega uczenie ze wzmacnianiem?
-
Na czym polega uczenie ze wzmacnianiem?
Uczenie ze wzmacnianiem (Reinforcement Learning) to interdyscyplinarna dziedzina uczenia maszynowego i sterowania optymalnego, która zajmuje się tym, jak inteligentny agent powinien podejmować działania w dynamicznym środowisku, aby zmaksymalizować sygnał nagrody.
Główną różnicą między uczeniem ze wzmacnianiem a innymi paradygmatami uczenia maszynowego, takimi jak uczenie nadzorowane i nienadzorowane, jest to, że uczenie ze wzmacnianiem nie wymaga przedstawiania oznaczonych par wejście-wyjście i nie wymaga wyraźnego korygowania suboptymalnych działań. Zamiast tego, nacisk kładziony jest na znalezienie równowagi między eksploracją (niezbadanego terytorium) a eksploatacją (aktualnej wiedzy) w celu zmaksymalizowania skumulowanej nagrody.
Poszukiwanie tej równowagi znane jest jako dylemat eksploracji i eksploatacji. Środowisko jest zazwyczaj przedstawiane w formie Markowskiego procesu decyzyjnego (MDP), ponieważ wiele algorytmów uczenia ze wzmacnianiem wykorzystuje techniki programowania dynamicznego.
-
Ale napisz jednym zdaniem.
-
Ale napisz jednym zdaniem.
Precyzja będzie lepszą metryką niż accuracy w sytuacji, w której zależy nam na ograniczeniu liczby przypadków fałszywie pozytywnych, a nie na wykryciu jak największej liczby przykładów z jednej klasy.
-
Pytałem o uczenie ze wzmacnianiem
-
Pytałem o uczenie ze wzmacnianiem
Uczenie ze wzmacnianiem (Reinforcement Learning) to interdyscyplinarna dziedzina uczenia maszynowego i sterowania optymalnego, która zajmuje się tym, jak inteligentny agent powinien podejmować działania w dynamicznym środowisku, aby zmaksymalizować sygnał nagrody.
-
Ale napisz tak żeby to uczeń zrozumiał
-
Ale napisz tak żeby to uczeń zrozumiał
Uczenie ze wzmacnianiem to sposób uczenia modelu, w którym model otrzymuje nagrodę lub karę za swoje działania w dynamicznym środowisku. Celem jest znalezienie najlepszych działań, które maksymalizują nagrodę. To jest podobne do uczenia się w świecie rzeczywistym, gdzie model musi podejmować decyzje w oparciu o wyniki swoich działań.