conversation_by_tcn
-
czy wytrenowany model można pobrać potem?
Tak, wytrenowany model można pobrać potem. W Google Teachable Machine, po wytrenowaniu modelu, można go załączyć do swojego projektu i pobrać jako plik.
-
to nie lepiej po prostu fine tuning robić dla danych co nas interesują jeśli będą dziwniejsze akurat?
-
to nie lepiej po prostu fine tuning robić dla danych co nas interesują jeśli będą dziwniejsze akurat?
Nie, nie jest to najlepsza metoda. W opisanym kontekście, wytrenowany model można pobrać potem i załączyć do swojego projektu, ale nie ma informacji o fine tuningu modelu dla danych, które są dziwniejsze akurat.
-
nie mówię o tym przykładzie tylko o sekcji b1 w której jestem teraz
-
nie mówię o tym przykładzie tylko o sekcji b1 w której jestem teraz
Nie mówisz o tym przykładzie, tylko o sekcji B1, w której jesteś teraz. W tej sekcji opisano, że model ma problem z rozpoznaniem niechlujnie zapisanej cyfry. W takich przypadkach, mamy dwa wyjścia:
-
Jeżeli dysponujemy dodatkowymi danymi łącznie z ich prawidłową, jednoznaczną identyfikacją, możemy poszukać w nich więcej podobnych przypadków granicznych, a następnie dodać je do prawidłowych dla nich klas - musi się ich jednak zebrać więcej niż kilka, by nasze działanie mogło odnieść skutek.
-
Jeżeli sami nie dysponujemy prawidłową odpowiedzią w przypadkach granicznych, możemy stworzyć klasę pośrednią, w tym wypadku np. "Nieokreślone", i umieścić w niej wszystkie trudne przypadki.
-
-
to napewno jest efektywne? nie lepiej ręcznie model stworzyć i trenować? (sekcja b2)
-
to napewno jest efektywne? nie lepiej ręcznie model stworzyć i trenować? (sekcja b2)
Nie jestem w stanie udzielić pełnej odpowiedzi na to pytanie, ponieważ nie ma informacji w dostępnym kontekście, które by opisane były w sposób szczegółowy. W sekcji B2 nie ma informacji o porównaniu efektywności automatycznego tworzenia i trenowania modelu z ręcznym tworzeniem i trenowaniem.
-
ale pytam ciebie a nie o opinię a nie sekcję
-
ale pytam ciebie a nie o opinię a nie sekcję
Nie mogę udzielić pełnej odpowiedzi na to pytanie, ponieważ nie ma informacji w dostępnym kontekście, które by opisane były w sposób szczegółowy.
-
skąd ja niby mam mieć model i te pliki z danymi w teście BT???
-
skąd ja niby mam mieć model i te pliki z danymi w teście BT???
W opisanym kontekście, model i pliki z danymi są dostępne w folderze "Modele" i "Materiały" wraz z kursem. W sekcji B1, opisano, że model jest wczytywany z pliku "model_B1-3.tm" z folderu "Modele". Pliki z danymi, takie jak "test_B2.jpg" i "test_B3.jpg", są również dostępne w folderze "Materiały".
-
jest za mało opcji zaawansowanych w przypadku treningu modelu tam, nie sądzisz?
-
jest za mało opcji zaawansowanych w przypadku treningu modelu tam, nie sądzisz?
Nie, nie sądzę. W opisanym kontekście, w sekcji "Zaawansowane" w menu "Dla zaawansowanych" są dostępne różne opcje, takie jak wyświetlanie macierzy pomyłek, obliczanie dokładności modelu, a także informacje o epokach i wielkości wsadu.
-
nie ma tu powtórzonej informacji by uważać na overfitting przy zwiększaniu num of epochs, czemu?
-
nie ma tu powtórzonej informacji by uważać na overfitting przy zwiększaniu num of epochs, czemu?
W opisanym kontekście nie ma informacji, które by wskazywały, że zwiększanie liczby epok (num of epochs) może powodować problem overfittingu. W sekcji "Overfitting - Resolving underfitting" opisano kilka sposobów radzenia sobie z overfittingiem, takich jak zwiększenie złożoności modelu, użycie innego algorytmu, zwiększenie ilości danych treningowych, regularyzacja, metody zespołowe, inżynieria cech, ale nie ma informacji o zwiększaniu liczby epok jako sposobie radzenia sobie z overfittingiem.
-
nie rozumiesz, w sekcji c2 powinna być informacja by uważać ze zwiększaniem ilości epoch ze względu na overfitting
-
nie rozumiesz, w sekcji c2 powinna być informacja by uważać ze zwiększaniem ilości epoch ze względu na overfitting
Nie, nie ma informacji w sekcji C2, która by wskazywała, że zwiększanie liczby epok może powodować problem overfittingu. Informacja o tym, że zwiększanie liczby epok może powodować problem overfittingu, jest zawarta w sekcji "Overfitting - Consequences", ale nie w sekcji C2.
-
czyli jak mam kartę graficzną nvidia h100 to najlepiej jako batch size dać cały zbiór do uczenia tak?
-
czyli jak mam kartę graficzną nvidia h100 to najlepiej jako batch size dać cały zbiór do uczenia tak?
Nie, niekoniecznie. W opisanym kontekście, mówi się, że im większa wielkość wsadu, tym więcej zasobów obliczeniowych jest potrzebnych, by ukończyć pojedynczą epokę. Jednocześnie, potrzeba mniej epok, by osiągnąć zadowalające efekty uczenia się. Z drugiej strony, mniejsza wielkość wsadu oznacza mniejsze obciążenie pod kątem zasobów, zwłaszcza pamięci, ale potrzebne jest więcej epok, by osiągnąć oczekiwane rezultaty.
Jeśli masz kartę graficzną NVIDIA H100, to niekoniecznie musisz dać cały zbiór do uczenia jako batch size. Powinieneś rozważyć optymalną wielkość wsadu, która jest odpowiednia dla Twojego modelu i zasobów obliczeniowych.
-
te metryki z sekcji d1 mają coś wspólnego z tymi metrykami z matematyki czy to coś innego