Przeuczenie może wystąpić, gdy model, np. klasyfikator zdjęć kotów, zapamięta specyficzne tło lub szum ze zbioru treningowego, zamiast cech samego kota. W efekcie, doskonale klasyfikuje zdjęcia, na których był trenowany, ale zawodzi przy nowych, nieznanych obrazach, ponieważ "nauczył się" zbyt wielu detali specyficznych dla danych treningowych.