In social sciences, especially in economy, to reveal relations between variables it’s easy to apply many known statistical tools when we deal with observable (measureable) variables. The problems appear when dealing with latent variables – that are not directly observed and they are of subjective matter. It’s also an important issue to measure relations between latent variables. The example of latent variables are preferences. The preferences play a very important role in economy. Very often real market decisions, choices (or answers in a questionnaire) are described by non-metric variables (nominal and ordinal). These variables are also called qualitative. The latent class analysis allows to reveal hidden relations between observable variables. The observable variables allow, with a specified probability, to find a non-observable phenomenon. The latent class analysis allows to analyze the qualitative data [see: McCutcheon 1987, p. 7; 11; Hagenaars 1993, p. 21–23]. LCA was introduced by Lazarsfeld in 1950 [1968]. The paper presents evaluation of college students with application of latent class analysis. To obtain such a goal data collected (winter recruitment of 2008/2009) by a college in Walbrzych was used.
Klasyfikacja spektralna to rozwijająca się od końca poprzedniego wieku metoda analizy skupień. Metoda ta, mimo niekiedy niezbyt rozbudowanej podbudowy teoretycznej, daje bardzo dobre wyniki empiryczne zarówno na zbiorach testowych jak i na rzeczywistych zbiorach danych. Artykuł przedstawia najważniejsze kroki algorytmu klasyfikacji spektralnej, wskazuje sytuacje, w których stosowanie algorytmu daje duże lepsze rezultaty (mierzone indeksem Randa) niż inne metody analizy skupień. W zakończenie przedstawione są rekomendacje dotyczące sytuacji, w których warto stosować tą technikę klasyfikacji.
Reguła kNN (k Nearest Neighbours) została zaproponowana w pracy (Fix E., Hodges J. L. [1951]) i jest jednym z najlepszych klasyfikatorów dla danych w ujęciu klasycznym. W najprost- szym ujęciu metoda k-najbliższych sąsiadów polega na tym, że klasyfikowany obiekt jest zaliczany do klasy najliczniej reprezentowanej wśród jego k „najbliższych sąsiadów”. Jeżeli w tej samej odległości, co k-ty „sąsiad” znajdą się jeszcze inne elementy, to wszyscy ci „sąsiedzi” biorą udział w głosowaniu. W artykule zaprezentowano adaptację metody KNN dla danych symbolicznych, którą za- proponował zespół pod kierownictwem D. Malerby (por. Malerba i in. [2004]). Badania przepro- wadzono na danych symbolicznych w różnych modelach (generowanych za pomocą procedury cluster. Gen z pakietu clusterSim dla programu R). Modele te zawierały znaną liczbę klas. Dodatkowo do każdego modelu dodano różną liczbę zmiennych zakłócających i wartości odstających, które zniekształcają oryginalną strukturę klas.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.