Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników

Znaleziono wyników: 2

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  classification speed
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
1
EN
The article presents four original algorithms of the reference set condensation to control the compromise between the speed and the quality of classification based on the obtained condensed reference set. The results obtained confirm the usefulness of the proposed algorithms, particularly in the case of very large training sets.
PL
W artykule przedstawiono cztery autorskie algorytmy kondensacji zbioru odniesienia, charakteryzujące się możliwością sterowania pomiędzy szybkością a jakością klasyfikacji, opartej na uzyskanym skondensowanym zbiorze odniesienia. Przeprowadzone testy dowodzą, że zaproponowane algorytmy umożliwiają znaczącą redukcję wielkości zbioru odniesienia dla reguły typu najbliższy sąsiad przy jednoczesnym zachowaniu jakości klasyfikacji bliskiej tej, jaką uzyskuje się z zastosowaniem pełnego zbioru uczącego użytego w roli zbioru odniesienia.
PL
W wielu systemach przetwarzania danych (obrazów) na klasyfikację mamy określony limit czasu. W takim przypadku wskazana jest możliwość sterowania pomiędzy szybkością klasyfikacji a jej jakością. Jednym z prostszych podejść jest podział zbioru uczącego na podzbiory i dokonanie ich kondensacji (w tym wypadku metodą znajdowania punktów wzajemnie najdalszych). Autorzy proponują dekompozycję uczenia na kilka cyklicznie powtarzających się podzadań, które można przerwać w dowolnym momencie, uzyskując najlepszą w danej chwili klasyfikację. Przeprowadzone eksperymenty dowodzą, że wskutek zaproponowanej dekompozycji zyskujemy możliwość sterowania czasem i jakością dokonywanych klasyfikacji.
EN
Many pattern recognition systems can have limited time for classification, mainly in applications concerned the quality control in industry. One of the simplest classifiers, known as a nearest neighbor rule, can be used for approximation of any other kind of classifiers, for instance the more sophisticated k nearest neighbor classifier. The k nearest neighbor classifier (k-NN) offers very good classification quality and converges to the theoretically best possible classification rule called the Bays classifier. The classification speed depends linearly on the reference set size, so classification can be accelerated by the decreasing the size of the reference set. The easiest way to control a compromise between the speed of classification and its quality consists in division of the training set into some subsets. The gravity centers of these subsets form a condensed reference set for the nearest neighbor rule. Division of the original reference set, i.e. the whole training set, starts with one set, then this set is divided into two subsets, next one of this two subsets is divided and so on, until each subset will contain only one object, that is a point in the feature space.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.