Pokaż uproszczony rekord

dc.contributor.authorKubus, Mariusz
dc.date.accessioned2015-11-26T15:52:23Z
dc.date.available2015-11-26T15:52:23Z
dc.date.issued2015
dc.identifier.issn0208-6018
dc.identifier.urihttp://hdl.handle.net/11089/14486
dc.description.abstractFeature selection methods are usually classified into three groups: filters, wrappers and embedded methods. The second important criterion of their classification is an individual or multivariate approach to evaluation of the feature relevance. The chessboard problem is an illustrative example, where two variables which have no individual influence on the dependent variable can be essential to separate the classes. The classifiers which deal well with such data structure are sensitive to irrelevant variables. The generalization error increases with the number of noisy variables. We discuss the feature selection methods in the context of chessboard-like structure in the data with numerous irrelevant variables.pl_PL
dc.description.abstractW artykule podjęto dyskusję nad aspektem przeszukiwania w metodach selekcji zmiennych. Posłużono się znanym z literatury przykładem szachownicy, gdzie zmienne, które indywidualnie nie mają mocy dyskryminacyjnej (mają jednakowe rozkłady w klasach) mogą rozpinać przestrzeń, w której klasy są dobrze separowalne. Uogólniając ten przykład wygenerowano zbiór z trójwymiarową strukturą szachownicy i zmiennymi zakłócającymi, a następnie zweryfikowano metody selekcji zmiennych. Rozważono też możliwość zastosowania analizy skupień jako narzędzia wspomagającego etap dyskryminacji.pl_PL
dc.language.isoenpl_PL
dc.publisherWydawnictwo Uniwersytetu Łódzkiegopl_PL
dc.relation.ispartofseriesActa Universitatis Lodziensis. Folia Oeconomica;311
dc.subjectchessboard problempl_PL
dc.subjectfeature selectionpl_PL
dc.subjectfeature relevancepl_PL
dc.subjectproblem szachownicypl_PL
dc.subjectselekcja zmiennychpl_PL
dc.subjectważność zmiennychpl_PL
dc.titleFeature Selection and the Chessboard Problempl_PL
dc.title.alternativeSelekcja zmiennych a problem szachownicypl_PL
dc.typeArticlepl_PL
dc.rights.holder© Copyright by Uniwersytet Łódzki, Łódź 2015pl_PL
dc.page.number[17]-25pl_PL
dc.contributor.authorAffiliationDepartment of Mathematics and Applied Computer Science, Opole University of Technology.pl_PL
dc.identifier.eissn2353-7663
dc.referencesBlum A.L., Langley P. (1997), Selection of relevant features and examples in machine learning, Artificial Intelligence, v. 97 n. 1–2, p. 245–271.pl_PL
dc.referencesCaruana R.A., Freitag D. (1994), How useful is relevance? Working Notes of the AAAI Fall Symposium on Relevance (pp. 25–29). New Orleans, LA: AAAI Press.pl_PL
dc.referencesForman G. (2003), An extensive empirical study of feature selection metrics for text classification. Journal of Machine Learning Research, 3: 1289–1305.pl_PL
dc.referencesGatnar E. (2005), Dobór zmiennych do zagregowanych modeli dyskryminacyjnych, in: Jajuga K., Walesiak M. (Eds.), Taksonomia 12, Klasyfikacja i analiza danych – teoria i zastosowania, Prace Naukowe Akademii Ekonomicznej we Wrocławiu, n. 1076, p.79–85.pl_PL
dc.referencesGuyon I., Elisseeff A. (2006), An introduction to feature extraction, in I. Guyon, S. Gunn, M. Nikravesh, L. Zadeh (Eds.), Feature Extraction: Foundations and Applications, Springer, New York.pl_PL
dc.referencesGuyon I., Weston J., Barnhill S., Vapnik V. (2002), Gene Selection for Cancer Classification using Support Vector Machines, Machine Learning, 46: 389–422.pl_PL
dc.referencesHall M. (2000), Correlation-based feature selection for discrete and numeric class machine learning, Proceedings of the 17th International Conference on Machine Learning, Morgan Kaufmann, San Francisco.pl_PL
dc.referencesHellwig Z. (1969), Problem optymalnego wyboru predykant, ,,Przegląd Statystyczny”, n. 3–4.pl_PL
dc.referencesJensen D. D., Cohen P. R. (2000), Multiple comparisons in induction algorithms. Machine Learning, 38(3): p. 309–338.pl_PL
dc.referencesJohn G.H., Kohavi R., Pfleger P. (1994), Irrelevant features and the subset selection problem. In Machine Learning: Proceedings of the Eleventh International Conference, Morgan Kaufmann, p. 121–129.pl_PL
dc.referencesKira K., Rendell L. A. (1992), The feature selection problem: Traditional methods and a new algorithm. In Proc. AAAI-92, p. 129–134. MIT Press.pl_PL
dc.referencesKoller D., Sahami M. (1996), Toward optimal feature selection. In 13th International Conference on Machine Learning, p. 284–292.pl_PL
dc.referencesKononenko I. (1994), Estimating attributes: Analysis and extensions of RELIEF, In Proceedings European Conference on Machine Learning, p. 171–182.pl_PL
dc.referencesNg K. S., Liu H. (2000), Customer retention via data mining. AI Review, 14(6): 569–590.pl_PL
dc.referencesQuinlan J.R., Cameron-Jones R.M. (1995), Oversearching and layered search in empirical learning. In Mellish C. (ed.), Proceedings of the 14th International Joint Conference on Artificial Intelligence, Morgan Kaufman, p. 1019–1024.pl_PL
dc.referencesXing E., Jordan M., Karp R. (2001), Feature selection for high-dimensional genomic microarray data. In Proceedings of the Eighteenth International Conference on Machine Learning, p. 601–608.pl_PL
dc.referencesYu L., Liu H. (2004), Redundancy based feature selection for microarray data. In Proceedings of the Tenth ACM SIGKDD Conference on Knowledge Discovery and Data Mining, p. 737–742.pl_PL
dc.identifier.doi10.18778/0208‐6018.311.03
dc.relation.volume1pl_PL


Pliki tej pozycji

Thumbnail

Pozycja umieszczona jest w następujących kolekcjach

Pokaż uproszczony rekord