Saunders / Shawe-Taylor / Grobelnik | Subspace, Latent Structure and Feature Selection | Buch | 978-3-540-34137-6 | sack.de

Buch, Englisch, Band 3940, 209 Seiten, Paperback, Format (B × H): 155 mm x 235 mm, Gewicht: 347 g

Reihe: Theoretical Computer Science and General Issues

Saunders / Shawe-Taylor / Grobelnik

Subspace, Latent Structure and Feature Selection

Statistical and Optimization Perspectives Workshop, SLSFS 2005 Bohinj, Slovenia, February 23-25, 2005, Revised Selected Papers

Buch, Englisch, Band 3940, 209 Seiten, Paperback, Format (B × H): 155 mm x 235 mm, Gewicht: 347 g

Reihe: Theoretical Computer Science and General Issues

ISBN: 978-3-540-34137-6
Verlag: Springer Berlin Heidelberg


This book constitutes the thoroughly refereed post-proceedings of the PASCAL (pattern analysis, statistical modelling and computational learning) Statistical and Optimization Perspectives Workshop on Subspace, Latent Structure and Feature Selection techniques, SLSFS 2005. The 9 revised full papers presented together with 5 invited papers reflect the key approaches that have been developed for subspace identification and feature selection using dimension reduction techniques, subspace methods, random projection methods, among others.
Saunders / Shawe-Taylor / Grobelnik Subspace, Latent Structure and Feature Selection jetzt bestellen!

Zielgruppe


Research

Weitere Infos & Material


Invited Contributions.- Discrete Component Analysis.- Overview and Recent Advances in Partial Least Squares.- Random Projection, Margins, Kernels, and Feature-Selection.- Some Aspects of Latent Structure Analysis.- Feature Selection for Dimensionality Reduction.- Contributed Papers.- Auxiliary Variational Information Maximization for Dimensionality Reduction.- Constructing Visual Models with a Latent Space Approach.- Is Feature Selection Still Necessary?.- Class-Specific Subspace Discriminant Analysis for High-Dimensional Data.- Incorporating Constraints and Prior Knowledge into Factorization Algorithms – An Application to 3D Recovery.- A Simple Feature Extraction for High Dimensional Image Representations.- Identifying Feature Relevance Using a Random Forest.- Generalization Bounds for Subspace Selection and Hyperbolic PCA.- Less Biased Measurement of Feature Selection Benefits.


Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.