Gavaldà / Jantke / Takimoto | Algorithmic Learning Theory | Buch | 978-3-540-20291-2 | sack.de

Buch, Englisch, Band 2842, 320 Seiten, Format (B × H): 155 mm x 233 mm, Gewicht: 1030 g

Reihe: Lecture Notes in Computer Science

Gavaldà / Jantke / Takimoto

Algorithmic Learning Theory

14th International Conference, ALT 2003, Sapporo, Japan, October 17-19, 2003, Proceedings
1. Auflage 2003
ISBN: 978-3-540-20291-2
Verlag: Springer

14th International Conference, ALT 2003, Sapporo, Japan, October 17-19, 2003, Proceedings

Buch, Englisch, Band 2842, 320 Seiten, Format (B × H): 155 mm x 233 mm, Gewicht: 1030 g

Reihe: Lecture Notes in Computer Science

ISBN: 978-3-540-20291-2
Verlag: Springer


ContinuationoftheALTseriesissupervisedbyitssteeringcommittee,c- sisting of: Thomas Zeugmann (Univ.

Gavaldà / Jantke / Takimoto Algorithmic Learning Theory jetzt bestellen!

Zielgruppe


Research

Weitere Infos & Material


Invited Papers.- Abduction and the Dualization Problem.- Signal Extraction and Knowledge Discovery Based on Statistical Modeling.- Association Computation for Information Access.- Efficient Data Representations That Preserve Information.- Can Learning in the Limit Be Done Efficiently?.- Inductive Inference.- Intrinsic Complexity of Uniform Learning.- On Ordinal VC-Dimension and Some Notions of Complexity.- Learning of Erasing Primitive Formal Systems from Positive Examples.- Changing the Inference Type – Keeping the Hypothesis Space.- Learning and Information Extraction.- Robust Inference of Relevant Attributes.- Efficient Learning of Ordered and Unordered Tree Patterns with Contractible Variables.- Learning with Queries.- On the Learnability of Erasing Pattern Languages in the Query Model.- Learning of Finite Unions of Tree Patterns with Repeated Internal Structured Variables from Queries.- Learning with Non-linear Optimization.- Kernel Trick Embedded Gaussian Mixture Model.- Efficiently Learning the Metric with Side-Information.- Learning Continuous Latent Variable Models with Bregman Divergences.- A Stochastic Gradient Descent Algorithm for Structural Risk Minimisation.- Learning from Random Examples.- On the Complexity of Training a Single Perceptron with Programmable Synaptic Delays.- Learning a Subclass of Regular Patterns in Polynomial Time.- Identification with Probability One of Stochastic Deterministic Linear Languages.- Online Prediction.- Criterion of Calibration for Transductive Confidence Machine with Limited Feedback.- Well-Calibrated Predictions from Online Compression Models.- Transductive Confidence Machine Is Universal.- On the Existence and Convergence of Computable Universal Priors.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.