E-Book, Deutsch, 406 Seiten
Frochte Maschinelles Lernen
2. Auflage 2019
ISBN: 978-3-446-45997-7
Verlag: Carl Hanser
Format: PDF
Kopierschutz: 1 - PDF Watermark
Grundlagen und Algorithmen in Python
E-Book, Deutsch, 406 Seiten
ISBN: 978-3-446-45997-7
Verlag: Carl Hanser
Format: PDF
Kopierschutz: 1 - PDF Watermark
- Es wird demonstriert, wie man die Algorithmen des maschinellen Lernens verwendet und der Hintergrund geliefert, um zu verstehen, wie und warum diese Algorithmen funktionieren.
- Ebenfalls enthalten ist ein kompakter Kickstart zur Verwendung von Python 3 und seinem Ökosystem im Umfeld des maschinellen Lernens.
- Die Algorithmen werden zum besseren Verständnis und praktischen Einsatz anschaulich mittels NumPy und SciPy umgesetzt.
- Für die Support Vector Machines und das Deep Learning wird auf scikit-learn bzw. Keras zurückgegriffen.
- Es werden verschiedene Methoden des überwachten, unüberwachten und bestärkenden Lernens besprochen, u.a. Random Forest, DBSCAN und Q-Learning.
Vorausgesetzt werden Kenntnisse in objektorientierter Programmierung und Basiswissen der Hochschulmathematik. Die nötige Mathematik wird eingebettet im Buch präsentiert und die Theorie direkt in Python-Code umgesetzt.
Das Buch ist ideal für Studierende der Informatik, Mechatronik, Elektrotechnik und der angewandten Statistik/Data Science sowie für Ingenieure und Informatiker in der Praxis.
Prof. Dr. Jörg Frochte lehrt und forscht seit 2010 an der Hochschule Bochum. Als Professor für Angewandte Informatik und Mathematik hält er hier Vorlesungen in Mathematik, Simulation & Modellbildung und maschinellem Lernen.
Autoren/Hrsg.
Fachgebiete
- Mathematik | Informatik Mathematik Stochastik
- Mathematik | Informatik EDV | Informatik Programmierung | Softwareentwicklung Programmier- und Skriptsprachen
- Mathematik | Informatik EDV | Informatik Informatik Künstliche Intelligenz Maschinelles Lernen
- Mathematik | Informatik EDV | Informatik Programmierung | Softwareentwicklung Algorithmen & Datenstrukturen
Weitere Infos & Material
1;Inhalt;6
2;1 Einleitung;10
3;2 Maschinelles Lernen – Überblick und Abgrenzung;14
3.1;2.1 Lernen, was bedeutetet das eigentlich?;14
3.2;2.2 Künstliche Intelligenz, Data Mining und Knowledge Discovery in Databases;15
3.3;2.3 Strukturierte und unstrukturierte Daten in Big und Small;18
3.4;2.4 Überwachtes, unüberwachtes und bestärkendes Lernen;21
3.4.1;2.4.1 Überwachtes Lernen;21
3.4.2;2.4.2 Bestärkendes Lernen;24
3.4.3;2.4.3 Unüberwachtes Lernen;25
3.5;2.5 Werkzeuge und Ressourcen;27
3.6;2.6 Anforderungen und Datenschutz impraktischen Einsatz;28
4;3 Python, NumPy, SciPy und Matplotlib – in a nutshell;33
4.1;3.1 Installation mittels Anaconda und dieSpyder-IDE;33
4.2;3.2 Python Grundlagen;36
4.3;3.3 Matrizen und Arrays in NumPy;44
4.3.1;3.3.1 Grundlegendes und Typen;45
4.3.2;3.3.2 Arrays erzeugen und manipulieren;47
4.4;3.4 Interpolation und Extrapolation vonFunktionen mit SciPy;54
4.5;3.5 Daten aus Textdateien laden undspeichern;60
4.6;3.6 Visualisieren mit der Matplotlib;62
4.7;3.7 Performance-Probleme undVektorisierung;66
5;4 Statistische Grundlagen und Bayes-Klassifikator;69
5.1;4.1 Einige Grundbegriffe der Statistik;69
5.2;4.2 Satz von Bayes und Skalenniveaus;71
5.2.1;4.2.1 Satz von Bayes;71
5.2.2;4.2.2 Skalenniveau;74
5.3;4.3 Bayes-Klassifikator, Verteilungen und Unabhängigkeit;77
5.3.1;4.3.1 Stochastische Unabhängigkeit;78
5.3.2;4.3.2 Bayes-Klassifikator für nominale Merkmale;79
5.3.3;4.3.3 Bayes-Klassifikator für Kardinalskalen;82
6;5 Lineare Modelle und Lazy Learning;89
6.1;5.1 Vektorräume, Metriken und Normen;89
6.1.1;5.1.1 Vektorräume, Erzeugendensysteme und Basen;90
6.1.2;5.1.2 Metriken und Normen;96
6.1.3;5.1.3 Untervektorräume und Projektionen;100
6.2;5.2 Methode der kleinsten Quadrate zur Regression;103
6.3;5.3 Der Fluch der Dimensionalität;110
6.4;5.4 k-Nearest-Neighbor-Algorithmus;111
7;6 Entscheidungsbäume;118
7.1;6.1 Bäume als Datenstruktur;118
7.2;6.2 Klassifikationsbäume für nominale Merkmale mit dem ID3-Algorithmus;123
7.3;6.3 Klassifikations- und Regressionsbäume für quantitative Merkmale;136
7.3.1;6.3.1 Klassifikation;137
7.3.2;6.3.2 Regression;143
7.3.3;6.3.3 Komplexität, Parallelisierbarkeit und Laufzeitoptimierung;148
7.4;6.4 Overfitting und Pruning;150
7.5;6.5 Random Forest;155
8;7 Ein- und mehrschichtige Feedforward-Netze;162
8.1;7.1 Einlagiges Perzepton und Hebbsche Lernregel;163
8.2;7.2 Multilayer Perceptron und Gradientenverfahren;170
8.3;7.3 Auslegung, Lernsteuerung undOverfitting;190
9;8 Deep Neural Networks mit Keras;211
9.1;8.1 Deep Multilayer Perceptron und Regularisierung;211
9.1.1;8.1.1 Ein kurzer Einstieg in Keras;211
9.1.2;8.1.2 L1- und L2-Regularisierung;218
9.1.3;8.1.3 Dropout-Strategie und Software-Patente;224
9.1.4;8.1.4 Bilderkennung am Beispiel von Ziffern;226
9.2;8.2 Ein Einstieg in Convolutional Neural Networks;229
9.2.1;8.2.1 Faltungen angewendet auf Bildern;229
9.2.2;8.2.2 Aufbau eines Convolutional Neural Networks und Pooling;235
9.2.3;8.2.3 Softmax und Cross-Entropy-Error;237
9.2.4;8.2.4 Bilderkennung am Beispiel des CIFAR-10 Data Sets;241
9.2.5;8.2.5 Verwendung vortrainierter Netze und Data Augmentation;248
10;9 Feature-Reduktion und -Auswahl;252
10.1;9.1 Allgemeine Aufbereitung von Daten;254
10.1.1;9.1.1 Normierung und Standardisierung;254
10.1.2;9.1.2 Imputation fehlender Daten;257
10.2;9.2 Featureauswahl;262
10.2.1;9.2.1 Kovarianz und Korrelationskoeffizient;262
10.2.2;9.2.2 Sequenzielle Auswahl von Merkmalen;267
10.3;9.3 Hauptkomponentenanalyse (PCA);272
10.3.1;9.3.1 Mathematische Herleitung und Motivation;273
10.3.2;9.3.2 Praktische Umsetzung in Python;277
10.4;9.4 Autoencoder mit Keras;281
11;10 Support Vector Machines;287
11.1;10.1 Optimale Separation;287
11.2;10.2 Soft-Margin für nicht-linearseparierbare Klassen;293
11.3;10.3 Kernel Ansätze;294
11.4;10.4 SVM in scikit-learn;299
12;11 Clustering-Verfahren;305
12.1;11.1 k-Means und k-Means++;309
12.2;11.2 Fuzzy-C-Means;314
12.3;11.3 Dichte-basierte Cluster-Analyse mit DBSCAN;318
12.4;11.4 Hierarchische Clusteranalyse;325
13;12 Bestärkendes Lernen;332
13.1;12.1 Software-Agenten und ihre Umgebung;332
13.2;12.2 Markow-Entscheidungsproblem;335
13.3;12.3 Q-Learning;343
13.4;12.4 Der SARSA Algorithmus;350
13.5;12.5 Unvollständige Informationen und Softmax;352
13.6;12.6 Q-Learning mittels Funktionsapproximation;356
13.6.1;12.6.1 Eine kontinuierliche virtuelle Umgebung zum Lernen;358
13.6.2;12.6.2 Growing Batch Reinforcement Learning;370
13.7;12.7 Ausblick auf Multi-Agenten- und hierarchische Szenarien;386
14;Literatur;396
15;Index;402
- Einführung in maschinelles Lernen
- Python, NumPy, SciPy und Matplotlib - in a nutshell
- Statistische Grundlagen und Bayes-Klassifikator
- Lineare Modelle und Lazy Learning
- Entscheidungsbäume
- Feedforward-Netze
- Deep Neural Networks mit Keras
- Feature-Reduktion
- Support Vector Machines
- Clustering-Verfahren
- Bestärkendes Lernen