Patel | Praxisbuch Unsupervised Learning | E-Book | sack.de
E-Book

E-Book, Deutsch, 358 Seiten

Patel Praxisbuch Unsupervised Learning

Machine-Learning-Anwendungen für ungelabelte Daten mit Python programmieren

E-Book, Deutsch, 358 Seiten

ISBN: 978-3-96088-876-5
Verlag: O'Reilly
Format: PDF
Kopierschutz: Wasserzeichen (»Systemvoraussetzungen)



Entdecken Sie Muster in Daten, die für den Menschen nicht erkennbar sind Unsupervised Learning könnte der Schlüssel zu einer umfassenderen künstlichen Intelligenz sein Voller praktischer Techniken für die Arbeit mit ungelabelten Daten, verständlich geschrieben und mit unkomplizierten Python-Beispielen Verwendet Scikit-learn, TensorFlow und Keras Ein Großteil der weltweit verfügbaren Daten ist ungelabelt. Auf diese nicht klassifizierten Daten lassen sich die Techniken des Supervised Learning, die im Machine Learning viel genutzt werden, nicht anwenden. Dagegen kann das Unsupervised Learning - auch unüberwachtes Lernen genannt - für ungelabelte Datensätze eingesetzt werden, um aussagekräftige Muster zu entdecken, die tief in den Daten verborgen sind - Muster, die für den Menschen fast unmöglich zu entdecken sind. Wie Data Scientists Unsupervised Learning für ihre Daten nutzen können, zeigt Ankur Patel in diesem Buch anhand konkreter Beispiele, die sich schnell und effektiv umsetzen lassen. Sie erfahren, wie Sie schwer zu findende Muster in Daten herausarbeiten und dadurch z.B. tiefere Einblicke in Geschäftsprozesse gewinnen. Sie lernen auch, wie Sie Anomalien erkennen, automatisches Feature Engineering durchführen oder synthetische Datensätze generieren.

Ankur A. Patel ist Vice President Data Science bei 7Park Data, einem Portfolio-Unternehmen von Vista Equity Partners. Bei 7Park Data verwenden Ankur und sein Data-Science-Team alternative Daten, um Datenprodukte für Hedge-Fonds und Unternehmen sowie Machine Learning als Service (MLaaS) für Geschäftskunden zu entwickeln.
Patel Praxisbuch Unsupervised Learning jetzt bestellen!

Weitere Infos & Material


1;Inhalt;5
2;Einleitung;13
3;Teil I: Grundlagen des Unsupervised Learning;23
3.1;Kapitel 1: Unsupervised Learning im Ökosystem des maschinellen Lernens;25
3.1.1;Grundbegriffe des maschinellen Lernens;25
3.1.2;Regelbasiertes vs. maschinelles Lernen;26
3.1.3;Supervised vs. Unsupervised;1
3.1.4;Ein genauerer Blick auf überwachte Algorithmen;33
3.1.5;Unüberwachte Algorithmen unter der Lupe;39
3.1.6;Reinforcement Learning mithilfe von Unsupervised Learning;48
3.1.7;Semi-supervised Learning;49
3.1.8;Erfolgreiche Anwendungen von Unsupervised Learning;49
3.1.9;Zusammenfassung;51
3.2;Kapitel 2: Durchgehendes Projekt zum maschinellen Lernen;53
3.2.1;Die Umgebung einrichten;53
3.2.2;Die Daten im Überblick;56
3.2.3;Datenvorbereitung;57
3.2.4;Modellvorbereitung;64
3.2.5;Modelle des maschinellen Lernens (Teil 1);66
3.2.6;Kennzahlen bewerten;69
3.2.7;Modelle des maschinellen Lernens (Teil 2);75
3.2.8;Bewertung der vier Modelle mit dem Testset;84
3.2.9;Ensembles;88
3.2.10;Endgültige Modellauswahl;91
3.2.11;Produktionspipeline;92
3.2.12;Zusammenfassung;93
4;Teil II: Unsupervised Learning mit Scikit-learn;95
4.1;Kapitel 3: Dimensionsreduktion;97
4.1.1;Die Motivation zur Dimensionsreduktion;97
4.1.2;Algorithmen zur Dimensionsreduktion;101
4.1.3;Hauptkomponentenanalyse;102
4.1.4;Singulärwertzerlegung;111
4.1.5;Zufallsprojektion;113
4.1.6;Isomap;115
4.1.7;Multidimensionale Skalierung;116
4.1.8;Lokal lineare Einbettung;117
4.1.9;Stochastische Nachbarschaftseinbettung mit Student-t-Verteilung;118
4.1.10;Andere Methoden zur Dimensionsreduktion;120
4.1.11;Zusammenfassung;122
4.2;Kapitel 4: Anomalieerkennung;125
4.2.1;Kreditkartenbetrugserkennung;126
4.2.2;Anomalieerkennung mit normaler PCA;129
4.2.3;Anomalieerkennung mit sparse PCA;134
4.2.4;Anomalieerkennung mit Kernel-PCA;137
4.2.5;Anomalieerkennung mit gaußscher Zufallsprojektion;139
4.2.6;Anomalieerkennung mit sparse Zufallsprojektion;141
4.2.7;Nicht lineare Anomalieerkennung;142
4.2.8;Anomalieerkennung mit Dictionary Learning;143
4.2.9;Anomalieerkennung mit Unabhängigkeitsanalyse;145
4.2.10;Betrugserkennung auf dem Testset;146
4.2.11;Zusammenfassung;151
4.3;Kapitel 5: Clustering;153
4.3.1;Das MNIST-Ziffern-Dataset;154
4.3.2;Clustering-Algorithmen;155
4.3.3;k-Means-Algorithmus;156
4.3.4;Hierarchisches Clustering;163
4.3.5;DBSCAN;169
4.3.6;Zusammenfassung;173
4.4;Kapitel 6: Gruppensegmentierung;175
4.4.1;Lending-Club-Daten;175
4.4.2;Güte der Cluster;182
4.4.3;k-Means-Anwendung;184
4.4.4;Anwendung mit hierarchischem Clustering;186
4.4.5;Anwendung mit HDBSCAN;190
4.4.6;Zusammenfassung;192
5;Teil III: Unsupervised Learning mit TensorFlow und Keras;193
5.1;Kapitel 7: Autoencoder;195
5.1.1;Neuronale Netze;196
5.1.2;Autoencoder: der Encoder und der Decoder;199
5.1.3;Untervollständige Autoencoder;200
5.1.4;Übervollständige Autoencoder;201
5.1.5;Dichte vs. sparsame Autoencoder;201
5.1.6;Autoencoder zur Rauschunterdrückung;202
5.1.7;Variational Autoencoder;202
5.1.8;Zusammenfassung;203
5.2;Kapitel 8: Praktische Autoencoder;205
5.2.1;Datenvorbereitung;205
5.2.2;Die Bestandteile eines Autoencoders;208
5.2.3;Aktivierungsfunktionen;208
5.2.4;Unser erster Autoencoder;209
5.2.5;Zweischichtiger untervollständiger Autoencoder mit linearer Aktivierungsfunktion;216
5.2.6;Nicht linearer Autoencoder;222
5.2.7;Übervollständiger Autoencoder mit linearer Aktivierung;224
5.2.8;Übervollständiger Autoencoder mit linearer Aktivierung und Drop-out;227
5.2.9;Sparse übervollständiger Autoencoder mit linearer Aktivierung;229
5.2.10;Sparse übervollständiger Autoencoder mit linearer Aktivierung und Drop-out;231
5.2.11;Mit verrauschten Datasets arbeiten;233
5.2.12;Rauschreduzierender Autoencoder;233
5.2.13;Zusammenfassung;241
5.3;Kapitel 9: Semi-supervised Learning;243
5.3.1;Datenvorbereitung;243
5.3.2;Supervised Modelle;246
5.3.3;Unsupervised Modelle;248
5.3.4;Semi-supervised Modelle;250
5.3.5;Die Leistung von supervised und unsupervised Modellen;253
5.3.6;Zusammenfassung;253
6;Teil IV: Deep Unsupervised Learning mit TensorFlow und Keras;255
6.1;Kapitel 10: Empfehlungsdienste mit beschränkten Boltzmann-Maschinen;257
6.1.1;Boltzmann-Maschinen;257
6.1.2;Empfehlungsdienste;259
6.1.3;MovieLens-Dataset;260
6.1.4;Matrixfaktorisierung;266
6.1.5;Kollaboratives Filtern mit RBMs;269
6.1.6;Zusammenfassung;275
6.2;Kapitel 11: Featureerkennung mit Deep Belief Networks;277
6.2.1;Deep Belief Networks im Detail;277
6.2.2;MNIST-Bildklassifizierung;278
6.2.3;Beschränkte Boltzmann-Maschinen;279
6.2.4;Die drei RBMs für das DBN trainieren;284
6.2.5;Das vollständige DBN;289
6.2.6;Wie Unsupervised Learning das Supervised Learning unterstützt;294
6.2.7;Bildklassifizierung mit LightGBM;299
6.2.8;Zusammenfassung;302
6.3;Kapitel 12: Generative Adversarial Networks;303
6.3.1;GANs – das Konzept;303
6.3.2;Deep Convolutional GANs;304
6.3.3;Convolutional Neural Networks;305
6.3.4;Noch einmal: DCGANs;309
6.3.5;MNIST-DCGAN in Aktion;314
6.3.6;Zusammenfassung;316
6.4;Kapitel 13: Zeitreihen-Clustering;319
6.4.1;EKG-Daten;320
6.4.2;Ansatz für Zeitreihen-Clustering;320
6.4.3;Zeitreihen-Clustering mit k-Shape auf ECGFiveDays;321
6.4.4;Zeitreihen-Clustering mit k-Shape auf ECG5000;327
6.4.5;Zeitreihen-Clustering mit k-Means auf ECG5000;332
6.4.6;Zeitreihen-Clustering mit hierarchischem DBSCAN auf ECG5000;333
6.4.7;Die Zeitreihen-Clustering-Algorithmen vergleichen;334
6.4.8;Zusammenfassung;340
6.5;Kapitel 14: Zum Schluss;341
6.5.1;Supervised Learning;342
6.5.2;Unsupervised Learning;342
6.5.3;Reinforcement Learning;344
6.5.4;Die vielversprechendsten Bereiche des Unsupervised Learning;345
6.5.5;Die Zukunft des Unsupervised Learning;346
6.5.6;Schlusswort;348
7;Index;349


Ankur A. Patel ist Vice President Data Science bei 7Park Data, einem Portfolio-Unternehmen von Vista Equity Partners. Bei 7Park Data verwenden Ankur und sein Data-Science-Team alternative Daten, um Datenprodukte für Hedge-Fonds und Unternehmen sowie Machine Learning als Service (MLaaS) für Geschäftskunden zu entwickeln.


Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.