E-Book, Deutsch, 262 Seiten
Reihe: Animals
Osinga Deep Learning Kochbuch
1. Auflage 2019
ISBN: 978-3-96010-264-9
Verlag: O'Reilly
Format: PDF
Kopierschutz: 1 - PDF Watermark
Praxisrezepte für einen schnellen Einstieg
E-Book, Deutsch, 262 Seiten
Reihe: Animals
ISBN: 978-3-96010-264-9
Verlag: O'Reilly
Format: PDF
Kopierschutz: 1 - PDF Watermark
Douwe Osinga ist ein erfahrener Softwareentwickler, früher bei Google, Globetrotter und Gründer von drei Startups. Auf seiner beliebten Website für Software-Projekte beschäftigt er sich neben anderen spannenden Themen auch mit dem Machine Learning: douweosinga.com/projects
Weitere Infos & Material
1;Inhalt;5
2;Vorwort;9
3;Kapitel 1: Werkzeuge und Techniken;17
3.1;1.1 Arten neuronaler Netze;17
3.2;1.2 Datenbeschaffung;28
3.3;1.3 Vorverarbeitung von Daten;35
4;Kapitel 2: Fehlerbehebung;43
4.1;2.1 Probleme bemerken;43
4.2;2.2 Laufzeitfehler beheben;44
4.3;2.3 Zwischenergebnisse überprüfen;47
4.4;2.4 Wählen der richtigen Aktivierungsfunktion (für die letzte Schicht);48
4.5;2.5 Regularisierung und Drop-out;49
4.6;2.6 Netzwerkstruktur, Batch-Größe und Lernrate;51
5;Kapitel 3: Die Ähnlichkeit von Texten mithilfe von Worteinbettungen berechnen;53
5.1;3.1 Wortähnlichkeiten mithilfe vortrainierter Worteinbettungen finden;54
5.2;3.2 Word2vec-Mathematik;56
5.3;3.3 Worteinbettungen visualisieren;58
5.4;3.4 Objektklassen in Einbettungen finden;60
5.5;3.5 Semantische Abstände innerhalb einer Klasse berechnen;63
5.6;3.6 Länderdaten auf einer Landkarte visualisieren;65
6;Kapitel 4: Ein Empfehlungssystem anhand ausgehender Wikipedia-Links erstellen;67
6.1;4.1 Sammeln der Daten;67
6.2;4.2 Trainieren von Filmeinbettungen;71
6.3;4.3 Ein Filmempfehlungssystem erstellen;74
6.4;4.4 Vorhersagen einfacher Filmmerkmale;75
7;Kapitel 5: Text im Stil eines Beispieltexts generieren;79
7.1;5.1 Den Text von gemeinfreien Büchern beschaffen;79
7.2;5.2 Texte im Stil von Shakespeare generieren;80
7.3;5.3 Code mit RNNs erzeugen;84
7.4;5.4 Steuerung der Temperatur des Outputs;86
7.5;5.5 Visualisierung der Aktivierungen eines rekurrenten Netzwerks;88
8;Kapitel 6: Übereinstimmende Fragen;91
8.1;6.1 Daten aus Stack Exchange beschaffen;91
8.2;6.2 Erkundung der Daten mit Pandas;93
8.3;6.3 Textkodierung in Keras;94
8.4;6.4 Ein Frage-Antwort-Modell entwickeln;95
8.5;6.5 Training eines Modells mit Pandas;97
8.6;6.6 Überprüfung von Gemeinsamkeiten;98
9;Kapitel 7: Emojis vorschlagen;101
9.1;7.1 Einen einfachen Stimmungsklassifikator entwickeln;101
9.2;7.2 Inspizieren eines einfachen Klassifikators;104
9.3;7.3 Ein Konvolutionsnetz zur Stimmungsanalyse verwenden;105
9.4;7.4 Twitter-Daten sammeln;108
9.5;7.5 Ein simples Vorhersagemodell für Emojis;109
9.6;7.6 Drop-out und variierende Fenstergröße;111
9.7;7.7 Ein wortbasiertes Modell erstellen;112
9.8;7.8 Eigene Einbettungen erzeugen;114
9.9;7.9 Ein rekurrentes neuronales Netzwerk zur Klassifikation verwenden;116
9.10;7.10 Übereinstimmung visualisieren;118
9.11;7.11 Modelle miteinander kombinieren;120
10;Kapitel 8: Sequenz-zu-Sequenz-Mapping;123
10.1;8.1 Trainieren eines einfachen Sequenz-zu-Sequenz-Modells;123
10.2;8.2 Dialoge aus Texten extrahieren;125
10.3;8.3 Einen frei verfügbaren Wortschatz handhaben;127
10.4;8.4 Einen seq2seq-Chatbot trainieren;128
11;Kapitel 9: Ein vortrainiertes Netzwerk zur Bilderkennung verwenden;133
11.1;9.1 Ein vortrainiertes Netzwerk laden;133
11.2;9.2 Vorverarbeitung der Bilder;134
11.3;9.3 Vorhersagen des Bildinhalts (Inferenz);136
11.4;9.4 Einen gelabelten Bilddatensatz mit der Flickr-API sammeln;137
11.5;9.5 Einen Hund-Katze-Klassifikator erstellen;138
11.6;9.6 Suchergebnisse verbessern;140
11.7;9.7 Trainieren vortrainierter Netzwerke zur Bilderkennung;142
12;Kapitel 10: Eine Reverse-Image-Suchmaschine erstellen;145
12.1;10.1 Zugriff auf Bilder von Wikipedia;145
12.2;10.2 Projektion von Bildern in einen N-dimensionalen Raum;148
12.3;10.3 Nächste Nachbarn in hochdimensionalen Räumen finden;149
12.4;10.4 Lokale Nachbarschaften in Einbettungen erkunden;150
13;Kapitel 11: Mehrere Bildinhalte erkennen;153
13.1;11.1 Erkennen mehrerer Bildinhalte mithilfe eines vortrainierten Klassifikators;153
13.2;11.2 Bilderkennung mithilfe eines Faster RCNN;157
13.3;11.3 Eigene Bilder in einem Faster RCNN verwenden;160
14;Kapitel 12: Mit Bildstilen arbeiten;163
14.1;12.1 Aktivierungen eines CNN visualisieren;164
14.2;12.2 Oktaven und Vergrößerung;167
14.3;12.3 Veranschaulichen, was ein neuronales Netzwerk in etwa wahrnimmt;169
14.4;12.4 Den Stil eines Bilds erfassen;172
14.5;12.5 Verbessern der Verlustfunktion zur Erhöhung der Bildkohärenz;175
14.6;12.6 Einen Stil auf ein anderes Bild übertragen;177
14.7;12.7 Stilinterpolation;178
15;Kapitel 13: Bilder mit Autoencodern erzeugen;181
15.1;13.1 Zeichnungen aus Google Quick Draw importieren;182
15.2;13.2 Einen Autoencoder für Bilder erstellen;183
15.3;13.3 Visualisierung der Ergebnisse von Autoencodern;186
15.4;13.4 Sampling von Bildern aus einer korrekten Verteilung;187
15.5;13.5 Den latenten Raum eines Variational Autoencoders visualisieren;191
15.6;13.6 Conditional Variational Autoencoder;192
16;Kapitel 14: Piktogramme mithilfe von neuronalen Netzwerken erzeugen;197
16.1;14.1 Piktogramme zum Trainieren beschaffen;198
16.2;14.2 Piktogramme in eine Tensor-Darstellung umwandeln;200
16.3;14.3 Piktogramme mithilfe eines Variational Autoencoders erzeugen;201
16.4;14.4 Datenanreicherung zur Verbesserung der Leistung des Autoencoders;204
16.5;14.5 Ein Generative Adversarial Network aufbauen;205
16.6;14.6 Generative Adversarial Networks trainieren;207
16.7;14.7 Mit einem GAN erzeugte Piktogramme anzeigen;209
16.8;14.8 Piktogramme als Zeichenanleitung kodieren;211
16.9;14.9 Trainieren eines RNN zum Zeichnen von Piktogrammen;212
16.10;14.10 Piktogramme mithilfe eines RNN erzeugen;213
17;Kapitel 15: Musik und Deep Learning;217
17.1;15.1 Einen Trainingsdatensatz zur Musikklassifikation erstellen;218
17.2;15.2 Einen Musikgenre-Detektor trainieren;220
17.3;15.3 Visualisierung von Klassifikationsirrtümern;222
17.4;15.4 Indexierung vorhandener Musik;224
17.5;15.5 Die Spotify-API einrichten;226
17.6;15.6 Playlisten und Musikstücke von Spotify sammeln;227
17.7;15.7 Ein Musikempfehlungssystem trainieren;230
17.8;15.8 Musikstücke empfehlen mithilfe eines Word2vec-Modells;231
18;Kapitel 16: Machine-Learning-Systeme in Produktion bringen;235
18.1;16.1 Ein Nächste-Nachbarn-Klassifikationsmodell für Einbettungen mit scikit-learn verwenden;236
18.2;16.2 Postgres zum Speichern von Einbettungen verwenden;237
18.3;16.3 Einpflegen und Abfragen von in Postgres gespeicherten Einbettungen;238
18.4;16.4 Hochdimensionale Modelle in Postgres speichern;239
18.5;16.5 Microservices in Python erstellen;241
18.6;16.6 Keras-Modelle als Microservice bereitstellen;242
18.7;16.7 Einen Microservice aus einem Web-Framework aufrufen;243
18.8;16.8 seq2seq-Modelle in TensorFlow;244
18.9;16.9 Deep-Learning-Modelle im Browser ausführen;246
18.10;16.10 Ein Keras-Modell mit TensorFlow Serving ausführen;248
18.11;16.11 Ein Keras-Modell unter iOS verwenden;251
19;Index;253
20;Über den Autor;261
21;Über die Übersetzer;261
22;Kolophon;261