E-Book, Deutsch, 314 Seiten, eBook
Plaue Data Science
1. Auflage 2021
ISBN: 978-3-662-63489-9
Verlag: Springer
Format: PDF
Kopierschutz: 1 - PDF Watermark
Grundlagen, Statistik und maschinelles Lernen
E-Book, Deutsch, 314 Seiten, eBook
ISBN: 978-3-662-63489-9
Verlag: Springer
Format: PDF
Kopierschutz: 1 - PDF Watermark
Dieses Lehrbuch bietet eine gut verständliche Einführung in mathematische Konzepte und algorithmische Verfahren, die der Data Science zugrunde liegen. Es deckt hierfür wesentliche Teile der Datenorganisation, der deskriptiven und inferenziellen Statistik, der Wahrscheinlichkeitstheorie und des maschinellen Lernens ab.
Das Werk ermöglicht den Leserinnen und Lesern ein tiefes und grundlegendes Verständnis der Konzepte durch klare und mathematisch fundierte Vermittlung der Inhalte. Darüber hinaus stellt es durch zahlreiche, anhand realer Daten erstellter Anwendungsbeispiele einen starken Praxisbezug her. Dadurch ist es besonders für Lehrende und Studierende an technischen Hochschulen geeignet, bietet aber auch Quereinsteigenden mit mathematischem Grundwissen einen guten Einstieg und Überblick
Zielgruppe
Upper undergraduate
Autoren/Hrsg.
Weitere Infos & Material
EinführungTeil I Grundlagen1 Elemente der Datenorganisation1.1 Konzeptionelle Datenmodellierung1.1.1 Entity-Relationship-Modell1.2 Logische Datenmodellierung1.2.1 Relationales Datenmodell1.2.2 Graphbasierte Datenmodelle1.2.3 Hierarchische Datenmodelle1.3 Datenqualität1.3.1 Datenqualitätsmerkmale1.4 Datenbereinigung1.4.1 Validierung1.4.2 Normierung1.4.3 Imputation1.4.4 Augmentation1.4.5 DeduplikationQuellen2 Deskriptive Statistik2.1 Stichprobe und Merkmale2.2 Diagramme2.2.1 Säulendiagramme und Histogramme2.2.2 Streudiagramme2.2.3 Weitere Diagramme2.3 Lageparameter2.3.1 Arithmetisches Mittel und empirischer Median2.3.2 Quantile2.3.3 Geometrisches und harmonisches Mittel2.4 Streuungsparameter2.4.1 Abweichung von Mittelwert oder Median2.4.2 Shannon-Entropie2.5 Assoziationsparameter2.5.1 Empirische Kovarianz und Korrelation2.5.2 Rangkorrelationskoeffizienten2.5.3 Transinformation und Jaccard-Koeffizient QuellenTeil II Stochastik3 Wahrscheinlichkeitstheorie3.1 Wahrscheinlichkeitsmaße3.1.1 Bedingte Wahrscheinlichkeit3.1.2 Der Satz von Bayes3.2 Zufallsvariablen3.2.1 Diskrete und stetige Zufallsvariablen3.2.2 Massen- und Dichtefunktionen3.2.3 Transformation von Zufallsvariablen3.3 Gemeinsame Verteilung von Zufallsvariablen3.3.1 Gemeinsame Verteilungs-, Masse- und Dichtefunktionen3.3.2 Bedingte Masse- und Dichtefunktionen3.3.3 Unabhängige Zufallsvariablen3.4 Kennzahlen von Zufallsvariablen3.4.1 Median, Erwartungswert und Varianz3.4.2 Kovarianz und Korrelation3.4.3 Die Tschebyscheff’sche Ungleichung3.5 Summen und Produkte von Zufallsvariablen3.5.1 Chi-Quadrat- und Student’sche t-VerteilungQuellen4 Inferenzstatistik4.1 Statistische Modelle4.1.1 Modelle diskreter Zufallsvariablen4.1.2 Modelle stetiger Zufallsvariablen4.2 Gesetze der großen Zahlen4.2.1 Bernoulli’sches Gesetz der großen Zahlen4.2.2 Tschebyscheff’sches Gesetz der großen Zahlen4.2.3 Varianzschätzung und Bessel-Korrektur4.2.4 Zentraler Grenzwertsatz von Lindeberg-Lévy4.3 Statistische Schätz- und Testverfahren4.3.1 Intervallschätzung4.3.2 Gauß-Test4.3.3 Student’sche Vertrauensintervalle4.3.4 Effektstärke4.4 Parameter- und Dichteschätzung4.4.1 Maximum-Likelihood-Schätzung4.4.2 Bayes’sche Parameterschätzung4.4.3 Kerndichteschätzung4.5 Regressionsanalyse4.5.1 Einfache lineare Regression4.5.2 Theil-Sen-Verfahren4.5.3 Einfache logistische RegressionQuellen5 Multivariate Statistik5.1 Datenmatrizen5.2 Abstands- und Ähnlichkeitsmaße5.2.1 Metrische Abstands- und Ähnlichkeitsmaße5.2.2 Kategoriale und binäre Abstands- und Ähnlichkeitsmaße5.2.3 Abstands- und Ähnlichkeitsmatrizen5.3 Multivariate Lage- und Streuungsparameter5.3.1 Geometrischer Schwerpunkt und Median, Medoid5.3.2 Empirische Kovarianz- und Korrelationsmatrix5.4 Zufallsvektoren und -matrizen5.4.1 Erwartungswertvektor und Kovarianzmatrix5.4.2 Multivariate Normalverteilung5.4.3 MultinomialverteilungQuellenTeil III Maschinelles Lernen6 Überwachtes maschinelles Lernen6.1 Elemente des überwachten Lernens6.1.1 Verlustfunktionen und empirisches Risiko6.1.2 Überanpassung und Unteranpassung6.1.3 Training, Modellauswahl und Test6.1.4 Numerische Optimierung6.2 Regressionsverfahren6.2.1 Lineare Regression6.2.2 Gauß-Prozess-Regression6.3 Klassifikationsverfahren6.3.1 Logistische Regression6.3.2 Nächste-Nachbarn-Klassifikation6.3.3 Bayes’sche Klassifikationsverfahren6.4 Künstliche neuronale Netzwerke6.4.1 Regression und Klassifikation mittels neuronaler Netzwerke6.4.2 Training neuronaler Netzwerke durch Fehlerrückführung6.4.3 Convolutional Neural NetworksQuellen7 Unüberwachtes maschinelles Lernen7.1 Elemente des unüberwachten Lernens7.1.1 Intrinsische Dimension von Daten7.1.2 Topologische Merkmale von Daten7.2 Dimensionsreduktion7.2.1 Hauptkomponentenanalyse7.2.2 Autoencoder7.2.3 Multidimensionale Skalierung7.2.4 T-distributed Stochastic Neighbor Embedding (t-SNE)7.3 Clusteranalyse7.3.1 K-Means-Verfahren7.3.2 Hierarchische ClusteranalyseQuellen8 Maschinelles Lernen in der Anwendung8.1 Anwendungsbeispiele für überwachtes Lernen8.1.1 MNIST: Handschrifterkennung8.1.2 CIFAR-10: Objekterkennung8.1.3 Large Movie Review Dataset: Sentimentanalyse8.2 Anwendungsbeispiele für unüberwachtes Lernen8.2.1 Textanalyse: Themenmodellierung8.2.2 Netzwerkanalyse: GemeinschaftsstrukturenQuellenErgänzende LiteraturSachverzeichnis




