Hoffmann | Simulation Neuronaler Netze | Buch | 978-3-322-83201-6 | www.sack.de

Buch, Deutsch, 236 Seiten, Book, Format (B × H): 170 mm x 244 mm, Gewicht: 458 g

Hoffmann

Simulation Neuronaler Netze

Grundlagen, Modelle, Programme in Turbo Pascal
2. Auflage 1992
ISBN: 978-3-322-83201-6
Verlag: Vieweg & Teubner

Grundlagen, Modelle, Programme in Turbo Pascal

Buch, Deutsch, 236 Seiten, Book, Format (B × H): 170 mm x 244 mm, Gewicht: 458 g

ISBN: 978-3-322-83201-6
Verlag: Vieweg & Teubner


Das Buch ist eine reiche Fundgrube für jeden "Neuronen-Freak", der mehr als nur einige Schlagworte beherrschen will und Spaß am "Experimentieren" hat.Ein besonderer Vorzug des Buches sind die trickreichen Turbo Pascal-Programme, mit denen die Simulationen durchgespielt und nach Belieben erweitert und modifiziert werden können.

Hoffmann Simulation Neuronaler Netze jetzt bestellen!

Zielgruppe


Upper undergraduate


Autoren/Hrsg.


Weitere Infos & Material


I Grundlagen.- 1 Einleitung.- 1.1 Begriff und Bedeutung neuronaler Netze.- 1.1.1 Nervensysteme.- 1.1.2 Abstraktes Modell eines Nervensystems.- 1.1.3 Neuronales Netz.- 1.1.4 Vergleich mit herkömmlichen Computern.- 1.1.5 Ausblicke.- 1.2 Übersicht über den Buchinhalt.- 1.3 Vorkenntnisse des Lesers.- 2 Allgemeine Beschreibung des Programms.- 2.1 Allgemeine Hinweise.- 2.1.1 Hardwarevoraussetzungen und Programminstallation.- 2.1.2 Konventionen zur Programmbedienung.- 2.2 Bedieneroberfläche aus Anwendersicht.- 2.2.1 Einteilung des Bildschirms.- 2.2.2 Aufruf eines Menüpunkts.- 2.2.3 Umgang mit Fenstern.- 2.2.4 Dialogfenster.- 2.2.5 Anzeige von Zahlen.- 2.2.6 Anzeige von Zahlengruppen.- 2.2.7 Monochrome Bildschirme.- 2.3 Künstliche neuronale Netze.- 2.3.1 Aufbau.- 2.3.2 Aktivierungsfunktionen.- 2.3.3 Ausgangsfunktionen23..- 2.3.4 Zustände und Zustandsänderungen.- 2.4 Programmtecbnische Realisierung.- 2.4.1 Aufbau des Programms.- 2.4.2 Datenstruktur eines Neurons.- 2.4.3 Neuronen in Turbo-Pascal.- 2.4.4 Datenstruktur des Netzes.- 2.4.5 Netz in Turbo-Pascal.- II Modelle.- 3 Grundlagen des Muster-Assoziators.- 3.1 Begriff des Muster-Assoziators.- 3.1.1 Struktur des Netzes.- 3.1.2 Eigenschaften der einzelnen Neuronen.- 3.1.3 Aktivierung des Netzes in der Reproduktionsphase.- 3.2 Reproduktion gespeicherter Muster: Das ODER-Problem.- 3.2.1 Erklärung des Problems.- 3.2.2 Programmbedienung.- 3.2.3 Analyse der Ergebnisse.- 3.2.4 Speichern der Musterpaare und Gewichte.- 3.2.5 Drucken des Netzzustandes.- 3.3 Lernen beim Muster-Assoziator.- 3.3.1 Lernen des ODER-Problems mit der Hebbschen Lernregel.- 3.3.2 Versagen der Hebbschen Lernregel.- 3.3.3 Lernen mit der Delta-Lernregel.- 3.4 Allgemeine Richtlinien für die Bedienung des Programms.- 3.4.1 Programmablauf.- 3.4.2 Menü “Aktionen”.- 3.4.3 Menü “Anzeige”.- 3.4.4 Menü “Parameter”.- 3.4.5 Menü “Werte”.- 3.4.6 Menü “Muster”.- 3.4.7 Menü “Rücksetzen”.- 3.4.8 Menü “Info”.- 3.4.9 Sondertasten.- 3.4.10 Typische Vorgangsweise.- 3.5 Zusammenfassung.- 4 Anwendungen des Muster-Assoziators.- 4.1 Assoziative Speicherung.- 4.1.1 Problemstellung.- 4.1.2 Verwendung der McCulloch-Pitts-Funktion.- 4.1.3 Verwendung der Fermi-Funktion.- 4.1.4 Vereinfachtes Problem.- 4.1.5 Verwendung der linearen Ausgangsfunktion.- 4.2 Lesen von Buchstaben.- 4.2.1 Problemstellung.- 4.2.2 Darstellung auf dem Bildschirm.- 4.2.3 Lernphase.- 4.2.4 Reproduktionsphase.- 4.2.5 Folgerungen.- 4.2.6 Verwendung der Fermi-Funktion.- 5 Auto-Assoziatoren.- 5.1 Definition des linearen Auto-Assoziators.- 5.1.1 Struktur des Netzes.- 5.1.2 Eigenschaf ten der Neuronen.- 5.1.3 Aktivierung des Netzes in der Reproduktionsphase.- 5.1.4 Hebbsche Lernregel beim linearen Auto-Assoziator.- 5.2 Richtlinien für die Programmbedienung.- 5.2.1 Festlegung des Netzes.- 5.2.2 Lernen.- 5.2.3 Erläuterung der Anzeige.- 5.2.4 Reproduzieren.- 5.2.5 Weiteres Beispiel.- 5.2.6 Besonderheiten der Reproduktion.- 5.3 Lernen und Wiedererkennen von Buchstaben.- 5.3.1 Problemstellung.- 5.3.2 Delta-Lernregel beim Auto-Assoziator.- 5.3.3 Lernphase.- 5.3.4 Rekonstruktion gestörter Vorlagen.- 5.4 BSB-Modell (Brain-State-in-the-Box).- 5.4.1 Beschreibung des BSB-Modells.- 5.4.2 Lernen und Wiedererkennen im BSB-Modell.- 5.5 DMA-Modell (Distributed memory and amnesia).- 5.5.1 Aufbau des DMA-Modells.- 5.5.2 Beschreibung eines Beispiels: Möbel.- 5.5.3 Lernen des Prototyps “Tisch”.- 5.5.4 Simultanes Lernen mehrerer Prototypen.- 5.5.5 Automatische Einteilung gelernter Muster in Kategorien.- 5.5.6 Zusätzliches Lernen einzelner Muster.- 5.6 Zusammenfassung.- 6 Training verborgener Einheiten mit der Backpropagation-Lernregel.- 6.1 Begriff des Backpropagation-Netzes.- 6.1.1 Ein bisher unlösbares Problem.- 6.1.2 Struktur des Backpropagation-Netzes.- 6.1.3 Eigenschaften der einzelnen Neuronen.- 6.1.4 Aktivierung des Netzes in der Reproduktionsphase.- 6.1.5 Backpropagation-Lernregel.- 6.1.6 Variante der Backpropagation-Lernregel.- 6.1.7 Erfolg und Versagen der Backpropagation-Lernregel.- 6.2 Lernen des XOR-Problems.- 6.2.1 Festlegung der Netzstruktur.- 6.2.2 Vorbereitung des Netzes.- 6.2.3 Erster Lernschritt.- 6.2.4 Weitere Lernschritte.- 6.2.5 Lernen mit geänderten Startgewichten.- 7 Hopfield-Netze.- 7.1 Definition des Hopfield-Netzes.- 7.1.1 Struktur des Netzes.- 7.1.2 Eigenschaf ten der Neuronen.- 7.1.3 Lernregel.- 7.1.4 Reproduktionsphase.- 7.2 Beispiel: Möbel.- 7.2.1 Problemstellung.- 7.2.2 Lernen der Prototypen.- 7.2.3 Überprüfung des Lernerfolgs.- 7.2.4 Vervollständigung von Möbel-Fragmenten.- 8 Zusammenfassende Übersicht über die behandelten Netzmodelle.- 8.1 Berechnung eines Neurons.- 8.2 Berechnung des Netzes.- 8.3 Netzmodelle.- 8.3.1 Muster-Assoziator.- 8.3.2 Auto-Assoziator.- 8.3.3 Backpropagation-Netz.- 8.3.4 Hopfield-Netz.- III Programme.- 9 Grundlegende Programme.- 9.1 Vorbemerkungen zu allen Programmen.- 9.2 Rahmenprogramm (NN.PAS).- 9.2.1 Erläuterungen.- 9.2.2 Programmtext.- 9.3 Allgemeine Unterprogramme (Unit ALLGUPG).- 9.3.1 Erläuterungen.- 9.3.2 Programmtext.- 9.4 Fensterprogramme (Unit ALLGPROG).- 10 Neuronstrukturen und Hilfsprogramme.- 10.1 Neuronstrukturen (Unit UNEURON).- 10.1.1 Rahmenprogramm.- 10.1.2 Interface.- 10.1.3 Methoden für TAktivierungs_Parameter.- 10.1.4 Methoden für TAusgangs_Parameter.- 10.1.5 Methoden für TEingangs_Zuordnung.- 10.1.6 Methoden für TReal.- 10.1.7 Methoden für TNeuron.- 10.2 Hilfsprogramme (Unit UNETZ).- 10.2.1 Rahmenprogramm.- 10.2.2 Interface.- 10.2.3 Methoden für TSchichtbeschreiber.- 10.2.4 Methoden für TAnzeigeformat.- 10.2.5 Methoden für Terw_Anzeigeformat.- 10.2.6 Methoden für TAnzeige.- 10.2.7 Methoden für TIAnzeigefenster.- 10.2.8 Methoden für TAnzeigefenster.- 10.2.9 Prozedur Daten_eingeben.- 10.2.10 Methoden für TMusterpaar.- 11 Objekt TNetz (Unit NETZ).- 11.1 Rahmenprogramm.- 11.2 Interface.- 11.3 Implementation.- 11.3.1 Menüsteuerung.- 11.3.2 Speicher bereitstellen.- 11.3.3 Weitere Programme.- 11.3.4 Fensterüberschriften.- 11.3.5 Zufallsgenerator.- 11.3.6 Reproduzieren.- 11.3.7 Lernen.- 12 Eingabe und Modifikation des Programms.- 12.1 Bereitstellung des Quelltextes.- 12.2 Einfache Änderungen.- 12.2.1 Änderung von Texten.- 12.2.2 Änderung von Programmkonstanten.- 12.2.3 Änderung von Standardwerten.- IV Anhang.- 13 Literaturverzeichnis.- 13.1 Literaturverweise aus dem Text.- 13.2 Einführende Literatur.- 14 Synonymverzeichnis.- 15 Symbolverzeichnis.- 16 Register.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.