Nichtlineare, multivariate Approximation mit Perzeptrons und anderen Funktionen auf verschiedenen Hochleistungsrechnern

Kein Bild zugeordnet
Autor/en:
M.H. Breitner
Umfang:
534
EAN/ISBN:
978-3-89838-263-2
Band:
263
Ausgabe:
softcover
Buchreihe:
Dissertationen zur Künstlichen Intelligenz
Kategorien:
Buch
Informatik
Künstliche Intelligenz
Dissertationen zur Künstlichen Intelligenz
Deutsch
Gesamtverzeichnis AKA Verlag#Complete Index AKA Publisher
Preis:
inkl. 7% MWSt
54,00 €
Künstliche Neuronale Netze werden seit den 1950er Jahren eingesetzt, um Rechnern "natürliche" Intelligenz einzuhauchen. Beim überwachten Lernen werden Muster, d.h. Eingaben und zugehörige Soll-Ausgaben, vorgegeben. Dann wird versucht, ein geeignetes Netz im Rechner zu generieren und gut zu trainieren, so dass es zu den Mustereingaben die Soll-Ausgaben möglichst genau liefert. Ein gutes Netz muss aber auch für andere Eingaben "in der Nähe" der Muster "sinnvolle" Ausgaben liefern (Generalisierung). Problemabhängig muss ein gutes Netz noch weitere Kriterien erfüllen, z.B. darf die Gesamt- oder Maximalkrümmung im Nutzungsbereich nicht zu groß werden. In diesem Buch wird das überwachte Lernen mit 3- und 4-lagigen Perzeptrons und Radial-Basis-Netzen zuerst mathematisch beleuchtet. Trainiert wird mit globalen Hochleistungsoptimierungsverfahren. Dann wird die Implementierung im neuartigen Neurosimulator FAUN (Fast approximation with universal neural networks, Beta-Version 0.3) vorgestellt. Basierend auf grob- und feingranularen Parallelisierungsansätzen arbeitet FAUN auf verschiedensten Hochleistungsrechnern sehr effizient. Diverse komplizierte Beispiele wie Marktpreismodelle für Optionen, mittel- und langfristige Zinsprognosen und robust optimale Steuerungen für Raumgleiter werden vorgestellt. Die interdisziplinäre Darstellung des überwachten Lernens in diesem Buch ist für Mathematiker und Informatiker, aber auch für interessierte Wirtschaftswissenschaftler und Ingenieure, gleichermaßen geeignet.