Titelaufnahme
- TitelGeneralized Markov approximations from information theory and consequences for prediction / vorgelegt von Detlef Holstein
- Beteiligte
- Erschienen
- HochschulschriftWuppertal, Univ., Diss., 2007
- SpracheEnglisch
- DokumenttypDissertation
- URN
- Das Dokument ist frei verfügbar
- Social MediaShare
- Nachweis
- Archiv
- IIIF
Deutsch
Auf der Grundlage von Informationstheorie und Statistik werden neue Kriterien zur Rechtfertigung von Markov Approximationen entwickelt. Bei Konditionierung ignorierter Memory und der statistische Fehler der Redundanz werden miteinander in Beziehung gesetzt, um optimale Konditionierungen im Sinne verallgemeinerter Markov Approximationen zu erhalten. Die eingeführten Kriterien werden mit verschiedenen Beispieldynamiken wie autoregressiven Prozesssen, verallgemeinerter Hénon Dynamik und Mackey-Glass Dynamik erfolgreich überprüft. Mit auflösungsabhängigen Vorhersagefehlern wird verifiziert, dass die neue Art der Modellselektion verbesserte Vorhersagen liefert. Als Anwendung wird die Vorhersage von Windgeschwindigkeiten durchgeführt und die dabei auftretenden Probleme werden analysiert. Im Rahmen der verallgemeinerten Markov Approximationen wird eine neue Methode zur verbesserten Schätzung der Kolmogorov-Sinai Entropie vorgeschlagen. Die Einführung einer neuen Notation für Entropien in der Zeitreihenanalyse, welche den Zugang zum verallgemeinerten Kriterium erst ermöglicht, erlaubt eine vereinheitlichte Beschreibung von verschiedenen Situationen der Modellierung und Vorhersage wie z.B. willkürliche Auslassungen von Zeitschritten in Konditionierungen, Downsampling und variable Zukunftsvorhersagezeiten. Eine nicht weit verbreitete Verallgemeinerung der Grösse 'Mutual Information' von zwei auf mehrere Zufallsvariablen wird in der Gemeinschaft der Zeitreihenanalytiker bekannt gemacht. Mit dieser Grösse werden in Vorhersagesituationen Umverteilungen von Informationen zur Zukunft korrespondierender Zufallsvariabler unter willkürlicher Auslassung konditionierender Zeitschritte der Vergangenheit aus elementaren Konstituenten analytisch berechenbar. Eine zeitkontinuierliche Version der Theorie der Entropien und Entropie-Raten wird vorgestellt, mit der sich eine neue Unterscheidungsmöglichkeit von Chaos undStochastizität eröffnet. Im Fall deterministischer Dynamik können obere Schranken von Unsicherheiten für den Limes unendlich hoher Sampling-Raten bestimmt werden. Die Dimension und die Kolmogorov-Sinai Entropie einer Dynamik können in einem einzigen 3D-Graphen abgelesen werden. Es werden die für diese Arbeit relevanten Grundlagen der stochastischen Prozesse, Informationstheorie, Vorhersage und Hydrodynamik präsentiert.
English
For the justification of Markov approximations novel criteria based on information theory and statistics are developed. Ignored memory under conditioning and the statistical error of redundancy are related, in order to obtain optimal conditionings in the sense of generalized Markov approximations. The introduced criteria are checked successfully by various example dynamics as autoregressive processes, generalized Hénon dynamics and Mackey-Glass dynamics. The new kind of model selection results in improved predictions, which is verified via resolution-dependent prediction errors. As an application the prediction of wind speeds is carried out and the arising problems are analyzed. In the framework of generalized Markov approximations a new method for improved estimation of the Kolmogorov-Sinai entropy is suggested. The introduction of a new notation for entropies in time series analysis, which enables access to the generalized criterion, allows for a unified description of various situations of modelling and prediction as, e.g., arbitrary omission of time steps in conditionings, downsampling and variable future prediction times. A non-widespread generalization of the quantity 'mutualinformation' from two to several random variables is made known in the community of time series analysts. With this quantity redistributions of information corresponding to future random variables under arbitrary omissions of conditioning time steps in the past are calculable analytically in prediction situations from basic constituents. A time-continuous version of the theory of entropies and entropy rates is introduced, which offers a new distinction of chaos and stochasticity. In the case of deterministic dynamics upper thresholds of uncertainties in the limit of infinitely high sampling rates can be determined. The dimension and the Kolmogorov-Sinai entropy of a dynamics can be read out from one single 3D-graph. The relevant foundations for this work concerning stochastic processes, information theory, prediction and hydrodynamics are presented.
- Das PDF-Dokument wurde 16 mal heruntergeladen.