Hier nur ein kurzer Einblick in die jüngste Arbeit von Nassim Taleb über mathematische Zusammenhänge in komplexen, mehrdimensionalen Systemen. Wie es Klimamodelle sind. Fazit: Eine Prognose aus komplexen Klimamodellen (die über Korrelationen dimensionenübergreifend arbeiten) ist aus prinzipiellen Gründen unmöglich, denn die Ergebnisse verhalten sich zufällig und nicht linear-rational, wenn sie nicht auf eine sinnvolle Aussage hingeformt werden (sodaß sie dann nur noch "beweisen", was man ohnehin bereits vorausgesetzt hat.) Auf reinen "Meßergebnissen" beruhend sind sie unbrauchbar, sie müssen (wie in der Quantenphysik; Anm.) auf ein gewolltes Meßergebnis methodisch hingeformt werden, und sagen dann also nur so viel aus, als die apriorische These ohnehin bereits aussagte.
Taleb demonstriert deshalb, daß ein und dasselbe Modell hoher mathematischer Komplexität und Dimensionalität schon bei geringsten Änderungen von Daten (Meßfehlern) zu völlig anderen, ja zu gegenteiligen Aussagen kommen kann. Diese "Meßfehler" aber sind nicht vermeidbar, sie bilden die methodisch zu berücksichtigende Grundlage überhaupt jeder wiederholten, in die Zukunft projezierten, nach Wahrscheinlichkeiten gewichtete Variablen. Je mehr Variable nun zu einem Prognosemodell hinzugefügt werden, desto entscheidender können sie das Gesamtergebnis beeinflussen. Diese Wahrscheinlichkeit steigt "konvex", nicht nur progressiv. Also durch Veränderung der Dimensionalität der Zwischenschritte (denen je neue Variable zugefügt werden).
Fazit: Eine Prognoses des Weltklimas, das ein System aus zahllosen Subsystemen und Dimensionsschritten darstellt, ist aus mathematischen Gründen UNMÖGLICH. Weil es immer eine nicht einschätzbare, aber ganz sicher gewaltige Überdimensionierung vorheriger Trends anzeigen wird. Und wenn man sich ansieht, daß bis heute sämtliche Klimaprognosen DEUTLICH in ihren Prognosen über real beobachtbaren Daten lagen, etwa den mittlerweile 20jährigen Temperaturstop nicht verarbeiten konnten, ist das ein belegender Hinweis darauf, daß das Problem Klimawandel überhaupt schon in seiner ersten Prognose, die die Hype dann auslöste, einem mathematischen Fehler entsprungen ist.
Es gab überhaupt nie eine (drohende, steigende) Klimaerwärmung. Es gab nur mathematische Fehler.
Taleb demonstriert deshalb, daß ein und dasselbe Modell hoher mathematischer Komplexität und Dimensionalität schon bei geringsten Änderungen von Daten (Meßfehlern) zu völlig anderen, ja zu gegenteiligen Aussagen kommen kann. Diese "Meßfehler" aber sind nicht vermeidbar, sie bilden die methodisch zu berücksichtigende Grundlage überhaupt jeder wiederholten, in die Zukunft projezierten, nach Wahrscheinlichkeiten gewichtete Variablen. Je mehr Variable nun zu einem Prognosemodell hinzugefügt werden, desto entscheidender können sie das Gesamtergebnis beeinflussen. Diese Wahrscheinlichkeit steigt "konvex", nicht nur progressiv. Also durch Veränderung der Dimensionalität der Zwischenschritte (denen je neue Variable zugefügt werden).
Fazit: Eine Prognoses des Weltklimas, das ein System aus zahllosen Subsystemen und Dimensionsschritten darstellt, ist aus mathematischen Gründen UNMÖGLICH. Weil es immer eine nicht einschätzbare, aber ganz sicher gewaltige Überdimensionierung vorheriger Trends anzeigen wird. Und wenn man sich ansieht, daß bis heute sämtliche Klimaprognosen DEUTLICH in ihren Prognosen über real beobachtbaren Daten lagen, etwa den mittlerweile 20jährigen Temperaturstop nicht verarbeiten konnten, ist das ein belegender Hinweis darauf, daß das Problem Klimawandel überhaupt schon in seiner ersten Prognose, die die Hype dann auslöste, einem mathematischen Fehler entsprungen ist.
Es gab überhaupt nie eine (drohende, steigende) Klimaerwärmung. Es gab nur mathematische Fehler.
Abstract—Common intuitions are that adding thin-tailed variables with finite variance has a linear, sublinear, or asymptotically linear effect on the total combination, from the additivity of the variance, leading to convergence of averages. However it does not take into account the most minute model error or imprecision in the measurement of probability.
We show how adding random variables from any distribution makes the total error (from initial measurement of probability) diverge; it grows in a convex manner. There is a point in which adding a single variable doubles the total error. We show the effect in probability (via copulas) and payoff space (via sums of r.v.).
Higher dimensional systems – if unconstrained – become eventually totally unpredictable in the presence of the slightest error in measurement regardless of the probability distribution of the individual components.
The results presented are distribution free and hold for any continuous probability distribution with support in R.
Finally we offer a framework to gauge the tradeoff between added dimension and error (or which reduction in the error at the level of the probability is necessary for added dimension).
***