Preis & Zyklustheorie

 

Alexander, Michael – Stock Cycles – Why Stocks Wont Beat the Money Markets Over The Next Twenty Years
Michael A. Alexander präsentiert mit Stock Cycles – Why Stocks Wont Beat the Money Markets Over The Next Twenty Years ein gut recherchiertes und sauber gearbeitetes Werk zum Thema lange Wellen in den Aktienmärkten. Das Buch erschien im Jahr 2000 und prognostiziert den Burst der New Economy Bubble. Eine Leistung wenn man bedenkt, welch flächendeckende Euphorie zu dieser Zeit herrschte, in der Dowprognosen von 35.000 für das Jahr 2007 (siehe David Elias – Dow 40.000 Strategies For Profiting From The Greatest Bull Market in History) und 100.000 für 2020 (Charles W Kadlec – Dow 100.000 Fact or Fiction) nicht unüblich waren. Endlose Goldgräberstimmung und der Traum vom niemals endenden Wachstum und Reichtum für alle, als sichere Anzeichen für Hochpunkt einer Jahrhunderthausse.

Hier kommt nun also Alexander (aus der Pharmabranche!) und sagt entgegen dem Konsens der Ökonomen den Hochpunkt der Aktienmärkte für das Jahr 2000 voraus, mit massiven Rezessionsphasen während eines zwanzigjährigen Downcycle. Seine Argumentation unterlegt er mit statistischen Analysemethoden. Demnach stehen die Chancen für eine durchschnittliche Aktienjahresperformance von 20% zwischen 2000 und 20005 bei nur 4%. Er prognostiziert eine 75% Wahrscheinlichkeit für einen zwanzigjährigen Bear-Market. Seine Modelle basierend auf diversen ökonomischen Indikatoren, Inflation, Zinseffekte, usw.. Alexander verzichtet auf vertiefende Statistik, das Buch ist fundiert, flüssig geschrieben und die Argumentationskette bleibt auch für Einsteiger leicht verständlich.

Er kommt zu dem Schluss, dass sich die Aktienmärkte in der langen Frist nicht an der Random Walk Hypothese, sondern an Long Term Cycles orientieren. Den Hochpunkt der Aktienmärkte setzt der mit dem Peak des laufenden Kondratieff Zyklus an, mit der New Economy und Information als Basisinnovation. Dem Kondratieff Zyklus und Basisinnovationen widmet er in weiterer Folge eigene Kapitel (5 und 6). Ab hier wird es auch für Leser, die sich für übergeordnete Zusammenhänge und integrale Modelle (Physik, Biologie, Psychologie, Ökonomie, Systemtheorie, Evolutionstheorie usw.) interessieren, spannender.

Der Titel Stock Cycles gibt natürlich Hoffnung auf ein flächendeckendes Werk, es ist jedoch kein Buch für technisch orientierte Zyklustheoretiker die auf Basis der Wellenmechanik arbeiten (wie Mesa, Spektralanalyseverfahren, Fourier Transformation usw.) noch für langfristig orientierte Elliott Waver. Jedoch empfehlenswert für Einsteiger und fortgeschrittene Forscher der Zyklusthematik, die sich für längerfristige Schwingungen in den Aktienmärkten und den ökonomischen Zusammen interessieren. Damit für Anleger und Long Term Investoren, als auch Trader die ihr Vermögen parken möchten, im Grunde ganz lesenswert.

Natürlich gibt das Thema des Buches „Stock Cycles“ sehr viel mehr her als uns Alexander verrät. Jede Zyklusanalyse die Kondratieff und Basisinnovationen miteinbezieht, führt unweigerlich zur Frage nach den globalen Zusammenhängen, die selbst physikalische, chemische, biologische und psychologische Organisationsebenen berühren muss. Alexanders Analyse der Aktienmärkte auf ihr zyklisches Verhalten beschränkt sich auf eine monetäre und realökonomische Umgebung und ist isoliert von anderen Einflussfaktoren. Die Entwicklung der Aktienmärkte verläuft aber nicht abgekoppelt von den evolutionären Entwicklungsprozessen. Wenngleich sich Alexander gegen Ende des Buches sichtlich darum bemüht, größere Zusammenhänge herauszuarbeiten, physikalische, systemtheoretische, sozialtheoretische Elemente sowie integrale Modelle mit Bewusstseinsstufen (z.B. Gebser, integral-aperspektivische Zeitalter), transpersonal astrologisch-psychologische Modelle (z.B. Jung, Assagiolli, Grof, Riemann) oder integrale Evolutionsmodelle (z.B. Wilber, Holontheorie und Vier Quadrantenmodell) bleiben gänzlich von seinem Blick verschont und können nicht den Überlegungshorizont hineinfließen. Daher bleibt uns Alexander sein versprechen aus dem Untertitel, nämlich einen tieferes Verständnis des Bear-Market und der zyklischen Aktienmarktschwingungen allgemein zu vermitteln, schuldig.

Seine Perspektive erfasst nicht die natürliche Harmonien von Zahlen, Geometrie und Musik (z.B. Global Scaling Theorie), noch bezieht sie tiefere wellenmechanische, zyklustheoretische Aspekte, noch astronomische (z.B. Platonische Zyklen) oder astrologische Überlegungen mit ein, und ist daher für fortgeschrittene Gann Theoretiker kaum von Interesse. 
****



Anderson, Richard – Market Timing Models – Constructing, Implementing & Optimizing a Market Timing Based Investment Strategy
In der Finanzwelt herrscht keinen Mangel an widersprüchlichen Meinungen bezüglich der Nützlichkeit von Market-Timing Modellen. Die akademische Lehrmeinung unterstellt mit der Effizienzhypothese der Märkte, dass jedes Informationsungleichgewicht augenblicklich verarbeitet wird und eine gewinnbringende Strategie verunmöglicht. Die skeptische Haltung gegenüber Market Timing Modellen geht zu großen Teilen noch auf die Arbeiten von William Sharpe zurück, wonach 70% Treffergenauigkeit notwendig für profitablen Kurzfristhandel seien, eine für die Masse der Markteilnehmer utopische Leistung.

Anderson versucht mit seinem Buch Market Timing Models – Constructing, Implementing & Optimizing a Market Timing Based Investment Strategy einen Gegenbeweis und bringt dabei seine praktischen Erfahrung als Fundmanager und Tactical Asset Allocator ein, die das Buch zu einem gelungenen Leitfaden für professionelle Market Timer machen. Ausführlich behandelt werden die Potentiale des linearen Regressionsmodells. Es werden Stärken und Schwächen erörtert, sowohl von Single-Variable-Models (z.B. basierend auf Dividend Yield) als auch Multiple- Variable-Models (z.B. P/E = Price Earning Ratio und Gross Domestic Product Deflator) mit niedriger Korrelation. Ein breites Spektrum von Themen wird abgedeckt, Correlation Matrix, Out of Sample Forecasts usw., teilweise detailiert und mit Tiefgang. Grundlegende Statistik kommt zur Anwendung, es werden jedoch keine Vorkenntnisse benötigt. Nachdem die Basis geschaffen wurde, diskutiert Anderson vier Timing Modelle (Stock, Bond, Small-Cap/Large-Cap, Canadian Dollar), analysiert ausführlich die Ergebnisse, sowie ihre Vor- und Nachteile. Kapitel 8 beschäftigt sich dann mit der taktischen Umsetzung als praktischen Investmentstrategie, um Profit aus der theoretischen Arbeit zu schlagen. Sehr interessant auch die Strategieerörterungen der Wallstreet Größen Eliane Garzarelli, Edward Kerschner und Martin Zweig am Ende des Buches.

Fazit: Ein professioneller Autor, ein ausgezeichnetes Buch, sauber gearbeitet, detailiert, umfangreich, aber nicht überladen, bietet kaum Angriffspunkte für eine mögliche Kritik. Anderson zeigt, dass Market Timing Modelle für ein Investmentprogramm von nutzen sein können. Die Methode ist nicht nur für Fund Manager, sondern auch für private Trader geeignet. Mit dem Basismodell kann man zweifelsfrei arbeiten, es weiterentwickeln, mit anderen Ansätzen kombinieren und in die eigene Prognosearbeit integrieren.
*****


Bressert, Walter – The Power Of Oscillator Cycle Combinations
Das Buch ist 1991 erschienen und zählt damit eher noch zu den früheren Pionierarbeiten, was die moderne Zyklusanalyse der Finanzmärkte anbelangt. (Die mit Ehlers ihren Höhepunkt erreicht). Bressert beginnt mit einigen Grundlagen über Zyklen, wie Right- Left- Translation, es folgt eine umfangreiche Aufzählung bekannter Zyklen in den Aktien und Warenmärkten (z.B. Stocks 4j, Gold 5,5j und 9,5j, Copper 5, Corn 3j,9j und 11j, Wheat 4,5j und 9j usw.) und saisonaler Zyklen. Kapitel II offeriert technische Werkzeuge und Oszillatoren in Verbindung mit Zyklen. Es folgt die Methode des Detrendings zum Auffinden von Marktschwingungen, auf die in weiterer Folge detailliert eingegangen wird. Ein weiteres Kapitel stellt die Kombinationen mit Indikatoren wie Moving Avergages, RSI CCI, Stochastik (etwas langatmig) vor, ein paar Seiten über simplifiziertes Money- und Riskmanagement versuchen das ganze für Trader abzurunden.

Wenngleich der Inhalt die Zyklusanalyse stark vereinfacht dargestellt wird, die Grundlagen der Wellen- und Zyklusmechanik ebenso fehlen, wie fortgeschrittenen Analysemethoden (wie Fourier Transformationen, oder Mesa – erst viele Jahre später von Ehlers für die Marktanalyse umgesetzt), Bressert ist nicht ungeschickt. Er hat ein gutes Verständnis für die Integration von Indikatoren in die technisch-orientierte Zyklusanalyse und liefert ein durchaus interessantes Buch. Er versucht sich von der charttechnischen Seite her der Zyklusthematik zu nähern, um mithilfe von verschiedenen konventionellen Werkzeugen, periodische Marktschwingungen zu identifizieren. Kein Meisterwerk, aber ein berühmt gewordener Klassiker, der für Charttechniker im Grunde ganz lesenswert ist (weniger jedoch für signalorientierte Systemtrader). Fortgeschrittene Zyklusanalysten werden wohl keine brauchbaren Informationen mehr finden und enttäuscht sein.
***



Clifford J. Sherry – The Mathematics of Technical Analysis 
Wenn John Sweeney von Stock Commodities im Vorwort Rosen streut, dann muss es sich um ein Buch handeln, das einen genaueren Blick verdient. The Mathematics of Technical Analysis ist ein Grundlagenwerk über Preisverteilung und nicht wie der Titel eventuell vermuten lassen könnte, über die statistische Signifikanz von Chartformationen (also kein Buch, wie das von Bulkowski, das einzelne Pattern untersucht und ihre Profitabilität statistisch zu überprüfen versucht.)

Es geht also um den alten akademischen Disput, ob die Märkte der Random Walk Hypothese folgen und damit die Suche nach einer profitablen Handelsstrategie von vornherein ausschließen. Kann Clifford Random Walk aus den Angeln heben und die Nützlichkeit von Systemanasätzen und der Technischer Analyse allgemein gegenüber der Fundamentalanalyse unter Beweis stellen? Dazu präsentiert er unterschiedliche statistische Analyseverfahren um die Zufälligkeit von Datenreihen zu untersuchen. Und Sherry schenkt sich selbst nichts, Price Distribution Tabellen über viele Seiten, eine ausführlich und detaillierte Arbeit wie man sie von einem Statistiker erwartet. (Clifford dürfte wohl dem Prototyp eines Strukturmenschen entsprechen).

Basieren auf Merkmalen wie Independence und Stationsarzt stellt er die Grundsatzfrage, ob die untersuchten Zeitreihen dem Zufall unterliegen und ob damit die Suche nach einer profitablen Handelsstrategie überhaupt einen Sinn ergibt. Je nach Ergebnis hat der Trader unterschiedliche Konsequenzen zu ziehen. Cliffort liefert damit wichtige Werkzeug für Systemtrader, die Analyseverfahren sind für jeden mit Excel nachvollziehbar. Kapitel 7 beschäftigt sich noch oberflächlich mit Market Noise, Rauschunterdrückung und Glättungsverfahren, Kapitel 8 Pattern Recognition ist für Trader unbefriedigend kurz, ebenso wie das noch schnell angehängte Kapitel 9 über Riskmanagement zu schwach ausfällt.

Fazit: Nicht das letzte Wort, aber eine interessante Debatte über Random Walk und dem Sinn von systematischen Handelsanasätzen. Ein Grundlagenwerk nicht nur für Finanzmarkttheoretiker sondern vor allem für Systementwickler, Systemtrader und alle Anderen, die sich den Märkten von der systematischen Seite her nähern. Die Arbeit hat nicht nur theoretischen, sondern auch praktischen Wert und kann sich schnell auf den Kontostand des Traders auswirken.
*****


Dreman, David- Contrarian Investing Strategies: The Next Generation (1998)
Die Dreman Bücher zur Contrary Investment Strategy (Contrarian Investment Strategy: The Psychology of Stock Market Success 1980, The New Contrarian Investment Strategy 1982) haben große Wellen geschlagen und auch die Fortsetzung Contrarian Investment Stratgies: The Next Generation (1998) bildet da keine Ausnahme. Es ist eine Thematik, die zunehmend an Popularität gewinnt und zeitlich zusammenfällt mit den Entwicklungen in der Market Behavour und den Boom-Burst, Reflexivitäts-Theorien von George Soros. Diese haben bisherige ökonomische Standartmodelle von rational agierenden Marktteilnehmern revolutionierten. Man erkennt zunehmend: Börsenteilnehmer handeln vorwiegend emotional (und zwar übertrieben emotional) und nicht analytisch-rational. Das akademische Postulat, dass psychologische Effekte keine Rolle spielen ist nicht haltbar. Es entwickelt sich seit den letzten 20 Jahren eine Strömung, die weg von einem rein mechanisch-mathematischen Verständnis hin zu einem umfassenderen tendiert, und auch psychologisch-emotionale Elemente miteinbezieht. Das Grundproblem dahinter ist einfach. Klassische Modelle versuchen Finanzsysteme auf die bekannten Gesetzmäßigkeiten niederer Organisationsebenen zu reduzieren (z.B. Physiosphäre) um sie mit mathematischer Präzision erfassen zu können. (So wie auch die Naturwissenschaft vorgeht) Die Börse, als Produkt des menschlichen Geistes, weißt aber Eigenschaften und Gesetzmäßigkeiten auf, die rein physikalische Systeme übersteigen(transzendieren). Dementsprechend ist ein erweiterter Rahmen und ein größeres Repertoire an Messwerkzeugen notwendig, um ihre Gesetzmäßigkeiten erforschen und besser verstehen zu können. (siehe Holontheorie, integrale Evolutionstheorien usw.)

Dreman zählt zu den Pionieren im Contrarian Thinking, der sich seit mehr als 30 Jahren mit Marktpsychologie auseinandersetzt. Seine Hauptthese ist Overreaction: Investoren reagieren überemotional mit Gier und Angst z.B. auf überraschende Nachrichten. Das vorliegende Buch ist gut recherchiert und mit fast 500 Seiten sehr umfangreich. Nach einer 150 Seiten Kritik an den Mainstreamansätzen, die mit einer Vielzahl von Informationen vollgepackt ist, werden erstmals die Contrarian Investment Strategies bearbeitet. Abschnitt III stellt (als Wiederholung vorheriger Veröffentlichungen) unterschiedliche Werkzeuge und Strategien für Long-Term Aktieninvestoren zur Verfügung, basierend auf P/E (Price/Earings), Price to Cash Flow, Price to Book Value, Price to Dividend. Teilweise mit statistischen Ausarbeitungen über die Erfolge, so soll eine Kontrastrategie zu P/E einer Studie des Autors zufolge in den letzten 27 Jahre profitabel abgeschnitten haben. Es folgen Kontrastrategien zum Sektoren P/E und eine Kontra Sektoren Price to Book Value Strategie. Das war es im Großen und Ganzen auch schon, die restlichen Seiten beschäftigt sich mit der Feinjustierung der Handelsregeln (es werden über 40 allgemeingültige Handelsregeln aufgestellt) und zahlreichen Zusatzinfos, wie beispielsweise zu Crash-buying, Überlegungen zu Volatilität und Risiko, Market Pitfalls und Psychologie.

Es ist ein Buch dessen Studium sich für Market Timer und Forecaster lohnen kann. Dreman nähert sich den Märkten von einer neuen Richtung her und unterscheidet sich vom konventionellen Gedankengut. Die Methode kann in Kombination mit Market Sentiment Indikatoren auf wunderbare Weise das technische und zyklische Gesamtbild für den Analysten vervollständigen. Das macht das Contrary Thinking Programm zu einem interessanten Bestandteil einer integralen Forecastingmethode. Ich selbst habe einige Ideen kombiniert mit Market Sentiment in meine Prognosemodelle einfließen lassen. Als alleinstehendes Investmentprogramm jedoch mangelhaft!

Kritik am Rande:
Wie andere Autoren (vor allem Ross) unterliegt auch Dreman der Selbstverherrlichung seiner eigenen Methode. Es scheint sich dabei um eine Verlockung zu handeln, derer sich das Ego nur schwer entziehen kann. Die Seitenhiebe auf andere Ansätze muss man überlesen, wie die meisten Individuen der orangen Meme (Beck & Cowan: Spiral Dynamics) versucht er auf die eigene Perspektive zu reduzieren und seine Theorie als überlegen darzustellen, um seinen Beitrag über den der Konkurrenten zu stellen. (Ein allgemeines Problem, das integrale Theoretiker zu überwinden versuchen. Man denke dabei nur an die rivalisierenden und verfeindeten Schulen der Psychoanalyse von Freud, Alder, Rank bis Jung.) An manchen Stellen wird die Eitelkeit und Egozentrik aber störend auf den Inhalt und verleitet den Autor zu Fehlschlüssen. Part I beginnt mit dem Kapitel: Why current Methods dont work. Dreman versucht über 140 Seiten hinweg fremde Ansätze zu zerlegen und die Arbeit anderer Autoren, Moneymanager und Market Timer zu kompromittieren (z.B. mit speziellen Angriffe auf Crawford, ein Finanzastrologe der weltweit zu den TopTimer von Timer Digest zählt). Die Unfähigkeit des Autors mit den Standartwerkezugern der fundamentalen, charttechnischen, oder finanzastrologischen Analyse erfolgreich zu arbeiten, lässt aber nicht auf ihre generelle Wertlosigkeit schließen. 

Seite 47 belehrt uns über Investment Rule No 1: “Do not use market timing or technical analysis. These techniques can only cost you money.“ Dreman beruft sich dabei auf Untersuchungen von Osborne über das brownsche Bewegungsmodell und seine Parallelen zu den Aktienpreisbewegungen und auf Arnold Moore, Clive Granger, Morgenstern, Eugene Fama*, deren Papiere er für den letzten Beweis der Random Walk Hypothese darstellt. Damit verstickt er sich in einen Widerspruch, den wenn die Kurse vollkommen chaotisch sind, dann wären alle Indikatoren und somit auch diejenigen, auf die sich die Contrarians und Market Behavioristen stützen, wertlos. Logische Schlussfolgerung: Damit wären auch alle Bemühungen der Contrarians zur Kursprognose vollkommen wirkungslos. (Der Autor kommt nicht umhin, im weiteren Verlauf des Buches Random Walk wieder anzugreifen.) 

Fazit: Der teilweise mit Polemik geführte Feldzug gegen die Fundamental- und Chartanalyse und selbst gegen die finanzwissenschaftlichen Modelle ist unnötig und stört den Inhalt. Der Autor vergeudet Energie, um anderer Ansätze zu diskreditieren, mit dem Zweck den Wert seine eigene Methode hervorzuheben. Seitenlanges glorifizieren des revolutionären Charakters der Contrarian Theorie sollen, gestützt auf Kuhn und Popper, zu einem Paradigmenwechsel in der Investmentlandschaft beitragen. Anstatt die Contrarian Strategy in eine ganzheitliche Marktanalyse einzugliedern und damit einen wirklichen Mehrwert für Investoren und Market Forecaster zu schaffen, verfällt Dreman in einen antiquierten Disput zwischen unterschiedlichen Markttheorien, den keiner der verfeindeten Lager jemals für sich entscheiden wird können.
***

M.F.M Osborne, „Brownian Motion in the Stock Market,” Operations Research 7 (March-April, 1959), pp.145-173.
Arnold B. More, “Some Characteristics of Changes in Common Stock Prices,” in Paul H. Cootner, ed., The Random Character of Stock Market Prices, (Cambridge: MIT Press, 1964)pp.139-161.
Clive W.J. Granger and Oskar Morganstern, “Spectral Analysis of New York Stock Market Prices,” Kyklos 16 (1963), pp. 1-27.
Eugen F. Fama, “The Behavior of Stock Market Prices,” Journal of Business 38 (January, 1965), pp.34-105.
Eugene F.Fama, “Efficient Capital Markets:II,” Journal of Finance 46 (December,1991), pp. 1575-1617.



Fausett, Laurene – Fundamentals of Neural Networks
Neurale Netze sind aus dem Systemtrading nicht mehr wegzudenken. Die Neunziger erlebten einen Boom, der jedoch wieder rasch abgeflaut ist, nachdem man sich eingestehen musste, dass sie nicht der erhoffte Heilige Gral sind und wie jeder andere Ansatz auch Grenzen besitzen. Das vorliegende Buch ist ein allgemeines Grundlagenwerk zum Thema Neurale Netze. Mit knapp 500 umfangreich, jedoch noch nicht auf den Einsatz im Finanzwesen spezialisiert. Es startet vom Grund auf und benötigt keine speziellen Vorkenntnisse, erklärt die Einsatzmöglichkeiten und Funktionsweisen, Gewichtung von Neuronen, Inputs ->Hidden Layers -> Outputs, Training-Variationen und geht dann rasch über zu einer vertiefenden Diskussion der Algorithmen. Ausführlich wird das Kapitel Pattern Classification behandelt. Jedes Kapitel besitzt eine Bücherliste für ein weiterführendes Studium.

Das Buch eignet sich für fortgeschrittene Systemtrader die sich in das Thema Neurale Netze einarbeiten und sich mit dem notwendigen Hintergrundwissen ausstatten wollen. Zwar sind moderne Softwarepakete wie Neuro Lab, Neuroshell, Deepinsight, Tradingsolution, Safir-X, Investoxx sehr bedienerfreundlich, indem sie notwendige technische Kenntnisse auf ein Minimum reduzieren und ihre Arbeit so gut wie von alleine erledigen. Wer das Potential dieser teilweise hochentwickelten und umfangreichen Tradingpakete voll ausnützen will, kommt an einem vertiefenden Hintergrundwissen nicht vorbei. Es ist letztendlich enorm zeitaufwendig und sehr schwierig mit Neuralen Netzen erfolgreich an den Märkten zu operieren. Der gezielte Umgang erfordert Erfahrung und der resultierende Nutzen muss die lange Einarbeitungszeit nicht unbedingt rechtfertigen.

Dennoch gehört es zu den faszinierten Themengebiete, in die ein Trader vorstoßen kann. Wir sind heute im Privatbereich in der Lage Simulationen durchzuführen, die vor wenigen Jahren noch millionenschweren Millitär- oder Nasarechnern vorbehalten waren. Fortgeschrittene Systementwicklern als auch Market Forecastern bieten Neurale Netze eine erweitertes Spektrum von Möglichkeit. Die Einsatzgebiete sind theoretisch unbegrenzt. Wir können sie mit adaptiven Indikatoren und Glättungsverfahren der digitalen Signalverarbeitung (wie von Ehlers vorgestellt) ausstatten, oder mit Fundamentaldaten, Market Sentiment und Put/Call Ratio Indikatoren füttern. Man kann sie zur Pattern Classification einsetzen, oder um nichtlineare Korrelationen zwischen astrologische Signaturen aufzufinden. Als ebenso nützlich kann sich ihr Einsatz im Riskmanagement erweisen, um in Kombination mit Backtestkennzahlen und Monte Carlo Simulationen fortgeschrittene Moneymanagementmodelle in Tradingsysteme zu implementieren und zu optimieren. In der Finanzastrologie ist ihr Einsatz besonders spannend. Neurale Netze können Millionen astrologischer Signaturen bewerten und aus den Kombinationsmöglichkeiten lernen, welche für zukünftige Marktbewegungen von Bedeutung sein könnten. Mit den gewonnenen Daten kann eine Handelsstrategie konstruieren, oder die Parameter des Bradley Siderographen justieren werden. Man wünscht sich fast, Gann könnte unsere heutige Arbeit bewundern.

Fazit: Ein Buch für den Einstig ins Thema Neurale Netze. Noch keine Finanzspezialisierung.
****


Hurst, J.M. – The Profit Magic of Stock Transaction Timing
 The Profit Magic of Stock Transaction Timing ist ein Grundlagenwerk zur Zyklusanalyse. Hurst galt als arbeitsamer Market Researcher der unzufrieden mit konventionellen Handelsansätzen sich anfang der 60er vertiefend in die Zyklusthematik eingearbeitet hat. Er war sich darüber im Klaren, dass überdurchschnittliche Profite nur durch Entwicklungen einzufahren sind, die der Masse der Marktteilnehmer zum gegeben Zeitpunkt noch nicht zugänglich sind. Weiteres müsse man, um den Profit zu maximieren, in einem kleineren Zeitfenster handeln mit hoher Präzision. Als Ingenieur hatte er sowohl das technische und mathematische Know How um seinen Plan in der Realität umzusetzen. 

Hurst liefert einige grundlegende Gedanken zur Preisverteilung und zur Zyklusanalyse. Laut Hurst seien nur 2% der Marktbewegungen zufälliger Natur (Market Noise) also ein chaotisches Rauschen das der Random Walk Hypothese gehorcht. 75% der Kursbewegungen gehen auf fundamentale Ursachen zurück und seien prognostizierbar, 23% seien zyklischer Natur und seien teilweise prognostizierbar. Hurst postuliert, dass sich die zyklischen Kursbewegungen aus mehreren kleineren Zyklen zusammensetzen. Die zyklischen Kursbewegungen seien die Summe kleinerer Zyklen die ineinander greifen und sich gegenseitig verstärken oder dämpfen. Sein Zykluskonzept basiert auf verschiedenen Überlegungen wie Summation, Magnitude und Duration die der Wellenmechanik ähnlich sind (wie z.B. Interferenz, Resonanz). Er gibt einige Beobachtungen zu den zyklischen Marktschwingungen die indirekt der Wellenmechanik entsprechen, so stehe die Amplitude (Magnitude) einer Marktschwingung in direkten Zusammenhang mit der Zykluslänge (Duration). Interessant sind seine Überlegungen, wie die Summe von Zyklen zur Ausgestaltung von Trendkanäle (mit left -right translation) oder von Chartpatterns wie S-K-S Formationen beitragen. 

Im nächsten Schritt versucht der Autor eine Methode zu entwickeln die Kursbewegung wieder in einzelne Zyklen zerlegen kann. Wenn es gelänge die einzelnen Marktschwingungen (Zyklen) zu isolieren könne man durch präzise Ein- und Ausstiege den Profit maximieren. Dazu stellt er eine Envelope Methode vor, die Kursbänder zum isolieren einzelner Zyklen benutzt. Seine Methoden können zwar mit modernen Entwicklungen (z.B. Ehlers) nicht mithalten, sind aber dennoch interessant und vervollständigen das Gesamtbild der modernen Zyklusanalyse. Hurst liefert für die damalige Zeit ein gutes Werk zur Zyklusanlyse. Er beschränkt sich nicht nur auf eine theoretische Ausarbeitung, sondern versucht das Wissen auch für Trader praktisch umsetzbar zu machen. Das Buch ist zwar relativ unbekannt geblieben, zählt aber unter Insidern zu den wichtigsten Werken der charttechnischen Zyklusanalyse. Die Hurst Channel Konstruktion gehört noch immer zum grundlegenden Handwerkszeug der Zyklusanalyse. Es gibt heute einige Lernkurse zu Hurst die Hochpreissegemnt für mehrere Tausend Dollar angesiedelt sind. 

Fazit: Alter aber lesenswerter Beitrag zur Zyklusanalyse.
****


Lo, Andrew & MacKinlay, Craig A Non-Random Walk Down Wallstreet 1999
Eine weitere Auffrischung des ewigen akademischen Disputes gefällig? Lo und MacKinlay liefern mit A Non-Random Walk Down Wallstreet keine belanglose Wiederholung des bereits bekannten Stoffes. Mit Einfallsreichtum und neuen Testmethoden führen Sie einen 400 Seiten starker Angriff auf die klassische Lehrmeinung. 10 Jahre intensive Research Arbeit gehen dem Buch voraus. Ausgangspunkt der Diskussion ist die zu Beginn der 80er Jahre unangreifbare Random Walk Doktrin über die Natur der Marktbewegungen, nicht zuletzt aufgrund der Arbeiten von Cowles and Jones (1973), Kendall(1953), Osborne (1959, 1962), Roberts (1959, 1967),Larson (1960), Cowles (1960), Working (1960), Alexander (1961, 1964),Granger and Morgenstern (1963), Mandelbrot (1963), Fama (1965), Fama und Blume (1966)). Das Gegengewicht zur klassischen Lehrmeinungen bildeten die Arbeiten von Osborne(1962), Larson (1960), Cootner (1962), Steiger (1964), Niederhoffer und Osborne (1966), Schwartz und Whitcomb (1977), die in der akademischen Gemeinde jedoch wenig Anklang gefunden haben. Erst die Fortschritte in der Informationsverarbeitung ermöglichten die Analyse umfangreicher Datenreihen (Tickdaten) durch komplexe Analysemethoden und führten zu teilweise vernichtende Attacken auf die Radom Walk Hypothese. Mit Lo und MacKinlay schwenkt das Pendel einmal mehr in Richtung Kritiker. Die Autoren arbeiten mit einigen Testverfahren, abseits der Mainstream Analyseansätze und nähern sich aus vielen verschiedenen Richtungen. Grundlagen der Finanzmathematik und Statistik werden vorausgesetzt, um den fortgeschrittenen Testmethoden folgen zu können. Es ist nicht der letzte Schlag, dennoch sind die Autoren der Ansicht, die vorgebrachten Argumente seien ausreichend, um zu zeigen, dass die Finanzmärkte bis zu einem gewissen Grad Spielraum für Prognosen erlauben. Und das dieser sogar als eine Art Schmiermittel des Kapitalismus notwendig sei, um die Dynamiken der Preisspekulationen aufrechtzuerhalten. Sie kommen zu dem Schluss: “That stock-market prices contain predictable components is now a well established fact… Our results show that predictable components are indeed present in the stock market, and that sophisticated forecasting models based on measures of economic conditions do have predictive power.” (S. 283-284)

Fazit: Ausgesprochen umfangreiche und hochtheoretische Arbeit über Radom Walk. Das Ergebnis ist für Systementwickler und Systemtrader als auch für Forecaster (Elliott Wave oder Gann-Theorie) und vor allem für Zyklustheoretiker von Interesse. Fortgeschrittene Systementwickler nutzen einige Erkenntnisse direkt für neue Systemansätze. Derzeit vielleicht eines der besten Bücher zu dem Thema.
****


Millard, Brian J. – Channels & Cycles – A Tribute to JM Hurst
Der Autor beschreibt darin die Channelkonstruktionsmethode zur Zyklusanalyse von J.M. Hurst, basierend auf dem Buch The Profit Magic of Stock Transaction Timing. Die Einleitung bringt die Hurst bekannten Themen Risikomanagement und die Vorteile von Short Term Trading gegenüber buy and hold. Kapitel 3 Preisverteilung muss Ausgangspunkt jeder Theorie zur Kursprognose sein, gestaltet sich aber als zu oberflächlich. Das Kapitel ist nicht besonders informativ, der Autor scheint ein mangelhaftes oder sogar falsches Verständnis von Radom walk zu besitzen. Falsche Argumentation führt ihn zu dem Schluss 50% der Kursverläufe seien nicht zufälliger Natur. Kapitel 4 Grundlagen der Wellenmechanik (Addition von Schwingungen) legt die Grundlagen der Zyklusanalyse.

Der Ausgangspunkt der Überlegung ist, dass der gesamte Kursverlauf die Summe einzelner Zyklen darstellt. Gelänge es, die einzelnen Zyklen herauszufiltern, so wäre eine exakte Prognose der zukünftigen Trendbewegung möglich. Die Channelkonstruktion stellt den Versuch da, die Kursbewegung in ihre einzelnen Zyklen zu zerlegen, um dadurch eine zukünftige Prognose der Datenreihe zu ermöglichen. Je mehr Channels konstruiert werden, desto exakter sei die zukünftige Prognose möglich. Wenn es darüberhinaus gelänge das Market Noise zu filtern, müsse die rein zyklische Bewegung übrig bleiben. Der ideale Kaufpunkt (mit der größten Wahrscheinlichkeit auf Erfolg) liegt dort, wo mehrere überlagernde Zyklen ihren Tiefpunkt besitzen. 

Hurst wird häufig als Genius verehrt (womöglich aufgrund seiner Namensverwandtschaft mit dem britischen Wissenschaftler H.E. Hurst, der unter anderem bedeutende Grundlagen zur Fraktalen Marktanalyse von Edgar Peters geliefert hat), seine Methode ist jedoch mathematisch unausgereift. Das Buch von Millard ist sauber gearbeitet, vermittelt jedoch eine antiquierte Form der Zyklusanalyse, die mit State of the Art Entwicklungen von Ehlers nicht mehr mithalten kann. Man muss dem Autor zu gute halten, dass er Hurst nicht überbewertet. Millard ist fair genug die Limitationen der Channelmethode einzugestehen, er beschreibt auch die Nachteile und Schwächen des Analyseansatzes. 
***


Peters, Edgar – Fractal Market Analysis
Fraktal Market Analysis ist ein Buch, dass an dieser Stelle eine genauere Besprechung verdient, da es zahlreiche Trading relevante Bereiche tangiert (Die Erkenntnisse sind für Charttechniker, Zyklusanalysten, Systementwickler, Gann und Elliott Wave Theoretiker von grundlegender Bedeutung), als auch aus Sicht der Wissenschaften unter dem Neuen Paradigma (Neue Physik, Neue Biologie, Integrale Studien) ein Kernproblem behandelt. Peters stellt zur Diskussion, warum fraktale Strukturen in der Natur auftreten und erörtert die alte philosophische Frage, ob das Universum zufällig oder determiniert sei. Die Vorstellung vom streng mechanischen und deterministischen Universum erreichte im 19ten Jahrhundert seinen Höhepunkt. Man dachte sich mit der newtonschen Mechanik und dem laplaschen Determinismus in greifbarer Nähe, sämtliche Prozesse des Universums vorhersagen zu können, wenn alle Ausgangsvariablen erst einmal bekannt wären. Die wichtigsten Entdeckungen in der Physik seien bereits gemacht worden, es gehe nur noch darum, die Dezimalstellen der einzelnen Variablen zu präzisieren. Zu den wissenschaftlichen Entdeckungen des 20. Jahrhunderts die das newton-mechanische Verständnis vom Kosmos ablösten, zählten die Thermodynamik, die Entdeckung nichtlineare Systeme und dissipativer Strukturen und der Indeterminismus der Quantentheorie (Heisenbergsche Unschärferelation, Ort und Impuls eines Teilchens können nicht zugleich exakt vorhergesagt werden, sondern nur Wahrscheinlichkeitsaussagen getroffen werden).

Peters vertritt, dass beide Moden koexistieren, das Universum habe sowohl einen zufälligen Charakter, der für Kreativität und Innovation sorgt, als auch stabile deterministische Züge. (eine Ansicht, die auch in den Wissenschaften unter den Neuen Paradigma häufig zutage tritt, z.B. – Biophotonentheorie Bischof- Licht in unseren Zellen) Lokal betrachtet, so Peters, seien Prozesse meist zufällig, global betrachtet, determiniert. West und Goldberger (Physiology in Fractal Dimensions 1987) haben in ihren Arbeiten postuliert, das fraktale Strukturen stabiler sind und sich auf äußere Schocks besser anpassen können. Peters zieht den Schluss zu den Märkten: Ihre fraktale Natur sei Grundvoraussetzung für ihre Stabilität, erst Marktteilnehmer mit unterschiedlichen Anlagehorizont und Risikoparameter ermöglichen einen Handel der immer wieder zu Gleichgewichten tendiert.

Zur Erklärung Fraktaler Strukturen bringt Peters das Sierpinski Dreieck und seine Konstruktion durch das „Radom Game“ das zugleich ein Beispiel für die lokale Zufälligkeit und globale Determination eines Prozesses/ Systems darstellt. Auch hier bringt er die Analogie zu den Märkten: “Markets may be locally random, but they have a global statistical structure that is nonrandom.” S12).

Kapitel 2 Failure of the Gaussian Hypothesis beschäftigt sich mit den Grenzen der Gausschen Glockenkurve als idealisierte Form der Preisverteilung. Die Gleichsetzung von Finanzspekulationen mit Casino Gambling geht auf die Random Walk und Markt Effizienz Hypothesen (Efficient Market Hypothesis EMH) zurück, wodurch es unmöglich sei, aufgrund der Kurshistorie zukünftige Marktbewegungen zu prognostizieren. Sämtliche Versuche der Kursprognose, darunter auch hochentwickelte Makettiming Modelle, seien von vornherein zum Scheitern verurteilt. Sie gelten seither als generell unseriös und werden nicht selten mit Scharlatanerie gleichgesetzt. Investmentprogramme seien gleichzusetzen mit Gambling, egal welcher Anlagehorizont vorherrscht. Arbeiten wie beispielsweise von Bachelier (1900) oder später Markowitz (1952,1959) und diverse naturwissenschaftliche Beobachtungen von Prozessen auf Zufallsbasis der Brownschen Bewegung, die auf die Natur der Kursbewegungen übertragen wurden, verhalfen der Random Walk Theorie zu ihrer endgültigen Verfestigung in der akademischen Gemeinde. Zudem ist es eine bequeme Lösung, die gut in das damalige naturwissenschaftliche Weltbild passte und den bereits bestehenden Apparat statistischer Analysemethoden den Wirtschaftswissenschaften für Kursreihenuntersuchungen anwendbar machte.

Bachelier, L. “ Theory of Speculation,” in P. Cootner ed., The Random Character of Stock Market Prices. Cambridge, MA: M.I.T. Press, 1964 (Original 1900)
Markowitz, H. M. „Portfolio Selection,“ Journal of Finance 7, 1952.
Markowitz, H. M. Portfolio Selection: Efficient Diversification of Investments. New York: John Wiley & Sons, 1959

Peters greift dieses Dogma an. Die Efficient Market Hypothese (EMH) sei falsch, unter anderem aufgrund der Nichtbeachtung der unterschiedlichen Anlagehorizonte der Markteilnehmer. Der Autor bringt in Kapitel 2 Preisverteilungsuntersuchungen anhand der Kursdaten des Dow Jones von 1888 bis 1991 und anderer Märkte die nicht der zu erwartenden Normalverteilung (mit gausschen Glockenkurve) der Random Walk Theorie entsprechen. Seine Schlussfolgerungen: Die tatsächlichen Risiken eines Investors seien größer, als sie das Standartmodell prognostiziert: “The risk of a large event’s occurring is much higher than the normal distribution implies (S.26) und Langzeitinvestoren können mehr Profit pro Risikoeinheit erwarten, als kurzfristig orientierte Trader: This means that long-term investors are rewarded more, per unit of risk, than are short-term investors.” (s30)

Peters bietet als Alternative zur Efficient Market Hypothese (EMH) seine Fractal Market Hypothesis (FMH). Um seine Hypothese zu untermauern, stellt er die (R/S) Analyse (Rescaled Range Analysis) vor. Sie geht auf den britischen Hydrologen H.E. Hurst (1951) zurück, der die Zufälligkeit der Nilstände auf Basis der Brownschen Bewegung (Distanz die ein Partikel zurücklegt entspricht der Quadratwurzel der Zeit) zu überprüfen versuchte, jedoch schnell erkannte, dass die Überflutungen nicht voneinander unabhängig waren. Er vermutete einen Long Memory Effekt. Darauf folgende Untersuchungen von Aufzeichnungen anderer Flüsse, Regenfall, Baumringen, Sunspots, Temperaturen brachten dieselben Ergebnisse. (Hurst – The Long-Term Storage Capacity of Reservoirs. 1995)

Kapitel 4 und 5 erklären die Grundlagen der Rescaled Range (R/S) Analysis und diskutieren praktische Testreihen. (Eine gute Definition der Rescaled Range (R/S) Analysis findet sich im Netz: The analysis developed by H.E. Hurst to determine long-memory effects and fractional Brownian motion. Rescaled range analysis measures how the distance covered by a particle increases as we look at longer and longer time scales. For Brownian motion, the distance covered increases with the square root of time. A series which increases at a different rate is not random. (Quelle: http://financial-dictionary.thefreedictionary.com/Rescaled+Range+(R%2FS)+Analysis )

Die (R/S) Analyse ermöglicht also Kursuntersuchungen auf Abhängigkeit der einzelnen Datenpunkte zueinander (z.B. monthly Return).Besonders interessant ist Kapitel 6 Anwendung der (R/S) Analyse zum Auffinden von Zyklen, speziell von nichtperiodischen Zyklen (nonperiodic cycles with average frequency). Hurst 1951 hat als erster darauf hingewiesen, dass (R/S) Analyse eine zu Grunde liegende Schwingung aufdecken kann (R/S Wert erreicht Höchstwert nach einem Zyklus). Hier können in Kombination mit nichtkausalen Filtertechniken von Ehlers die Grundlagen zu einer State of the Art Zyklusanalyse geschaffen werden. In weiterer Folge werden praktische Anwendungsmöglichkeiten der (R/S) Analyse zur Zyklusanalyse vorgestellt. Die Testreihe für den Dow Jones ergibt für 20 Tage Returns bei n=52 (1000 Trading Days = ca. 4 Jahres Zyklus) ein positives Ergebnis. Wenn tatsächlich ein nichtperiodischer Zyklus (mit durchschnittliche Schwingungsdauer) vorliegt, muss das Untersuchungsergebnis von der Datenauflösung unabhängig sein, tatsächlich deckt die (R/S) Analyse für 5 Day Returns einen ähnlichen Zyklus auf.

Es ergibt sich ein signifikanter Unterschied zu Radom Walk. Es zeigt sich, dass die klassischen Modelle der Finanztheorie, die auf der EMH und Radom Walk beruhen, eine starke Vereinfachung der Realität darstellen. Zufälligkeit wird unterstellt, um die Komplexität der Realität zu vereinfachen. Sie dienen dazu, ein vereinfachtes Verständnis von der Natur der Marktbewegungen entwickeln zu können und bieten den Vorteil, eine ganze Palette von vorhandenen statistischen Methoden anwendbar zu machen. Zwar können nun Modelle auf mathematische Weise beschrieben und fixiert werden, bei näherer Betrachtung wird aber offensichtlich, dass wir die Märkte dadurch nicht gänzlich verstehen können und die Wirklichkeit nur auf hohem Abstraktionsniveau beschreiben.

Dem Autor zufolge seien die Limitationen der EMH auf die Nichtdifferenzierung zwischen Short Term und Long Term Spekulationen zurückzuführen. Eine Schwäche des Buches ist es zu erklären, warum die Finanzmärkte fraktale Strukturen aufweisen, die Argumentationskette des Autors ist nicht sehr überzeugend. (Die Fraktale Struktur der Finanzmärkte, muss, wenn sie tatsächlich existiert, zugleich eine grundlegende Struktur der gesamten Raum-Zeit Struktur darstellen und direkt mit den Naturgesetzen des Universums in Verbindung stehen.) Seine Fractal Market Hypothesis baut auf dem unterschiedlichen Anlagehorizont der Marktteilnehmer auf. Die vielen unterschiedlichen Anlagehorizonte seien für die Stabilität der Märkte verantwortlich: „The market is stable when it consists of investors covering a large number of investment horizonts. This ensures that there is liquidity for traders.“(S.49). Instabilität (extrem hohe Volatilität) tritt ein, wenn Langzeitinvestoren ihr Vertrauen in das bessere risk/reward für Long Term Investments verlieren und entweder nicht mehr am Marktgeschehen partizipieren oder selbst in den Short Term Timeframe wechseln und nun kurzfristige Trades eingehen. „The key is that the FMH says the market is stable when it has no characteristic time scale or investment horizon. Instability occurs when the market loses its fractal structure and assumes a fairly uniform investment horizon.” (S.50). Durch externe Schocks (z.B. Kennedy Attentat, Terror Anschläge) oder durch Skepsis den der Realwirtschaftswachstums gegenüber, switchen Langzeitinvestoren in Short Term Frame, die Nachfrage stockt, die Märkte gehen über in den freien Fall und manifestieren panikartige Abverkäufe: „…when the investment horizont becomes uniform, the market goes into „free fall.“(S.47) 

Damit steht Peters auf dünnem Eis. Es ist fraglich inwieweit Langzeitinvestoren ihren Anlagehorizont aufgrund von Informationsschocks wechseln, man muss davon ausgehen, dass zumindest Teile von ihnen lediglich die Langzeitrichtung switchen (auf Short drehen), nicht jedoch ihren Anlagehorizont (Timeframe). Ebenso wie Daytrader bei externen Schocks nicht ihre Rechner zum Fenster hinauswerfen und nun tranceartig Buy & Hold praktizieren, ist es unwahrscheinlich, dass Fondsmanager und Portolfioverwalter spontan Markowitz verbrennen und ihre gesamte Investitionsstrategie wechseln. Überhaupt könnten die Wizards und Global Player mit ihren Volumina im Short Term Timeframe ihre Portfolios gar nicht bewegen, ohne die Märkte massiv zu beeinflussen. Die Nachfrage ändert sich nicht, weil die Akteure ihre Zeitfenster switchen, sondern weil keiner der Akteure in seinem spezifischen Zeitfenster mehr Nachfrage stellt. Warum das so ist, kann die Fraktale Markthypothese aber nicht erklären. 

Während Riskmanagement und die moderne Portfoliotheorie (die mit Radom Walk womöglich zu großen Teilen auf falschen Prämissen aufbaut, bzw. nur idealisierte Spezialfälle behandelt) boomt, hat sich in der Grundlagenforschung in den letzten Jahrzehnten wenig getan. Peters hat definitiv Schwächen und wird dafür auch häufig kritisiert (seine mathematischen Analyseverfahren sind zu eindimensional, es gibt Fehlinformationen und Fehlschlüsse), trotzdem zählt er derzeit auf seinem Spezialgebiet zu den führenden Köpfen. 

Fazit: Fractal Market Analysis kann als Fortsetzung von Chaos and Order in the Capital Markets (Peters 1991) angesehen werden und versucht die (R/S) Analyse praktisch anwendbarer zu machen. Es ist ein faszinierendes Thema und ein fesselndes Buch und zählt vielleicht sogar zu den Schlüsselwerken, die zu einem integral orientierten Verständnis der Märkte beitragen könnten. Wertvoll für alle, die an der akademischen Grundlagendiskussion über die Natur der Marktbewegungen und Radom walk Interesse haben. Die Erkenntnisse haben direkte Auswirkungen für Systementwickler und Market Forecaster, als auch Riskmanager.
***** 

Überlegungen am Rande
Chaostheorie und fraktale Strukturen haben zwar einen Boom erlebt, doch wie auch Peters zugesteht, die Naturwissenschaft hat Probleme, sie zu verstehen oder überhaupt exakt zu definieren. Zudem widersprechen sie sowohl unserer Alltagswahrnehmung als auch dem gewohnten abendländischen Denken. Auch die Fraktale Markt Hypothese (FMH) scheint unserem klassischen Weltbild zu widersprechen und lässt sich noch schwer in die wissenschaftliche Perspektive vom Universum einfügen. Dennoch zeigt sich, dass es derzeit in den naturwissenschaftlichen und wirtschaftswissenschaftlichen Entdeckungen gewisse Parallelen gibt. Einige Integrale Theoretiker gehen davon aus, dass wir vor einem bedeutsamen Paradigmenwechsel stehen. (Kuhn hat viel dazu beigetragen, die unterschiedlichen Phasen vor einem Paradigma wechseln in den Wissenschaften aufzuklären. (Kuhn, Thomas – Die Struktur wissenschaftlicher Revolutionen)

Wir beginnen langsam zu begreifen, dass sowohl die Finanzmärkte als auch natürliche Systeme nicht bloße Zufallsprozesse abbilden, sondern den Dingen eine Ordnung zugrundeliegt. Ervin Laszo diskutiert in seinen Büchern die mögliche Existenz eines fünften Feldes, das als eine Art Informationsfeld regulierend wirkt. Der Biologe Sheldrake wurde für seine Theorie der morphogenetischen Felder berühmt, die als evolutionäre Rillen und natürliches Gedächtnis bei der Ausgestaltung von organischen Systemen eine bedeutsame Rolle spielen. Ein solches Biofeld wurde bereits von Tshislenko (1981) vermutet, der in seiner Forschung über die Morphologie der Fauna und Flora entdeckte, dass Größe und Gewicht von Tieren und Pflanzen nicht normalverteilt sind, sondern spezielle Werte auf einer logarithmisch geeichten Skala bevorzugen. Seine Arbeit schließt die Untersuchung zigtausender Säugetiere, Kriechtiere, Insekten, Vogelarten usw. mit ein. Tshislenk entdeckte die diskrete logarithmische Verteilung bevorzugter Körpergrößen verschiedener Organismen. Wir wissen heute, dass dieselbe Gesetzmäßigkeit nicht nur für biotische Systeme Gültigkeit besitzt, sondern auch Elementarteilchen und selbst Planeten nur ausgewählte Massenwerte auf einer logarithmisch geeichten Skala einnehmen. Oleg M. Kalinin veröffentlichte 1981 eine Arbeit, in der er sich mit den Übereinstimmungen im Aufbau der DNA, des Periodensystems und des Sonnensystems beschäftigte. Der russische Forscher Nikolay Alexandrovich Kosyrev stieß bei seinen astronomischen Untersuchungen auf ähnliche Ungereimtheiten, die sich nicht in das Standartmodell einfügen ließen. Kosyrev beschäftigte sich spezielle mit den Eigenschaften der Zeit (Feinstruktur der Zeit und Theorie über Zeitwellen und unterschiedliche Dichtegrade) seine Forschung wurde daraufhin bald von der russischen Regierung eingestellt. Zusammen mit Nasorov vertrat er die Hypothese, es müsse eine gemeinsame Ursache für die Ausgestaltung der Ordnung auf der Makroebene (z.B. von Galaxien) geben. Der Biophysiker S.E. Shnoll wurde in seinen Arbeit auf ein Zeit Phänomen aufmerksam, dass bis heute Rätsel aufgibt und sich nicht in das Gebäude der Physik einfügen lässt. Die 25 Jahre dauernden Experimentalreihen seines Forscherteams umfassten unterschiedliche Prozesse (Reaktionsgeschwindigkeit biochemischer Systeme, radioaktive Zerfallsprozesse) und zeigten, dass die Feinstruktur der zeitgleich gemessenen Geschwindigkeits-Histogramme von völlig verschiedenen und voneinander unabhängigen Prozessen, eine große Ähnlichkeit aufwiesen. Als mögliche Erklärungen bezog Shnoll die Möglichkeit mit ein, dass eine Veränderung der Raum-Zeit Struktur dafür verantwortlich sein könnte. Es gibt heute eine ganze Rehe von alternativen Gravitations- und Zeittheorien, die Harmonie und Synchronphänomene zu erklären versuchen, darunter die Theorien von Burckhard Heim, Jack Saraffati, oder William Tiller, Geoffry Chew (Bootstrap-Theorie). Der deutsche Physiker Harmut Müller postuliert die Existenz einer global stehenden Vakuumkompressionswelle als Ursache der Harmoniegesetze. 

Die moderne Physik hat mit dem Standartmodell (Lambda-CDM-Modell) große Probleme Gravitationsphänomene zu erklären, so sind 90% der Materie bisher nicht nachweisbar (73% Dunkle Energie und 23% Dunkle Materie). Astrophysikalische Messungen, das Gelsenkirchener Experiment und andere Ungereimtheiten bringen das Standartgravitationsmodell unter Druck. Zudem ist es bisher nicht gelungen Relativitätstheorie (Makroebene) und Quantentheorie(Mikro) in einem ganzheitlichen Modell (z.B. Quantengravitation) zu vereinigen. Die verzweifelte Suche nach dem Higgs Teilchen findet nun mit dem Cern Teilchenbeschleuniger eine letzte milliardenschwere Hoffnung der Atomphysik, ihr Theoriegerüst doch noch aufrecht erhalten zu können. Zu den interessantesten Ansätzen, die die Paradoxien der Physik lösen wollen, zählt die Theorie der Implizierten Ordnung des einstigen Einstein Schülers David Bohm, die einen Versuch in Richtung holistisches Weltbild darstellt. Bohms Modell stellt das Universum als ein fließendes Ganzes dar, das sich in einer ständigen Dynamik befindet, die er als Holomovement bezeichnet. Seine Theorie stellt die Welt als eine ungebrochene und zusammenhängende Einheit dar, die sich in ständiger Bewegung befindet. Sie ist Inspirationsquelle für zahlreiche Forscher, die sich heute, ermöglicht durch die Entwicklungen der Holographie(Herman Haken), mit der Theorie des holographischen Weltbildes auseinandersetzten, wonach jeder Teil die Information des Ganzen besitzt. Der Neurobiologe Pribram entwickelte sein berühmtes Modell des holographischen Gehirns, wonach Informationen nicht lokal, sondern über das gesamte Gehirn abgespeichert werden (Pribram, Karl– Languages of the Bain, Brain Mechanisms and Intelligence). Wesentliche Aspekte von Hirnfunktionen beruhen demnach auf holographischen Prinzipien. Die Forschung der Biophotonentheorie geht sogar soweit, dass DNA und RNA Moleküle ein laseraktives Medium sind, die optische Hologramme erzeugen (Popp, Bischof). Die Laser-Hologramme im ultravioletten Frequenzbereich stehen in Resonanz mit dem morphogenetischen Hintergrundfeld. Popp, der zu Beginn wie viele Pioniere von seinen Kollegen verspottet wurde, unterhält heute ein internationales Forscherteam, das rasche Fortschritte erzielt.  

Eine Gemeinsamkeit dieser unterschiedlichen Forschungsfelder ist, dass fraktale Strukturen und Schwingungsprozesse eine große Rolle spielen. Skaleninvarianz ist ein wesentliches Merkmal fraktaler Strukturen und man darf spekulieren, dass die gesamte Natur im logarithmischen (skaleninvarianten) Raum auf Basis der eulerischen Wellengleichung arbeitet, und selbst die menschlichen Sinnesorgane darauf geeicht sind. (Das Gehört verarbeitet 10 Oktaven von 16Hz bis 16.000 Hz, das Auge Licht mit der Wellenlänge von 350nm bis 700nm. Fechner entdeckte, dass die mentale Wahrnehmung variiert als der Logarithmus des materiellen Stimulus S= K log I). Es wäre möglich, dass das Gehirn die Frequenzen „entlogarithmiert“ und sie durch Fouriersche Transformationen in den linearen Raum unserer gewohnten Wahrnehmungsrealitiät übersetzt. (ähnlich wie bei Bohm und Pribram)

Die neuen Wissenschaften führen nahe an die Erkenntnisse der vorindustriellen Kulturen heran, die mit ihren mystischen Wissenschaften eine zu Grunde liegende, einheitliche Struktur des Universums vermuteten. Man kann sogar in der modernen Philosophie wieder eine Bewegung, weg vom Reduktionismus und Fragmentismus hin zum Holismus beobachten (z.B. Michael Esfeld). Hier schließt sich der Kreis zu den alten esoterischen Lehren (z.B. Hermes Trismegistos und Hermetik = alles schwingt), den östlichen Philosophien und mystischen Strömungen (Schamanismus, Sufismus, Yogismus, Tantrismus Taoismus, Totenbücher, Philosophia Perennis) die solche Zusammenhänge teilweise intuitiv erfassten, oder aber durch holotrope Bewusstseinszustände (induziert durch chemische Manipulationen, Eingriffe in die Gehirnchemie durch fasten oder sensorische Isolation) oder durch Bewusstseinstransformation (Yoga, Meditation, kontemplative Gebet) die wahre Natur der Realität auf direktem Weg erfahren haben.

Aufgrund der frühen Entwicklungsstufen und mangelnder naturwissenschaftlicher Daten waren sie in ihren Lehren noch nicht zu einer exakten Ausformulierung der Gesetzmäßigkeiten in der Lage. Sie bedienen sich zumeist einer blumige Sprache, zahlreicher Metapher und mystischer Kodierungen, die für uns Nichteingeweihte schwer zu entziffern sind. (wie z.B. im Kundalini Yoga). Oder aber sie verwenden wunderbare Gleichnisse zur Beschreibung der holographischen Natur des Universums, wie beispielsweise in der Jaina-Tradition. Nach der jainistischen Kosmologie ist die gesamte Realität ein endloses zusammenhängendes Gewebe fließender Energien, die auf unterschiedlichen Manifestationsniveaus des Bewusstseins der Illusion der Getrenntheit unterliegen. Im Avatamsaka Sutra heißt es: “Im Himmel Indras, hängt ein Netzwerk von Perlen so angeordnet, dass du beim Anblick einer Perle alle anderen in dieser widergespiegelt siehst.” In der Hwa Yen- Schulde der buddhistischen Philosophie gibt es eine wunderbare Geschichte die eine ähnliche holographische Sicht der Dinge vermittelt, nach der Idee: In jedem Staubkörnchen sind Buddhas ohne Zahl vorhanden (Sir Chalres Eliot)
 
Zurück zu den Finanzmärkten. Zu den frühen Pionieren, die in den Kursbewegungen harmonische Strukturen vermuteten, zählt neben Charles Nelson Elliott vor allem W.D. Gann. Gann war sich einer allumfassenden Gesetzmäßigkeit bewusst und sein Law of Vibration (Schwingungsgesetz) ist im Grunde eine noch vereinfachte Form des Holomovements. Durch das Studium alter Texte konnte er bereits ein intuitives Gefühl für die globale Ordnung entwickeln. Zwar war er nicht in der Lage, ihre Gesetzmäßigkeiten mathematisch zu definieren, er war aber definitiv auf dem richtigen Weg. Er hat sowohl die natürlichen Harmonien von Zahlen, Geometrie und Musik erkannt, als auch ihre Verbindung zu den Naturgesetzen, den zyklischen Bewegungen der Planeten und den Finanzmärkten.  

Arbeiten wie die von Peters, bringen auch die Finanzwissenschaft wieder ab von Radom Walk und führen hin zu neuen Hypothesen und Modellen. Sie decken die zyklische Natur der Märkte auf und dringen dabei in vollkommen fremdartige Gebiete ein. Eine Welt eröffnet sich hier, die Theoretiker zumeist noch nicht interpretieren können. Einerseits stoßen sie durch ihre mathematischen Untersuchungen (wie durch die (R/S) Analyse) zwar zu den tiefsten Strukturschichten der Kursreihen auf mikroskopischer Ebene vor, anderseits, indem sich ihre theoretischen Überlegungen lediglich entlang der Standartmodelle bewegen können, sind sie in ihrer Interpretation der neugewonnen Daten noch an die Perspektive des Mainstreams gebunden. Die Entschlüsselung der Kursreihen hat aber gerade erst begonnen. Es bleibt weiter abzuwarten, ob eine bevorstehende Revolution in der Physik über die Sicht der Raum-Zeit Struktur, auch zu einer Revolution unseres Marktverständnisses führen wird.

 


 

 

 

 

 

Aktuelle Prognosen

Free Newsletter

Get Market Updates From Perfect-Trader.com
Enter Your Email

Latest Tweets

VisionaryArt