Igår den 12:e augusti 2010 utlöstes en första signal enligt den sk Hindenburg Omen (Wikipedia), en teknisk börsindikator av tämligen långsökt och ovanlig karaktär. För att det verkligen skall bli ett Hindenburg Omen behöver det komma två sådana här signaler inom 36 dagar från varandra.
Sannolikheten för en sättning på de amerikanska börserna på över 5% är 77%, och 1985 – 2005 så föll börsen varenda gång en riktig Hindenburg Omen utlöstes. Samtliga nedgångar var dock inte så stora, utan varierade från 0.2% till 38.2%. Den minimala nedgången på 0.2% var när den andra signalen precis låg på gränsen för att alls existera, men det rör sig om över 20 signaler, med alltså en 95%-ig relevans för någon form av nedgång, och 77% för en nedgång över 5%.
Även börsraset från 2007 och framåt förutspåddes av tre Hindenburg Omen-signaler med tre signaler i juni månad. Övriga sälj och köp inritade nedan baserar sig på det banala MA50/MA200-dödskorset.
Nu har alltså inte signalen bekräftats än. Se även Zero Hedge.
Hindenburg Omens historiska träffsäkerhet har alltså varit mycket god, vilket kanske ligger i dess tämligen detaljerade uppbyggnad och de väldigt specifika förutsättningar som måste råda.
Nu återstår bara att signalen upprepas de närmaste 36 dagarna. Själv är jag dock redan likvid på en banal MA50/MA200-modell. Notera också att även detta gäller börserna i Nordamerika, även om Stockholmsbörsen mestadels följer husse, så är jag likvid kontra främst Kanada och USA.
Har man osäkra positioner eller belånade positioner på uppsidan kan gårdagens Hindenburgare vara ett skäl till eftertanke. Med tanke på att vi också fått dödskors på många börser i juli så bör man nog vara väldigt försiktig just nu.
Naturligtvis säger inte historiskt utfall något om framtiden, men det är värt att notera att efter HO-signal 2004 så pumpade Federal Reserve in för den tiden enorma summor i likviditet i marknaderna. Närmare 155 miljarder USD. Börsen föll ändå över 5%. Så inte ens statens sedelpress verkar kunna övertrumfa marknaden i det läget.
18 kommentarer
Luktar det inte _väldigt_ mycket data mining över definitionen av denna signal?
2.2%, 36 dagar — tal som verkar gripna ur luften, men som säkert tillkommit genom att backtesta signalen på historiska data. Tyvärr ganska typiskt för mycket TA, det känns (är!) inte vetenskapligt.
Sedan kan man förstås ändå konstatera att fenomenet med nya årshögsta samtidigt med nya årslägsta är värt att notera i sig och att det visst är risk för börsnedgångar… Men det blir tyvärr krångligt att integrera ett resultat när man har många motsägande indikatorer!
Klart det luktar data mining. Betyder inte att det är fel. Fast med över 95% i träffsäkerhet så kan det nog betraktas som vetenskapligt om man bara kör lämpliga konfidensintervall etc.
Som du skriver så finns det en risk för börsnedgång, men det gör det förstås alltid.
Samtidigt, om tillräckligt många tror på det så blir det självuppfyllande, och då är det viktigt och relevant att känna till att signalen existerar.
Hindenburgare, nu blev jag hungrig 🙂
/Kafferast
hur många ggr senaste 100 åren gar det varit ett Hindenburg Omen? Känns inte trovärdigt om det har varit 20 ggr och 1 gång av dessa har det inte stämt (därav 95%), det kan lika gärna vara slumpen.
Enligt mig så måste det ha skett minst 20-25,000 gånger för att man ska kunna säga något om tillförlitligheten
Då ställer du större krav än t ex läkemedelsindustrin gör på sina mediciner.
Fast jag gissar att du ironiserar.
Det skumma är ju just valet av parametrar och tidsperiod. Din källa visar på en undersökning för metoden, med parametrar "# aktier som når årshögsta + # aktier som når årslägsta = 2.2%" + "samma signal upprepas inom 36 dagar" + "stigande MA50" + "negativ McClellan-oscillator".
När signalen bara inträffar en gång (det vill säga inte två signaler inom 36 dagar) så blir det ingen krasch (enl din artikel, ingen nedgång i 6 fall av 7). I det sjunde fallet (som ledde till nedgång) var det "otroligt nära" att indikatorn "negativ McClellan-oscillator" uppfyllde signalen — så det var ju nästan två signaler, alltså räknar man med detta fall!
Nej, det är mycket som är skumt här. Förresten, artikeln pekar på en triggning av signalen i september 2005 — men börsen steg ju som bekant under 2005-2006, varför denna signal alltså blev falsk till slut…
Varför är det ingen som testar denna signal under hela 1900-talet, med exakt samma parameterval? Varför valde man just året 1985 som bas?
Säger inte att det inte finns ett samband, men det känns lurt…
Jag har lite svårt för kritik mot TA grundat på att metoden baseras på matematik/statistik/sannolikhet etc, snarare än en heltäckande förklaringsmodell. Från någon slags common sense-perspektiv kan det visserligen ses som underligt att en övergripande modell kan fånga och beskriva någon viss aspekt av verkligheten utan att ha en inneboende "förståelse" (beskrivning/definition/ontologi, etc) av de ingående delarna och variablerna. Jag förstår att detta kan ses som kontraintuitivt.
Dock finns det flera andra exempel som visar på att just stora matematiska/statistiska modeller kan lyckas greppa och beskriva mycket komplexa samband rätt väl – utan att ha en inneboende förståelse av den underliggande datan inbyggd i modellen.
Några exempel på detta:
Google Translate – en rent statistisk översättningstjänst.
http://www.svd.se/naringsliv/nyheter/med-oversattning-i-blick_5008525.svd
Latent Semantic Analysis:
En rent statistisk metod för att analysera och jämföra innehållet i långa texter, dvs vad texten handlar om.
http://en.wikipedia.org/wiki/Latent_semantic_analysis
Givet dessa exempel är det inte särskilt långsökt att anta att en modell som TA skulle kunna fånga en del av de mycket komplexa förhållanden som styr marknadens nycker – utan att för den sakens skull kunna bryta ner den komplexa helheten till enstaka variabler och förklara hur de hänger samman.
Hur väl TA lyckas med detta är en delvis annan diskussion, och modellerna kan aldrig uppnå 100% träffsäkerhet, delvis för att de bygger på historiska data som bara är en delmängd av alla tänkbara utfall.
Min poäng är att försöka visa på att TA inte behöver vara något hokus pokus, utan att det är fullt rimligt att anta att den typen av metod faktiskt kan beskriva ett komplext fenomen hyfsat väl utan att ha en inneboende modell av alla underliggande variabler.
Joakim, Hindenburg Omen betyder inte krasch, bara 77% sannolikhet för en nedrörelse på över 5%. Så 2005 stämde den med. Men inga TA-signaler är korrekta om man sträcker ut tiden tillräckligt länge. Förr eller senare kommer börsen gå upp eller ner igen. Det handlar dock inte om det, utan om hur man skall reagera vid signalen. HO säger ingenting om när det är dags att gå in i marknaden igen, och som sådan så har metoden en uppenbar brist.
Inom sjukvården heter det väl att en diagnos bara kan ställas om det finns ett botemedel. Annars är ju en diagnos meningslös, pss brister alltså HO i att den inte säger hur länge en rörelse skall pågå eller när man skall kliva in igen.
Stryk det om botemedel. … om det finns en behandling.
"Då ställer du större krav än t ex läkemedelsindustrin gör på sina mediciner.
Fast jag gissar att du ironiserar."
Läkemedelsindustrin lägger ner 5-10 miljarder på ett läkemedel innan det når marknaden, ungefär samma som en ny bilmodell. De genomgår 4 olika faser med utökning i varje, i många fas 3 studier (beroende på hur vanlig sjukdomen är) så är det tusentals personer med i testerna.
95% sannolikhet baserat på VAD är min fråga. 20 fall, 200 fall eller 20,000 fall. Men det vet du förstås inte själv då du bara sett uppgiften nånstans och litar på den.
Kan rekommendera boken "the big short" den beskriver tydligt hur många kan handla värdepapper utan att egentligen ha en aning om vad de gör och endast ha "tur"
Finns denna indikator tillgänglig på något enkelt vis för allmän beskådan?
Off topic men lite skoj:
http://edit.va.se/vabors/2010/08/13/basta-finansbloggarna/index.xml?__noframe=3574
Cornucopia, 2005 stämde väl inte signalen?
Artikeln du hänvisar till skrevs 2:a oktober 2005 och pekar på hela fem klustrade HO. I artikeln känns det som om man visar på ett perfekt test av teorin.
Men, S&P 500 stängde 3:e oktober (måndag) på 1195.90. Två veckor senare stänger S&P 500 på 1179.59, en nedgång på 1.4%.
Detta är också den lägsta noteringen för S&P 500 fram till hösten 2008. Så som kraschvarning, eller ens "77% sannolikhet för 5% nedgång" så måste man säga att HO fungerade mycket dåligt när artikeln skrevs. Istället kunde man tjänat bättre på den enklare metoden MA50/MA200 ("dödskors") för att gå ur tidigt 2008.
Vet ni att S&P´s kredit rating "modell" för huspriser inte hade någon möjlighet att acceptera negativa siffror!? Helt otroligt! Så går det när man har "matematiska ekonomer" se Keynes & Co. Dvs. Paul Krugman och många fler. Deras dagar i rampljuset äro räknade. Riksbanken får utnämna Johan Norberg/Stefan Karlsson/Richard CB Johnsson (som tänkande "Austrians, next time around". De nämnda förlitar sig inte på matematiska modeller. Istället använder de sig av "Human Action". Man kan kalla dem för "literära ekonomer" om man har lust. Dvs. motsatsen till matematik och formler från laboratorieexperiment.
Joakim, 77% av signalerna 5% nedgång eller mer. 95% (+) av signalerna en nedgång, det inkluderar 1.4% år 2005. Som jag skrev så innebär Hindenburg Omen inte alltid en "krash". Bara i 77% av fallen.
Som jag ser det diskvalicerar inte 2005 hypotesen.
En som tror det är över.
http://www.larouchepac.com/node/15479
En liten blänkare i en annan liten tidning:
http://online.wsj.com/article/SB10001424052748703321004575427791421316112.html?mod=WSJ_hpp_LEFTWhatsNewsCollection&mg=com-wsj