10 –
Techniki inwestycyjne
Odnawianie pozycji
Grzegorz Uraziński
Niejeden inwestor z pewnością spotkał się kiedyś z problemem powrotu na rynek po tym, jak przedwcześnie go opuścił lub gdy zalecenia albo sygnały chroniące przed głębszymi stratami kazały mu zamknąć wszystkie pozycje. Niewątpliwie powrót taki jest dość kłopotliwy, gdyż po pierwsze – inwestorzy, szczególnie ci mniej zaawansowani, mają naturalne obawy przed ponownym otwarciem pozycji, która dopiero co przyniosła stratę, a po drugie – pojawiają się problemy z wyborem momentu odnowienia pozycji. Istnieją jednak pewne metody dające się włączyć do systemów inwestycyjnych, które pozwolą nam wrócić na rynek.
Często bywa tak, że po tym, jak stosowane przez nas systemy lub reguły inwestowania sygnalizują powstawanie nowego trendu i nakazują zajęcie odpowiedniej pozycji, rynek cofa się jeszcze raz wbrew nam na tyle głęboko, że przyjęty wcześniej poziom ryzyka nie pozwala dłużej na utrzymywanie stratnych pozycji. Takie ruchy powrotne do pokonanych wsparć lub oporów czy do przełamanych linii trendu pojawiają się zazwyczaj na samym początku znaczących trendów. Na ich przeoczenie inwestorzy nie powinni sobie pozwolić. Może się bowiem okazać, że na kolejny tak duży ruch przyjdzie czekać nawet kilka miesięcy.Równie niekorzystnymi przypadkami, które mogą wyeliminować z dalszej gry, są korekty, czyli ruchy cen przeciwne do istniejących już trendów. W zależności od wcześniejszego ruchu i nastrojów na rynku korekty mogą znosić od kilku do kilkudziesięciu procent dotychczasowego trendu. Z pewnością zdecydowana większość inwestorów, przede wszystkim tych z rynków terminowych, nie może sobie pozwolić na straty związane z przetrzymywaniem szczególnie tych głębszych korekt i zmuszona jest zamknąć pozycje. Mimo że w tym przypadku skutki opuszczenia rynku są mniej dotkliwe (zdążyli już przecież trochę zarobić), to ponowne zajęcie pozycji może okazać się bardzo kłopotliwe.Dzieje się tak przede wszystkim dlatego, że na rynku panują już inne warunki, niż w momencie wcześniejszego sygnału kupna – istnieje przecież zaawansowany trend i tym razem zamiast czekać na niego, trzeba go gonić. Jest to o tyle uciążliwe, że z jednej strony – zgodnie z zasadą, że trend wykazuje silniejszą tendencję do kontynuacji dotychczasowego kierunku, niż do jego zmiany – chcemy powrócić na rynek i dalej zarabiać, a z drugiej – średnioterminowe oscylatory i wskaźniki tworzą dywergencje ostrzegające przed zmianą kierunku trendu lub osiągają tak wysokie poziomy, że skutecznie zniechęcają do dalszych transakcji.W artykule tym spróbuję zaprezentować dwie metody, które w pewnym stopniu pomogą nam radzić sobie w takich sytuacjach. Podobnie jak inne techniki metody te nie są doskonałe i zdarza się, że generują mylne sygnały, jednak łącząc je z dobrym systemem ochrony zainwestowanych środków w ostatecznym rozrachunku pozwalają osiągnąć zadowalające zyski przy akceptowanym poziomie ryzyka.Bardzo ważne jest jednak przy tym, aby po stratnej transakcji szybko przełamać niechęć do powrotu na rynek i konsekwentnie zgodnie z naszą taktyką zawierać kolejne transakcje. Zazwyczaj bowiem bywa tak, że po niekorzystnej transakcji ignorujemy kolejny sygnał systemu inwestycyjnego, który tym razem okazuje się bardzo dobry i uniemożliwiamy sobie odrobienie z nawiązką wcześniejszych strat. (Wykres 1.)Kiedy znów wejść na rynek?Z odpowiedzią na to pytanie z pewnością nie mają problemu krótkoterminowi spekulanci, starający się wykorzystać najmniejsze ruchy rynku do powiększenia zawartości swoich portfeli. Wykorzystują oni zazwyczaj bardzo czułe, krótkoterminowe wskaźniki techniczne, które kosztem większej liczby stratnych transakcji (sięgającej czasami nawet 60–70%) pozwalają szybko dopasować się do sytuacji na rynku.Inaczej jest w przypadku inwestorów średnio- i długoterminowych, którzy po pierwsze – ściśle przestrzegają reguły gry zgodnej z trendem (nie starają się zarabiać na korektach), a po drugie – przyjmują niski poziom akceptowanego ryzyka (nie mogą sobie pozwolić na zbyt duże straty i obsunięcia kapitału). Niezależnie od tego, czy decyzje inwestycyjne podejmują na podstawie przełamań linii trendu, wybić z formacji czy średnioterminowych wskaźników trendu (np. średnie kroczące, linie kierunkowe), prędzej czy później natrafią na konieczność zamknięcia pozycji wywołaną realizacją zlecenia stop strata.Jeżeli poziom tego zlecenia jest wystarczająco odległy od cen, aby nie być podatnym na przypadkowe wahania cen („szum” rynku), a z drugiej strony, nie pozwalać na zbyt duże straty, to zamknięcia pozycji w jego okolicach okazują się najczęściej trafnymi decyzjami chroniącymi nasz kapitał. Dodatkowo, odpowiednio oddalone poziomy obrony charakteryzują się tym, że nie generują zbyt wielu sygnałów zamykania pozycji, a tym samym – powrót po nich na rynek na podstawie niżej opisanych metod nie powinien być zbyt uciążliwy.Problemy pojawiają się jednak w momencie, gdy zlecenia obronne ustawione są zbyt blisko cen, co powoduje częste wyrzucenia z rynku (szczególnie w momentach dużej zmienności) lub gdy inwestorzy w obawie przed utratą wypracowanych już zysków przedwcześnie zamykają pozycje w silnych trendach, mimo że nie pojawiły się ku temu żadne przesłanki. Po takich decyzjach powrót na rynek jest bardzo trudny, w końcu jednak decydujemy się na ten ruch i nierzadko trafiamy na lokalny szczyt w trendach wzrostowych lub dołek w trendach spadkowych, co szybko niweluje część tak chronionych zysków.Tak więc, zanim spróbujemy włączyć te zasady do naszych systemów, warto się zastanowić, czy stosujemy przemyślane zasady zamykania pozycji i ochrony kapitału, pozwalające na ich skuteczne wykorzystanie oraz czy przedziały czasowe, w których inwestujemy, są wystarczająco długie (w podejściu krótkoterminowym duża liczba transakcji praktycznie w całości eliminuje konieczność stosowania tych reguł). (Wykres 2.)Nowy szczyt, nowy dołekNajpopularniejszą metodą powrotu na rynek jest odnowienie pozycji w momencie, kiedy ceny po chwilowej korekcie wracają do głównego trendu i pokonują poprzedni szczyt (w trendzie wzrostowym) lub poprzedni dołek (w trendzie spadkowym). Metoda ta jest zgodna z zasadą analizy technicznej mówiącą, że po przekroczeniu poziomu oporu lub wsparcia, kierunek ruchu poprzedzającego ten fakt będzie kontynuowany.Podstawową zaletą takiego działania jest to, że praktycznie zawsze można wrócić na rynek. Niezależnie od poziomu zlecenia stop i od liczby sygnałów zamknięcia pozycji inwestor ma zawsze możliwość powrotu do gry, jeżeli tylko poprzednie ekstremum zostanie pokonane. Kłopoty pojawiają się dopiero w momencie, gdy opuszczenie rynku następuje zbyt wcześnie, mimo że ceny cały czas kontynuują trend. W takim przypadku, aby powrócić do gry, trzeba czekać na korektę, która wcale nie musi nastąpić zbyt szybko, a to niesie ze sobą ryzyko utraty szansy na spory zarobek.Kolejnym problemem jest to, że ceny w momencie zmiany trendu często wracają do wcześniejszych szczytów lub dołków i dopiero z tych poziomów zmieniają kierunek dominującej tendencji. Jeżeli w takim momencie nie otrzymamy jeszcze sygnału zmiany trendu i wrócimy na rynek zgodnie z dotychczasowym kierunkiem, to trzeba się pogodzić z faktem, że prawdopodobnie transakcję tę zakończymy na poziomie zlecenia obronnego. Dodatkowym minusem jest fakt, że nie odnawiamy pozycji w chwili, gdy ceny wracają do trendu, ale dopiero w momencie osiągnięcia wcześniejszego ekstremum, co w przypadku głębokich korekt wiąże się z pominięciem znacznego ruchu. (Wykres 3.)Wykorzystanie oscylatorówLepszą metodą od wcześniej opisanej wydaje się być wykorzystanie oscylatorów sygnalizujących wykupienie lub wyprzedanie rynku. W tym celu można posłużyć się indeksem siły względnej (RSI), oscylatorem stochastycznym, %R lub CCI. Zaletą tych narzędzi jest to, że przy stosunkowo krótkich okresach (np. 3 lub 5), dla których je wygładzamy, bardzo dobrze potwierdzają ruchy cen.Jeżeli na rynku panuje trend wzrostowy, wskaźniki te poruszają się zazwyczaj powyżej poziomów równowagi, a każdorazowy spadek do stref niedźwiedzia okazuje się dobrym momentem do nowych zakupów. Analogicznie podczas trendów spadkowych oscylatory znajdują się poniżej równowagi, a wzrosty powyżej tego poziomu są okazjami do krótkiej sprzedaży.Cechę tę można wykorzystać do określenia właściwego momentu powrotu na rynek. Wcześniej oczywiście spełniony powinien być początkowy (główny) warunek zajęcia pozycji. Jeżeli np. sygnał zajęcia długiej pozycji generuje przecięcie od dołu średniej 45-sesyjnej przez średnią z 15 sesji, to kupno związane z powrotem na rynek dopuszczalne jest do momentu, kiedy szybsza średnia (15) utrzymuje się ponad wolniejszą (45).Wykorzystanie oscylatorów polega na tym, że jeżeli np. w trendzie wzrostowym dochodzi do korekty, to wskaźniki te opuszczają strefę wykupienia i w zależności od siły trendu i głębokości korekty docierają do poziomów równowagi, nierzadko je przecinając lub czasami nawet osiągają poziomy wyprzedania. Powrót do trendu jest w większości takich przypadków bardzo dobrze sygnalizowany przez wzrost oscylatorów powyżej poziomu równowagi – i właśnie ten moment powinien być wykorzystany do odnowienia pozycji.Poziom równowagi w zależności od siły trendu można oczywiście zastąpić innymi wartościami, warto je jednak z góry określić, gdyż dokonując tego w trakcie korekty, emocje związane z powrotem na rynek mogą być tak silne, że nie pozwolą na podjęcie właściwej decyzji. (Wykres 4.)W metodzie tej bardzo ważna jest odległość zlecenia stop strata. Przy bliskich liniach obrony niewielkie zmiany cen w kierunku przeciwnym do trendu mogą nas wyrzucić z rynku, ale najprawdopodobniej nie zdołają wystarczająco silnie wpłynąć na oscylatory, aby te przedostały się za wyznaczone poziomy. W takich sytuacjach wygenerowanie sygnału powrotu na rynek bez zmiany (przybliżenia) wspomnianego poziomu lub bez przyśpieszenia wskaźnika (skracając okres wygładzania) niestety nie będzie możliwe.Drugi problem wiąże się z momentem zamknięcia pozycji. Podobnie jak we wcześniejszej metodzie, przedwczesne opuszczenie rynku, mimo że trend ma się dobrze, niesie za sobą ryzyko utraty sporego ruchu, gdyż oscylatory będą wtedy zbyt daleko od poziomów umożliwiających odnowienie pozycji. Sytuacja taka będzie się prawdopodobnie utrzymywała do momentu wystąpienia korekty. Niewątpliwą zaletą jest natomiast fakt, że jeżeli ceny powracają do trendu, to odnowienie pozycji następuje zazwyczaj zaraz po zakończeniu korekty, dzięki czemu ryzyko kupna na szczycie lub sprzedaż na dołku jest mniejsze, niż we wcześniejszym przypadku.Wykorzystując tę metodę, warto ustawić dodatkowy poziom obrony, który w przypadku poważniejszych zmian na rynku, pozwoli nam bezpiecznie zamknąć pozycje. Najlepszym rozwiązaniem wydaje się ustalenie go na wysokości dołka lub jeden przedział cenowy poniżej minimum korekty w trendzie wzrostowym i na wysokości szczytu lub jeden przedział cenowy powyżej maksimum korekty trendu spadkowego.Opisane metody można ze sobą łączyć. Część pozycji można otwierać po wystąpieniu pierwszego sygnału zakończenia korekty (przecięcie oscylatora z np. poziomem równowagi), a pozostałą część w momencie, kiedy ceny pokonają poprzednie ekstremum.PodsumowanieNiewątpliwie odnawianie pozycji w silnych trendach jest bardzo kłopotliwe, szczególnie dla początkujących inwestorów. Z jednej strony, chciwość każe jak najszybciej wrócić na rynek i zbierać profity, z drugiej – strach przed niepowodzeniem powoduje odwlekanie podjęcia decyzji. Skutecznym rozwiązaniem w wielu przypadkach okazuje się zastosowanie i przestrzeganie pewnych reguł, które pomagają podjąć właściwą decyzję.
14 –
Zarządzanie ryzykiem
O nieuchronności strat
Paweł Karkowski
Potencjalne straty przekraczające 5–10% wartości portfela zdarzają się rzadko. Inwestorzy aktywnie śledzący kursy swoich walorów, stosujący strategie stop loss i posiadający na tyle niewielkie pozycje, że nie zagraża im ryzyko utraty płynności – raczej nie są przerażeni głębokością spadków w sytuacjach ekstremalnych. Niemniej jednak warto przeanalizować krytyczne momenty i wykorzystać tzw. efekt grubych ogonów.
Doświadczenia kilku spadkowych sesji giełdowych pierwszej dekady marca br. skłaniają do zastanowienia się, jak można uniknąć kilkunastoprocentowych strat w momentach, kiedy sytuacja rynkowa jest fatalna (cieszyć się mogli tylko posiadacze krótkich pozycji). Otóż, każdy inwestor podszedł do tych spadków inaczej.l Jeżeli jest day traderem, to wystarczy, aby pamiętał o podstawowych zasadach daytradingu, przedstawionych choćby w marcowym numerze „Profesjonalnego Inwestora”, takich jak stosowanie zleceń typu stop loss czy unikanie walki z trendem.l Inwestorzy stosujący analizę techniczną, zajmujący pozycje zgodnie z podpowiedziami reguł technicznych, w momentach burzliwych zmian cen także nie mają powodów do zadowolenia. Wejście w rynek, gdy ceny waloru spadają do poziomu wsparcia, może okazać się niezbyt trafną decyzją. Aby temu zapobiec, technicy również powinni stosować zlecenia typu stop loss oraz powstrzymywać się od niepewnych decyzji w okresach dużej zmienności rynku.l Jeżeli jest inwestorem stosującym zasady analizy fundamentalnej – jest to sytuacja nie do pozazdroszczenia. Generalnie sytuacja w spółkach nie zmienia się z dnia na dzień, tak więc ich wyceny są korygowane zdecydowanie rzadziej, niż korekta cen walorów przez rynek. Analitycy wydają swoje rekomendacje najczęściej z opóźnieniem, czekając na rozwój rynku. Jest to bezpieczna strategia. Jeszcze bezpieczniej jest wydawać rekomendacje na zrównoważonym rynku, o wyraźnym trendzie długoterminowym. Poza tym, istnieje niewiele spółek, które znawcy rynku wyceniają jednoznacznie, takim przybliżonym przykładem może być Elektrim czy KGHM.Czy jednak można im ufać? Raczej tak – inwestor branżowy kupując przedsiębiorstwo, kieruje się właśnie takimi analizami – inwestorzy giełdowi już nie. Przykładem może być właśnie Elektrim, którego cena była 2–3 razy niższa od jego fundamentalnej wartości. Jedyną radą dla „fundamentalistów” jest unikanie niejasnych sytuacji rynkowych i inwestowanie tylko w spółki, które znamy najlepiej (nie namawiam do wykorzystywania inside’ów!).l Jeżeli jest inwestorem instytucjonalnym, to z pewnością skracał pozycje, jednak nie na tyle, aby upłynnić cały swój portfel. Dla takich dużych graczy dobra jest strategia ubezpieczania portfela, która jest wprawdzie bardzo mechaniczna, ale przynosi niezłe efekty. Polega ona na wybraniu takich ekstremalnych wartości indeksu, aby ich prawdopodobne przekroczenie w okresie np. 1 roku było mało prawdopodobne.PrzykładJeżeli aktualna wartość WIG20 wynosi 1500 pkt., to możemy ustalić, że najniższa wartość, jakiej możemy się spodziewać w ciągu roku, to 1000 pkt., a najwyższa – 2200 pkt. Ustalamy, że kiedy poziom indeksu osiągnie 1000 pkt., to w portfelu nie będzie akcji (inwestujemy w bony skarbowe i obligacje), jeżeli WIG20 dotrze do 2200 pkt. – portfel będzie całkowicie wypełniony akcjami, reprezentującymi indeks. Strategia ilustrowana jest przez wykres 1., przy czym wybrano tylko cztery spółki z indeksu WIG20.Ktoś może powiedzieć, że chyba popełniono błąd. W momencie, kiedy indeks osiąga niskie wartości, inwestorzy powinni zapełniać akcjami swoje portfele w oczekiwaniu na poprawę sytuacji. Ale ta strategia zakłada podążanie za trendem. Czy to się opłaca?Przeprowadźmy obliczenia zakładając, że na początku strategii WIG20 wynosił 1600 pkt., następnie osiągnął 2000 pkt. i powrócił do poziomu 1600 pkt. w momencie oceny skuteczności portfela. Przyjmujemy stopę procentową niezmienną w ciągu 1 roku na poziomie 15%, naliczaną (kapitalizowaną) w okresach miesięcznych, realizowaną przy zakupie bonów skarbowych i obligacji. Przyjmujemy też dla uproszczenia, że operacje korygujące pozycje w portfelu przeprowadzamy co miesiąc, choć w założeniu tej strategii leży natychmiastowa zmiana proporcji w odpowiedzi na niewielką nawet zmianę indeksu.Tabela 1. przedstawia ogólną wartość portfela zbudowanego w oparciu o strategię ubezpieczenia oraz – dla porównania – w przedostatniej kolumnie prezentuje wartość portfela realizowaną przy zakupie indeksu i braku jakiejkolwiek modyfikacji portfela. Ostatnia kolumna przedstawia wartość portfela złożonego tylko z instrumentów dłużnych.Wykres 2. prezentuje uzyskane wyniki dla poszczególnych strategii.WnioskiStrategia ubezpieczenia portfela, o ile jest realizowana konsekwentnie, a operacje na portfelu są przeprowadzane równolegle do zaistniałych zmian poziomu cen, pozwala na poważną redukcję ryzyka dużych portfeli inwestycyjnych związanych ze znacznymi i niespodziewanymi spadkami cen akcji. Dzięki niej możemy amortyzować skoki cenowe. Dodatkowym atutem jest także wykorzystywanie pojawiającego się zjawiska wzrostu cen akcji przy spadku stóp procentowych i odwrotnie.Strategia ta ma jeszcze jedną ważną zaletę – nie wymaga angażowania czasu na analizę sytuacji rynkowej i analizę pojedynczych spółek. Aby ją zastosować wystarczy arkusz kalkulacyjny. Ważne jest też, aby po osiągnięciu i przekroczeniu jednego z progów lub w momencie diametralnej zmiany ogólnej sytuacji rynkowej, zmienić skrajne wartości indeksu, według których obliczamy procentowy skład portfela.Warto jeszcze wspomnieć, że instytucje stosujące strategię ubezpieczenia portfela są obwiniane za pogłębianie amerykańskich krachów giełdowych lat 80. Powodem była masowa wyprzedaż akcji, będąca rezultatem spadku indeksu i niedostateczna płynność, która umożliwiałaby wchłonięcie takiej podaży. Z drugiej strony, strategia ta wyzwala zwiększony popyt przy wzrostach indeksów (perpetuum mobile albo samonakręcająca się koniunktura).Zaawansowane metodyzarządzania ryzykiemzałamania cenOstatnie lata w teorii profesjonalnego zarządzania ryzykiem należą do Value at Risk (VaR) – wartości zagrożonej. Metoda ta jest aktualnie implementowana nie tylko w większości zagranicznych, ale też i w polskich instytucjach finansowych. Przypomnijmy: VaR to syntetyczna, bezwzględna (wyrażona najczęściej wartościowo jako procent wartości portfela), potencjalna wielkość straty portfela w ciągu np. jednego dnia przy określonym prawdopodobieństwie nie przekroczenia tej straty.Nie wchodząc głębiej w teorię wartości zagrożonej, wystarczającym przykładem może być przyjrzenie się portfelowi o wartości 1 mln zł, złożonemu z różnorodnych walorów, dla którego przed dniem X VaR została wyliczona na poziomie 30 tys. zł, przy prawdopodobieństwie nie przekroczenia tej straty równym 95%. Wynika stąd, że w dniu X z 5-proc. prawdopodobieństwem możemy oczekiwać straty wyższej niż 30 tys. zł. Statystycznie rzecz ujmując, co 20 dzień zaskoczy nas wyższą stratą.Niestety, teoria wartości zagrożonej, mimo niewątpliwych zalet, nic nie mówi o wielkości tego co dwudziestego zagrożenia. Pojawia się więc pytanie: Czy można przewidzieć wielkość straty w przypadkach, które przekraczają wartość zagrożoną i obliczyć średnią oczekiwaną wielkość takich strat?Zarządzający ryzykiem stosują do tego celu analizę szeregów cenowych. Poszukują w jak najdłuższych przedziałach czasowych dni, w których mogłaby mieć miejsce duża zmiana portfela złożonego z aktualnie posiadanych aktywów. Zwykle okazuje się, że zgodnie ze zjawiskiem tzw. „grubych ogonów”, istnieje co najmniej kilka takich dni, kiedy wartość zagrożona może być przekroczona nawet 3-krotnie! Oznacza to stratę dochodzącą w naszym przykładzie nawet do 100 tys. zł.Jeżeli zidentyfikowanych zostanie kilka takich przypadków – należy choć w przybliżeniu wyliczyć rozkład strat większych niż wartość zagrożona. Efekt tzw. „grubych ogonów” ma szerokie implikacje praktyczne:l zniekształca rozkład aktywów, najłatwiej przecież byłoby aproksymować rozkład zmian wartości portfela w czasie rozkładem normalnym,l wskazuje, że możemy spodziewać się wysokich strat częściej niż prognozowane metodą wartości zagrożonej.Generalnie, głębokie straty nawet prawidłowo zdywersyfikowanych portfeli (np. według teorii Markovitza) wynikają bardziej ze zmian założeń modelu, niż z jego niepoprawności. Dywersyfikacja portfela polega na wyznaczeniu akceptowalnych: poziomu ryzyka i stopy zwrotu.Ale w momentach krachu giełdowego czy załamania ekonomicznego gospodarki ceny bazowych walorów zachowują się tak, jakby korelacja między nimi była bliska jedności. Wtedy też, mimo że normalnie malejąca rentowność papierów dłużnych wywołuje wzrost cen akcji (co oznacza ujemną korelację między poziomem stopy procentowej a poziomem indeksu), to w momencie krachu spada zarówno stopa rentowności papierów dłużnych, jak i indeks giełdowy. Tak więc na prawidłowo zdywersyfikowanym portfelu w okresie załamania możemy odnotować znacznie wyższą stratę niż pierwotnie zakładana.Eksperci od zarządzania ryzykiem (często posiadający tytuły FRM – Financial Risk Manager) stosują również tak wyrafinowane metody, jak Expected Shortfall Method, będąca rozwinięciem VaR, wynikająca z teorii prawdopodobieństwa warunkowego. ESM można podsumować pytaniem: „Jakie jest prawdopodobieństwo straty, o ile przekroczy ona VaR i jaka jest jej wartość oczekiwana?”.O ile jednak stosowanie tych metod wymaga solidnej podbudowy aktuarialnej – o tyle chcę zwrócić uwagę na podejście bardziej pragmatyczne. Wiadomo, że kiedy rynek jest stabilny, zarządzanie ryzykiem ma drugorzędne znaczenie. Inaczej przedstawia się sytuacja, kiedy wzrasta niepewność.Czy nie skuteczniej byłoby ją mierzyć choćby prostym odchyleniem standardowym indeksu w krótkich okresach i porównywać zachowanie tej miary niepewności w czasie? Można by przyjąć, że zarządzanie ryzykiem jest funkcją nasilania się lub nie odchylenia standardowego. Im większa niepewność, tym więcej wysiłków powinno być podejmowanych w celu zarządzania ryzykiem i tym bardziej inwestor powinien sięgać po zabezpieczające instrumenty pochodne.
17 –
Systemy transakcyjne
Stacjonarność i optymalizacja systemów inwestycyjnych
Marek Wierzbicki
W marcowym „PI” przedstawiłem kilka trudnych pojęć teoretycznych, aby wytłumaczyć za ich pomocą ważny dla giełdowych graczy problem stacjonarności przebiegów cenowych. Choć artykuł zawierał kilka praktycznych przykładów, jednak nie były one poparte żadnymi wynikami z polskiej giełdy. Dziś spróbuję przedstawić ten sam problem z maksymalnym pominięciem kwestii teoretycznych. Pokażę też związki między stacjonarnością a skutecznością optymalizacji systemów giełdowych. Wprawdzie oba artykuły można czytać w oderwaniu od siebie, jednak pełne zrozumienie dzisiejszego tekstu wymaga przynajmniej pobieżnego zapoznania się z poprzednim.
Analiza techniczna oraz większość innych metod przewidywania przyszłych zmian cen bazują na jednym, często nie wypowiadanym wprost założeniu. Inwestorzy giełdowi są przekonani (czasami nawet nieświadomie), że przyszłe zachowanie cen będzie miało taki sam charakter (będzie podlegało takim samym regułom), jak zachowanie wcześniejsze. Jeśli więc w przeszłości pewne charakterystyczne zdarzenia skutkowały wzrostem (bądź spadkiem), to oczekują, że w przyszłości będzie dokładnie tak samo bądź przynajmniej bardzo podobnie.W pewnym uproszczeniu możemy przyjąć, że zachowanie niezmienności reguł rządzących zmianami na giełdzie jest objawem stacjonarności przebiegów giełdowych. Niestety, nie znamy tych reguł, w związku z tym trudno orzec, czy są one stałe w czasie, czy też nie. Inwestorzy aktywnie stosujący analizę techniczną, przyjmują, że takimi regułami są związki przyczynowo-skutkowe zachodzące między zachowaniem wskaźników technicznych, a przyszłymi zmianami cen. Sprawdźmy, czy takie założenie ma jakiekolwiek racjonalne podstawy.Najbardziej wiarygodny test istnienia stacjonarności wymaga znajomości modelowych reguł rządzących rynkiem. Można by w takim przypadku wyznaczyć parametry jednoznacznie definiujące zachowanie rynku, a następnie sprawdzić, czy są one niezmienne w czasie. Niestety, nie znamy tych hipotetycznych reguł. Co więcej, nie wiemy nawet, czy one istnieją. W związku z tym proponuję stosowanie podejścia bardziej praktycznego, a nawet pragmatycznego. Jako namiastkę testu stacjonarności zachowań sugeruję sprawdzanie, czy projektowany lub wykorzystywany system inwestycyjny jest stabilny w czasie.Takie podejście zakłada, że ze stacjonarności przebiegów giełdowych wynika stabilność idealnego systemu inwestycyjnego. Z pewnym przybliżeniem (ponieważ nie zawsze musi to być prawdą) można założyć, że ze stabilności takiego systemu wynika niezmienność w czasie reguł rządzących rynkiem, co dla wielu typów analiz można utożsamiać ze stacjonarnością giełdy. Na szczęście, z niestabilności systemu inwestycyjnego wcale nie musi wynikać, że giełda jest niestacjonarna lub rządzą nią reguły zmieniające się z upływem czasu. Przyczyną różnic w zachowaniu się systemu w różnych momentach może być sam system. Jego niepoprawna konstrukcja może skutkować zmiennością wyników, mimo iż giełda jest stabilna.Podręcznikowy przykład systemu niestabilnego bazuje na analizie rynku podlegającego niesymetrycznym regułom (inne zachowanie obserwujemy w czasie wzrostów, inne – w czasie spadków). Jeśli do stworzenia systemu wykorzystamy okres, który nie jest charakterystyczny dla zachowania giełdy (np. uwzględnimy zbyt dużo wzrostów lub spadków), wtedy w zależności od sytuacji na parkiecie system będzie generował poprawne lub niepoprawne sygnały. Wina leży jednak po stronie błędnej konstrukcji systemu, a nie giełdy.Po tym przydługim wstępie mogę już przystąpić do przedstawienia propozycji metod analizy stabilności zachowania giełdy przez pryzmat wskaźników technicznych. Z praktycznego punktu widzenia należy rozróżnić dwie odrębne klasy systemów inwestycyjnych. Prostsze do analizy to systemy, dla których jesteśmy w stanie (w skończonym czasie) wyznaczyć wyniki i przeanalizować ich zachowanie w całej przestrzeni parametrów. Znacznie ciekawsze z punktu widzenia inwestora są jednak systemy wieloparametrowe, których nie jesteśmy w stanie ocenić poprzez porównanie efektywności dla każdego zestawu parametrów, ze względu na czas potrzebny na wyznaczenie wyników stosowania tych systemów przy wszystkich ustawieniach. Pomijam w tych analizach systemy dynamicznie zmienne w czasie, ze względu na trudności w zastosowaniu ich do oceny stacjonarności przebiegów giełdowych.Prostsze systemy są najczęściej mniej skuteczne z punktu widzenia efektywności inwestycji bazujących na ich sygnałach. Jednak nie wpływa to negatywnie na wykorzystanie ich do oceny stabilności giełdy. Nie jest bowiem ważne (z punktu widzenia analizy stacjonarności), czy trafność inwestycji danego systemu jest wysoka, czy nie. Ważne jest natomiast, aby była w miarę niezmienna w czasie. Co więcej, może się okazać, że zbyt wymyślne systemy, przynoszące wysokie zyski, są gorszym miernikiem stabilności.Wysoko zyskowne systemy należą często do tzw. technik niezdyskontowanych, które charakteryzują się niewielką odpornością na rozpowszechnianie się wiedzy o sposobie ich działania. Nie nadają się w związku z tym do oceny stabilności, gdyż najczęściej wykorzystują tylko niewielką (a więc mocno podatną na zakłócenia) część informacji zawartej w przebiegu ceny.Z grupy prostych wskaźników jako przykład wybrałem system bazujący na sygnałach technicznych generowanych przez jeden z najpopularniejszych wskaźników, jakim jest RSI. Do celów testowych zastosowałem system, w którym zakupu dokonuje się w momencie przecięcia przez wskaźnik poziomu 30 od dołu. Sprzedaży dokonuje się przy przecięciu poziomu 70 od góry. Jeśli jednak od chwili zakupu minęło więcej niż 10 sesji, inwestycja jest zamykana bez względu na to, jaki był efekt tego działania.Ograniczenie czasu trwania inwestycji ma tu za zadanie wyrównanie warunków pomiarowych. Eliminuje to np. sytuacje, kiedy wskaźnik wygenerował sygnał zakupu i bez sygnału sprzedaży trwał tak przez długi okres. Jakkolwiek sytuacje takie często przynoszą zyski (atrakcyjne z punktu widzenia realnych inwestycji), uniemożliwiają jednak porównywanie testów. Podobne rozwiązanie nie jest przy tym żadnym udziwnieniem. Umożliwia bowiem ocenę, czy w określonym z góry horyzoncie inwestycyjnym dany wskaźnik umożliwia realizację zysków, czy też nie. Rozwiązanie takie można spotkać np. w programie STATICA smart 1.0, opisywanym w listopadowym numerze „PI”.Z użyciem opisanego systemu przeprowadziłem analizę efektywności systemu transakcyjnego pod kątem udziału trafnych transakcji (czyli takich, które przyniosły zysk większy od zera) we wszystkich transakcjach oraz średniej dziennej stopy zwrotu uzyskanej w transakcjach wskazanych przez system. Do analizy brałem wszystkie sesje z danego roku (od pierwszej do ostatniej). Obejmowała ona wszystkie spółki, również te, które nie były notowane przez cały rok.Do celów testowania przyjąłem niezbyt popularną tezę, że wszystkie spółki są podobne, co wpłynęło negatywnie wyłącznie na niższą efektywność systemu, nie pogarszając (a może nawet polepszając) kwestię oceny stabilności. Kryterium udziału spółki w analizie było notowanie jej przez okres wystarczający do wyznaczenia wskaźnika RSI. Takie podejście zapewniło odpowiednio dużą reprezentację zjawiska. Na tyle dużą, że można uznać, iż różnice między poszczególnymi danymi są istotne.Tabela 1. pokazuje procent trafnych transakcji na przestrzeni 6 lat dla okresu wyznaczania RSI od 5 do 35 sesji. Ze względu na małą liczbę spółek notowanych w 1994 r. i wcześniej oraz fakt, że 5-sesyjny tydzień wprowadzono dopiero w październiku 1994 r., testy rozpocząłem od 1995 r.Jak widać, niemal we wszystkich przypadkach trafność transakcji według opisanego systemu była niższa od 50%. Można jednak wyróżnić te rejony ustawienia RSI (od 7 do 10 sesji), które charakteryzują się wyższą trafnością systemu. Rejon ten jest dość stabilny na przestrzeni 6 analizowanych lat. W tabeli zaznaczyłem (czcionką grubą) rejony silniejszych trafności systemu (powyżej ustalonej arbitralnie granicy 46%).Poza wskazanym okresem w 1999 r. wystąpiły lepsze wyniki dla zakresu parametrów 18–25 (generalnie cały 1999 r. był najlepszy dla tego systemu). Lepsza efektywność dla ustawienia 21 w 1995 r. (pokrywającego się z obszarem z 1999 r.) jest raczej przypadkowa. Ponadto wystąpiło nieznaczne, lecz powtarzalne zagęszczenie lepszych wyników w okolicy ustawień 33–35 sesji.Interpretacja tego drugiego rejonu nie jest jednoznaczna. Do pozytywów należy zaliczyć powtarzalność tego zdarzenia na przestrzeni 6 lat. Jako negatywne zjawisko należy podać fakt, że są to pojedyncze przypadki, wynikami często znacznie odstające od sąsiadujących ustawień (negatywnie wybiły się tu lata 1995 i 1997).Analiza tego samego systemu przez pryzmat średniej stopy zwrotu nie jest tak jednoznaczna (tabela 2.). Zaznaczyłem w niej (poprzez pogrubienie) dzienne stopy zwrotu z inwestycji przekraczające arbitralnie wybraną wartość 0,1%. W pięciu na 6 analizowanych lat wystąpiło zgrupowanie dobrych wyników dla RSI wyznaczonego na bazie 5–11 sesji oraz 32–35 sesji (warto zwrócić uwagę na podobieństwo do tabeli 1.).Jednak zakresy ustawień RSI dla różnych lat pokrywały się ze sobą słabiej, niż w przypadku analizy trafności inwestycji. Trochę lepiej niż w przypadku analizy trafności było dla „wysokiego” zakresu RSI. Tam dwukrotnie wystąpiło znaczące zgrupowanie dobrych wyników, w jednym roku sąsiadowały ze sobą 2 dobre wyniki, a w pozostałych trzech latach wystąpiły pojedyncze przypadki należące do analizowanego okresu. Poza tym wystąpiły 3 obszary lepszych wyników, nie związane ściślej ze sobą.Warto porównać wyniki zaprezentowane w tabelach 1. i 2. ze średnią dzienną stopą zwrotu nie ważonego indeksu cenowego PMI (tabela 3.). Można zauważyć pewną zgodność między dużą liczbą dobrych wyników, a średnimi wynikami w tym samym roku (wyłamują się jedynie lata 1995 i 1996).W przypadku analizy inwestycji opierających się na wszystkich akcjach notowanych na giełdzie, do porównania powinno się wykorzystywać właśnie ten indeks. Każda z akcji ma w nim jednakowy udział. Dokładnie tak samo jak w analizowanym systemie. Prawdopodobieństwo włączenia akcji do inwestycji zależy w nim wyłącznie od wystąpienia sygnału technicznego, jednakowo prawdopodobnego dla każdej akcji, a nie od jej kapitalizacji na giełdzie. Warto o tym pamiętać, zwłaszcza w czasie tak dużej popularności indeksu WIG20.Na efektywność systemu mierzoną średnią stopą zwrotu z inwestycji prowadzonych na jego podstawie można popatrzeć przez pryzmat średniej dziennej stopy zwrotu indeksu cenowego, wyznaczonej w tym samym okresie.Patrząc przez pryzmat systemu inwestycyjnego i jego wyników spróbujmy zastanowić się, czy zachowanie giełdy jest choć w pewien sposób stabilne i stacjonarne oraz jakie wnioski praktyczne można wyciągnąć ze wskazówek teoretycznych. Najważniejszy wniosek to taki, że choć różnice między najlepszymi i najgorszymi średnimi wynikami nie są (w przypadku prostych systemów) porywające, utrzymują się jednak na przestrzeni 6 kolejnych lat, które poddałem analizie.Co więcej, różnice rozkładają się bardzo podobnie we wszystkich latach i to bez względu na sposób oceny inwestycji (procent zyskownych transakcji lub średnia stopa zwrotu). W przypadku RSI występuje szerokie maksimum dla niskich wartości parametru i dość słabo zaznaczone oraz nieregularne, ale powtarzalne w zakresie wysokich wartości parametru. Oznacza to, że pod pewnymi warunkami optymalizacja systemów inwestycyjnych może przynieść dodatkowe podniesienie efektywności.Optymalizując system, należy jednak uwzględnić kilka ważnych reguł. Najważniejszą z nich jest wybieranie tzw. szerokich (płaskich) maksimów optymalizacji. Jeśli więc po optymalizacji otrzymujemy parametry najlepszego systemu, powinniśmy sprawdzić, jakie wyniki generuje ten system dla zestawów parametrów w pewnym otoczeniu. Bazując na naszym przykładzie, możemy stwierdzić, że system oparty na RSI dla parametrów z okolic 7–10 to dobrze wybrany system (płaskie maksimum), natomiast parametr 32–35, jakkolwiek często przynosił zyski, nie jest wart polecenia.Dla systemów z dużą liczbą parametrów (zwłaszcza różnego typu) występuje tu dość trudny problem zdefiniowania odległości w przestrzeni tych parametrów, która pomoże nam ocenić, czy różne dobre ustawienia są odpowiednio blisko siebie, aby można było uznać, że tworzą „płaskie” maksimum. Problem ten musi jednak być rozwiązany przez autora systemu, jako osobę najlepiej znającą jego cechy. Jeśli procedura optymalizacyjna zwraca nam kilka zestawów parametrów, które pretendują do cechy najlepszych, powinniśmy sprawdzić, co się dzieje „pomiędzy” tymi ustawieniami (tu również wkracza problem wyznaczania odległości). Te rozważania są szczególnie ważne w przypadku skomplikowanych systemów, dla których nie jesteśmy w stanie przetestować i sprawdzić efektywności wszystkich ustawień.Skomplikowane systemy, optymalizowane heurystycznie, będą również inaczej testowane w ramach sprawdzania swojej odporności na zmienność w czasie. Otóż, przy założeniu, że nasz program optymalizacyjny generuje tylko jeden najlepszy zestaw parametrów rozbudowanego systemu, powinniśmy analizować stabilność jego parametrów zarówno w przód, jak i w tył. W przód oznacza, że najlepsze parametry testujemy w następnych latach, a wstecz – że parametry wyznaczone w ramach optymalizacji w danym roku sprawdzamy na latach wcześniejszych (w obu przypadkach włącznie z ustawieniami „sąsiednimi”).Jeśli dla kilku kolejnych lat parametry optymalne znacząco odbiegają od siebie, a wyniki działania systemu dla ustawień optymalnych w innych latach nie odbiegają od przeciętnej (nie optymalizowanej) inwestycji (lub odbiegają na minus), możemy z całym spokojem odrzucić taki system jako niestabilny lub bazujący na niestacjonarnej części przebiegu cenowego. Jeśli jednak optymalizacja generuje „bliskie” ustawienia lub parametry optymalne w jednym roku umożliwiają ponadprzeciętne zarobki zarówno we wcześniejszych, jak i późniejszych latach (nawet jeśli nie są to najwyższe możliwe zyski) możemy uznać, że nasz system jest stabilny i bazuje na stacjonarności giełdy. Teza ta jest tym silniejsza, im większy zakres parametrów „dookoła” wartości optymalnych spełnia te same kryteria.Najgorszy do analizy jest przypadek, gdy poszczególnych składowych parametrów nie możemy (lub nie potrafimy) ze sobą porównać. Wyobraźmy sobie system, w którym niektóre parametry podawane są w sesjach, inne w procentach, a jeszcze inne to nazwy spółek (np. stanowiące inwestycję odniesienia). Dla takiego systemu bardzo trudno stworzyć algorytm oceniający odległość poszczególnych ustawień od siebie. Taki system powinniśmy analizować wyłącznie z dokładnie takimi samymi ustawieniami zarówno w przód, jak i w tył i porównywać je z systemami najlepszymi i przeciętnymi w poszczególnych latach. Jednak wnioski na temat takich systemów powinny być bardzo ostrożne.Mam nadzieję, że dzięki temu artykułowi Czytelnicy rozszerzą praktyczną wiedzę o problemie stacjonarności i jego wpływie na sensowność stosowania optymalizacji. Przeprowadzone przeze mnie badania dają przy tym światełko nadziei, że optymalizacja ma sens, jednak wyłącznie pod warunkiem stosowania dość ścisłych reguł.
22 –
Zarządzanie portfelem
Zarządzanie portfelem za pomocą teorii użyteczności
Jarosław Kostrzewa
Wielu managerów zarządzających portfelami inwestycyjnymi na polskim rynku kapitałowym nieustannie zmaga się z problemem: w jaki sposób zbudować optymalny portfel, jakich użyć do tego narzędzi, co uwzględniać w swoich decyzjach, itp. Aby odpowiedzieć na to pytanie, należałoby najpierw zastanowić się, cóż to jest ten optymalny portfel inwestycyjny?
Dla większej przejrzystości moich rozważań postanowiłem podzielić je na dwie części: pierwsza dotyczyć będzie alokacji aktywów, tzn. jaką część portfela powinny stanowić instrumenty bezpieczne, a jaką akcje przy zastosowaniu teorii użyteczności. Natomiast druga odnosi się już do samego doboru poszczególnych spółek do portfela.Część pierwsza:alokacja aktywów i teoria użytecznościZanim przejdziemy do opisu tego zagadnienia, zastanówmy się nad takim oto przypadkiem: czy manager funduszu inwestycyjnego kupiłby jednostki swego funduszu, gdyby był osobą, która nie pracuje w branży związanej z rynkiem kapitałowym, ale posiadającą pewną wiedzę na temat giełdy i inwestowania, na tyle dużą, aby rozumieć ryzyko wynikające z inwestycji w akcje. Jeśli odpowiedź jest twierdząca, to nie ma sprawy. Jeśli jest negatywna lub nastąpiło zawahanie przed jej udzieleniem, tzn. że coś z tym funduszem jest nie w porządku.Należy bowiem pamiętać, że kształt portfela funduszu, jego struktura i sposób zarządzania powinny w pewnym sensie odzwierciedlać osobowość zarządzającego skorygowaną o oczekiwania uczestników funduszu. Jeśli jest inaczej, można podejrzewać, że np. ryzyko podejmowane przez zarządzającego, jest zbyt wysokie w stosunku do tego, co są w stanie wytrzymać uczestnicy funduszu. Czyli negatywna odpowiedź managera na powyższe pytanie może oznaczać, że ryzyko inwestycji w portfel tego funduszu jest zbyt wysokie.Skąd w takim razie bierze się owa rozbieżność? Aby to wyjaśnić, musimy odwołać się do tzw. teorii użyteczności. W literaturze na ten temat wyrazy „użyteczność” i „szczęście” mają w ekonomii to samo znaczenie. Teoria użyteczności – mówiąc ogólnie – jest teorią ekonomiczną, która opisuje, w jaki sposób ludzie maksymalizują swoje szczęście. Na wykresach zostało to zobrazowane poprzez tzw. krzywe obojętności.Jednak zanim przejdziemy do opisu tego zagadnienia, powinniśmy zacząć od problemu alokacji kapitału między aktywami ryzykownymi a aktywami pozbawionymi ryzyka, ponieważ teoria użyteczności jest w tym przypadku pewnym pomocniczym narzędziem w celu bardziej adekwatnej alokacji kapitału, która uwzględnia czynniki psychologiczne w podejmowaniu decyzji inwestycyjnych, opierające się na naszej tolerancji ryzyka. Warto w tym miejscu zaznaczyć, że nasza tolerancja ryzyka rośnie, gdy osiągamy zyski, natomiast gwałtownie spada, gdy zaczynamy ponosić straty. Jest jeszcze jeden ważny element: każdy z nas posiada inny stopień tolerancji ryzyka lub – ujmując rzecz odwrotnie – inny stopień awersji do ryzy...
futures77