SciELO - Scientific Electronic Library Online

 
vol.74 número152 índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

Links relacionados

Compartir


DYNA

versión impresa ISSN 0012-7353

Dyna rev.fac.nac.minas v.74 n.152 Medellín mayo/ago.. 2007

 

SELECCIÓN DE INDICADORES TÉCNICOS PARA LA NEGOCIACIÓN EN EL MERCADO CAMBIARIO COLOMBIANO II: COMBINACIONES Y FILTROS (VHF Y ADX)

TECHNICAL INDICATOR SELECTION FOR NEGOTIATING IN THE COLOMBIAN FOREIGN EXCHANGE MARTKET II: COMBINATIONS AND FILTERS (VHF AND ADX)

MAURICIO ZULUAGA
Grupo de Finanzas Computacionales. Facultad de Minas. Universidad Nacional de Colombia

JUAN D. VELÁSQUEZ
Grupo de Finanzas Computacionales. Facultad de Minas. Universidad Nacional de Colombia, jdvelasq@unalmed.edu.co

Recibido para revisar 20 de Abril 2006, aceptado 26 de Mayo  de 2006, versión final 30 de Noviembre de 2006

RESUMEN: Esta segunda parte examina el desempeño que se puede lograr de la combinación de indicadores, así como la utilidad de los Indicadores que determinan los periodos de tendencia y de trading (Filtros).  Inicialmente se generaron combinaciones de un oscilador y un seguidor de tendencia, operando según el periodo determinado por uno de los Filtros.  Posteriormente se probó individualmente los indicadores operando solo en los periodos para los que teóricamente tienen mejor desempeño, nuevamente dependiendo de los periodos señalados por los Filtros.  También se construyó un problema de optimización combinatoria, al intentar probar todas las posibles combinaciones que se pueden generar; para el cual fue necesario el desarrollo de un algoritmo de Búsqueda Tabú.

A partir de este trabajo fue posible concluir, que a pesar de que las combinaciones de Indicadores mejoran los desempeños individuales de muchos de los indicadores, eliminando la volatilidad de sus señales, es posible obtener rendimientos mayores con la utilización de Indicadores individuales de alto desempeño.

PALABRAS CLAVE: Indicadores Técnicos, Análisis Técnico, Mercado Cambiario Colombiano, Metaheurísticas, Búsqueda Tabú

ABSTRACT: This second part examines the results that can be obtained with the combination of indicators, as well as the utility of the Indicators that determine the periods of tendency and trading (Filters). First, combinations of an oscillator and a follower of tendency were generated, operating according to the period determined by one of the Filters. Then, depending again on the periods indicated by the Filters, the indicators were tested individually, operating only in the periods for which theoretically they have better return. A problem of combinatorial optimization was also constructed, when trying to examine all the possible combinations that can be generated, for which the development of a Tabu Search algorithm was necessary.

This work made possible to conclude, that although the combinations of Indicators improve the individual performances of many of the indicators, eliminating the volatility of its signals, it is possible to obtain greater returns with the use of individual Indicators of high performance.

KEYWORDS: Technical Indicators, Technical Analysis, Colombian Exchange Market, Metaheuristics, Tabu Search.

 

1. INTRODUCCIÓN

Ante la construcción empírica de estrategias de inversión y el constante crecimiento de los mercados financieros colombianos como mercados de inversión que se ha presentado en los últimos años, se hace impetuoso generar conocimiento que permitan la elaboración de mejores estrategias de participación en dichos mercados.

La construcción de Sistemas Automáticos de Operación que estén basados en estudios serios, amplios y con rigor científico, se presenta ante los inversionistas como una importante opción para desarrollar estrategias de inversión, eliminando la subjetividad propia de las decisiones del ser humano.  Los indicadores técnicos al ser instrumentos matemáticos son muy apropiados para la construcción de estos sistemas, puesto que suprimen al hombre a la hora de determinar las señales de compra y venta, generándolas siempre de manera homogénea.  Además estas herramientas son fáciles de programar facilitado la construcción de dichos sistemas.  Lo importante es que se seleccione de manera adecuada con cual (o cuales) de ellos operar y que el sistema genere confianza en el inversionista que lo emplea.

Precisamente este trabajo (incluyendo ambos textos desarrollados) está encaminado a determinar que indicadores utilizar en la construcción de un Sistema Automático y a que el inversionista tenga confianza en él, o por lo menos que conozca que debe esperar sobre el desempeño de los indicadores que lo conforman bajo ciertas condiciones de operación. 

Esta segunda parte pretende dar respuesta a las 3 finales preguntas de investigación del estudio; dichas preguntas son: ¿la combinación de un indicador seguidor de tendencia con un oscilador generará un sistema de negociación más adecuado?, pero si sólo se emplean durante los periodos en los que teóricamente tienen un mejor desempeño, ¿se podrá mejorar la rentabilidad?, ¿o será que acaso la combinación de dos, tres, cuatro y más indicadores generando señales en distintas posiciones (en compra o en venta), puede permitir generar mayores rentabilidades?

La solución a esta última pregunta, originó un problema de optimización combinatoria, al intentar probar todas las posibles combinaciones que se pueden generar; para el cual fue necesario el desarrollo de un algoritmo de Búsqueda Tabú, que permitiera explorar de forma inteligente el  espacio de posibles soluciones.

El desarrollo de este trabajo se presenta de la siguiente manera: Inicialmente, en la Sección 2, se realiza un breve recuento del trabajo presentado hasta ahora.  Posteriormente, en la Sección 3 se hace una descripción de lo que son los Métodos Metaheurísticos, y específicamente la Búsqueda Tabú.  A continuación se comenta la metodología diseñada para dar respuesta a las preguntas de investigación (Sección 4) y los resultados obtenidos por medio de ésta (Sección 5).  Para finalizar, las conclusiones, recomendaciones y posibles trabajos futuros son presentados en la Sección 6.

 

2. TRABAJO ANTERIOR

En la primera parte de este estudio se analizó el comportamiento individual de los indicadores, identificándose, inicialmente, que existen indicadores como el Índice de Demanda, la ROC, el Momento, el Oscilador de Precio y las Medias Móviles Dobles que muestran un buen desempeño neto.  También que indicadores como las Medias Móviles, el NVI, el PVI, el Sistema Parabólico SAR, el R% de Larry Williams, el RSI y OVC, presentaron un pobre rendimiento.

Los costos de transacción y la inversión en activos libres de riesgos mostraron tener un gran efecto sobre la rentabilidad final obtenida.  Cuando los costos de transacción son altos, la rentabilidad se disminuye significativamente, dependiendo de la cantidad de las señales arrojadas por el indicador.  La inversión libre de riesgo aumenta la rentabilidad obtenida al final de la inversión y ante bajos costos de transacción dicho aumento es significativo; pero cuando estos son altos, sólo logran menguar un poco el efectos de éstos.

Además se comprobó que a pesar de que era posible afirmar que los mejores indicadores normalmente eran mejores que los otros y que los peores siempre lo seguían siendo, no es posible determinar cual será el indicador que presente mayor rentabilidad, es más, ni siquiera es posible afirmar que se obtendrá rentabilidad en un periodo dado.

En términos generales, se puede concluir de este primer trabajo que es posible obtener ganancias al aplicar los Indicadores Técnicos, aunque existen condiciones para esto, como lo es poder acceder a tasas similares a las de la TRM, costos de transacción bajos, buenas tasas de rentabilidad de inversiones libres de riesgo, así como la posibilidad de invertir durante periodos largos y soportar periodos cortos de pérdidas.

 

3. OPTIMIZACIÓN HEURÍSTICA

Existen infinidad de problemas que por la cantidad de variables que poseen, o por la complejidad de las relaciones existentes (ya que no siempre resultan ser lineales) y en los cuales el tiempo para su solución suele incrementarse de forma exponencial, polinómica o potencial en relación al número de variables; los métodos de optimización tradicionales como el Simplex, el de Acotación y Ramificación, entre otros, resultan muy ineficientes en la obtención de la solución óptima, generando altos costos (en gran cantidad de problemas el tiempo en la toma de una decisión se traduce en dinero que se deja de ganar o que se pierde).

Ante dicha dificultad de resolver de forma óptima este tipo de problemas se comenzaron a desarrollar una serie de algoritmos fundamentados en la idea de que en gran número de ocasiones resulta mejor sacrificar razonablemente, la calidad de la solución encontrada, con tal de reducir de manera significativa el tiempo necesario para su búsqueda.  Dichos métodos no garantizan una solución óptima, si no que en un tiempo significativamente corto, encuentran una solución que es considerada “buena”, entendiendo esta expresión como una solución satisfactoria para el que resuelve el problema, la cual está relativamente cerca del óptimo (Díaz et al, 1996).

Este tipo de algoritmos se conocen como Heurísticas (del griego heuriskein, encontrar), nombre que define de forma simple lo que hacen (Díaz et al, 1996).  Dicho termino se ha comúnmente relacionado con la tarea de resolver problemas reales, fundamentalmente dinámicos, de una manera inteligente, a través de la utilización del conocimiento que se encuentra disponible, tratando de emplear una cantidad razonable de recursos, principalmente computacionales y tiempo (Brito et al, 2004; Melián, Moreno y Moreno; 2003). 

Las heurísticas bien diseñadas, cuando son construidas para la resolución de problemas específicos presentan un desempeño muy alto, pero cuando se emplean heurísticas generales, a pesar de que resultan muy sencillas y que son muy adaptables y robustas, muestran un desempeño algo inferior a las especificas.  Sin embargo, si estas heurísticas generales son diseñadas a partir de las metaheurísticas, pueden mejorar ostensiblemente su rendimiento a través de la utilización de recursos computacionales y estrategias inteligentes (Brito et al, 2004; Melián, Moreno y Moreno; 2003).

3.1  Metaheurísticas
Como su nombre así lo indica, las metaheurísticas están “un nivel por encima” (meta) de las heurísticas, lo que se justifica en el hecho de que son estrategias inteligentes para el diseño y mejoramiento de procesos heurísticos generales, con la finalidad de obtener un alto rendimiento de ellos (Melián, Moreno y Moreno; 2003).

El concepto de Metaheurística apareció por primera vez en 1986, en el artículo en el que Fred Glover (1986) presentó el concepto de la Búsqueda Tabú; a partir de entonces se han desarrollado una importante cantidad de metodologías de este tipo [véase  Metaheurísticas: una revisión actualizada (Brito et al, 2004), Optimización heurística y Redes Neuronales (Díaz et al, 1996), Metaheurísticas: una visión global (Melián, Moreno y Moreno; 2003)].

3.1.1 Metaheurísticas de búsqueda
Dentro de los tipos de metaheurísticas [Métodos constructivos, Métodos Evolutivos, Métodos de Relajación, Métodos de Búsqueda por Vecindarios, y algunos otros que resultan ser combinaciones o modificaciones de éstos.  Véase  Metaheuristicas: una visión global (Melián, Moreno y Moreno; 2003) y Metaheurísticas: una revisión actualizada (Brito et al, 2004)], las metaheurísticas de búsqueda son reconocidas como las más importantes en la resolución de problemas de optimización, debido a su buen desempeño (Melián, Moreno y Moreno, 2003).  Estas establecen estrategias para recorrer el espacio de soluciones, partiendo de una solución inicial y transformándola sucesivamente de forma iterativa.  Buscan entre las soluciones de la vecindad de la solución actual, aquella que genera un mejor valor de la función objetivo, se mueven a esa solución y repiten el procedimiento hasta que no encuentre otra mejor (se llega a un óptimo local) o se cumpla algún criterio de detención.  A estas heurísticas se le conoce como Búsquedas Monótonas, también llamadas Búsquedas Locales o Algoritmos Escaladores.  Dichas heurísticas se quedan atrapadas en óptimos locales, por eso el objetivo inicial de las metaheurísticas era permitir a las búsquedas locales ir más allá de ellos (Búsquedas Globales) (Melián, Moreno y Moreno; 2003).

Una forma de “sobrepasar” óptimos locales es permitir movimientos o transformaciones de las soluciones que no sean de mejora, como lo realizan las búsquedas no monótonas.  Dichas metaheurísticas pueden controlar estos movimientos a través de criterios de aceptación estocásticos o de la utilización de procesos de memoria.  Esta última forma, los procesos de memoria, emplea información de soluciones ya recorridas, para evitar que la búsqueda se concentre en la misma zona del espacio muestral.  El principal representante de las búsquedas con memoria es la Búsqueda Tabú, la cual en su forma básica, prohíbe temporalmente moverse a soluciones visitadas recientemente (Melián, Moreno y Moreno; 2003).

3.1.2 Búsqueda Tabú
La Búsqueda Tabú emplea memoria adaptativa y estrategias especiales de resolución de problemas (exploración sensible), de manera que se pueda encontrar una solución basada en procedimientos inteligentes y en explotar patrones históricos presentados en la resolución del problema (Glover y Melián, 2003).

En esa forma, la Búsqueda Tabú inicia como una búsqueda local, desplazándose iterativamente de una solución a otra que presente mayor valor del óptimo, a través de una operación llamada movimiento, hasta que se cumpla un criterio de terminación.  Cuando la búsqueda se encuentra con un óptimo local emplea estrategias de memoria para modificar el vecindario a explorar (Glover, 1996).

La Búsqueda Tabú emplea dos tipos de memoria: una memoria de corto plazo y una memoria de largo plazo; cada una de ellas con características y estrategias propias pero que juntas, bien sincronizadas, permiten a este método obtener excelentes resultados.

3.2  Memoria de corto plazo (o basada en hechos recientes)
La memoria de corto plazo es normalmente memoria por atributos [entiéndase un atributo como cualquier aspecto que cambia de una solución a otra al realizar un movimiento, como intercambios entre variables, entrada o salida de una variable, cambios en los valores de ciertas variables, entre otras (Glover y Melián, 2003)] para lo que se crea una lista tabú (estructura que da su nombre a esta técnica), en la cual se registran los atributos que han sido modificados para obtener las soluciones visitadas recientemente (considerando dichos atributos como tabúes), así como el periodo que todavía deben mantener dicho estatus (a lo que se le conoce como tenencia tabú) (Glover, 1996).  Los movimientos (cambios de atributos) son grabados en el orden en que se desarrollan y cada que se agrega uno nuevo al final de la lista, el elemento más viejo es descartado (aquel que completa el periodo de tenencia) (Glover, 1986)

El estatus de tabú de un atributo o solución puede ser ignorado cuando se cumplen ciertas condiciones, a través de criterios de aspiración, los cuales dan rangos de atracción que controlan que sean admisibles o no. Si una solución es mejor que otra debe aceptarse, a sí para alcanzarla se deba permitir cambiar un atributo o realizar un movimiento considerado tabú (Glover, 1996).  El criterio de aspiración puede aplicarse también cuando ninguna de las soluciones de un vecindario, ni siquiera las que poseen estatus tabú, pueden mejorar la función objetivo, entonces se permite realizar un movimiento de no mejora, seleccionando la solución que produce una menor desmejora.

3.3 Memoria de largo plazo
La memoria de corto plazo produce soluciones de alta calidad, pero la utilización de memoria de largo plazo y sus estrategias asociadas generan una búsqueda más potente.

En el manejo de la memoria de largo plazo, la memoria basada en frecuencias es fundamental, a cambio de la memoria basada en lo reciente como pasaba en la memoria de corto plazo.  Ésta introduce penalizaciones e incentivos a los atributos de acuerdo con que tanto pertenecieron a las soluciones seleccionadas (frecuencias de residencia o recencia) o que tanto se cambiaron para obtener éstas (frecuencias de transición)  (Glover, 1996).  La introducción de contadores de frecuencia permite diversificar la búsqueda, conduciéndola a nuevas regiones (Glover y Melián, 2003).

Las estrategias de intensificación y de diversificación son altamente importantes en el desarrollo de la memoria de largo plazo e influyen trascendentalmente en la construcción de las listas candidatas.  La primera está basada en la modificación de las reglas de elección de tal manera que se privilegien combinaciones de movimiento y características de solución (atributos) que históricamente hayan sido buenas.  También pueden regresar la búsqueda a zonas más atractivas del espacio de soluciones para buscar más extensamente en ellas (Glover, 1996). 

La segunda estrategia, la diversificación, es totalmente opuesta a la intensificación y está relacionada con la estrategia de reanudar la búsqueda desde entornos no visitados (Glover, 1996).

Las estrategias de diversificación están diseñadas para conducir la búsqueda hacia nuevas regiones.  En su mayoría están encaminadas a la modificación de las reglas de elección para incluir en las soluciones atributos que no hayan sido usados con frecuencia (Glover, 1996).  La diversificación genera soluciones que incorporan combinaciones de atributos significativamente diferentes a los encontrados en las soluciones previas (Glover y Melián, 2003).

El equilibrio entre las estrategias de intensificación y las estrategias de diversificación mejoran los resultados de la búsqueda Tabú, por eso es tan importante poder generar una interacción entre ellas. Entre las estrategias de integración entre intensificación y diversificación se encuentran: la Oscilación estratégica, el Reencademamiento de Trayectorias, el Refuerzo por restricciones, Procedimientos de listas de candidatos y Entornos Compuestos (Glover y Melián, 2003).

 

4. METODOLOGÍA

La solución de las 3 preguntas de investigación generó 4 escenarios, incluyendo una optimización combinatoria resuelta a través de un algoritmo de Búsqueda Tabú.  A continuación se describen brevemente los 4 escenarios.

4.1 Combinación de un seguidor de tendencia y un oscilador mediante el uso del VHF y el ADX.
Parte del objeto de este trabajo es también evaluar los indicadores Filtros, para lo cual se generó una simulación en la que se generaron combinaciones de un seguidor de tendencia y un oscilador, operando según las señales de los Filtros (el oscilador en tranding y el seguidor en tendencia). Esta simulación se realizará sin incluir costos de transacción ni activos libre de riesgo, con el objeto de identificar su efecto sin distorsiones.

4.2 Operación durante los periodos de teóricamente mejor desempeño.
También se probaron con cada uno de los indicadores individualmente, durante el periodo que teóricamente tienen un mejor desempeño, es decir, se probaron los indicadores seguidores de tendencia en los periodos en que se identificaron dichos movimientos y los osciladores durante los periodos de trading. Al igual que en la simulación anterior, los periodos de tendencia y de trading se determinaron por el VHF y el ADX.

4.3 Combinaciones de un seguidor de tendencia y un oscilador ante costos de transacción e inversión en activos libres de riesgo.
A la simulación planteada en la Sección 4.2, se le incorporaron los costos de transacción y la inversión libre de riesgo para hacer un acercamiento mejor al funcionamiento de un Sistema Automático de Operación en el mercado real.

4.4 Optimización combinatoria.
Además se probó el desempeño de combinaciones de indicadores, pero sin la intermediación del VHF y del ADX.  Ante la posibilidad de que los indicadores tengan distintos desempeños a la hora de determinar señales de compra y venta, como demuestran estudios en otros mercados [ver por ejemplo Isakov y Hollistein (1999)], se hizo necesario probarlos de manera independientes para periodos de compra y para periodos de venta.  Generando un problema de optimización combinatoria con un espacio muestral muy amplio, para lo que se hizo necesario emplear una Búsqueda Tabú para su solución.

4.5 Protocolo de la simulación
A continuación se presentan las características particulares de las simulaciones realizadas.

4.5.1 Modelo de inversión
Se empleó el mismo modelo de inversión descrito en el texto anterior (Zuluaga y Velásquez, 2005), el cual se resume brevemente en la Tabla 1.

Tabla 1. Resumen de la estrategia de inversión
Table 1. Summary of the investment strategy

En las simulaciones en las que intervienen el VHF y el ADX en la generación de combinaciones se opera de la siguiente manera: inicialmente el respectivo indicador determina en que periodo está el mercado, si es una tendencia un seguidor de tendencia se emplea y se obedece la señal que éste determina, si el Filtro indica que se ha iniciado un periodo de trading, se termina la utilización del seguidor de tendencia y se emplea el oscilador, si antes se tenía una señal de venta y el oscilador está bajo la misma condición, la posición se mantiene hasta que el Filtro lo determine, de contrario, si está en una posición de compra, se cierra la posición de venta en la que se estaba.  Lo mismo sucede en el caso de un cambio de trading a tendencia y de compra a venta.

4.5.2 Metodología de la Búsqueda Tabú
El problema de optimización combinatoria, aumenta, en forma práctica, el número de indicadores a utilizar, puesto que los 22 indicadores disponibles los duplica al utilizarlos separadamente en la generación de señales de compra y de venta, obteniéndose, entonces, 44 indicadores distintos que se combinan de todas las formas posibles, generando un espacio de posibles combinaciones bastante grande: 244, es decir: 17’’592.186’044.416, lo que implica la necesidad de utilizar muchos recursos computacionales para solucionar el problema de optimizar la rentabilidad.

Para explorar el espacio muestral de posibles combinaciones de indicadores, se construyó un algoritmo de Búsqueda Tabú, con el objetivo de disminuir los recursos necesarios para la obtención de una solución adecuada al problema.  A continuación se describen las características principales del algoritmo de búsqueda desarrollado.

4.5.2.1 Definición de una solución.
Cada solución está definida como un vector compuesto de 44 elementos, que pueden tomar el valor de 1 o de 0, donde cada uno de ellos representa el estado de un indicador.  Hay que recordar aquí que en realidad se dispone de 22 indicadores que son utilizados de manera separada para generar señales de compra y de venta; por ende, los primeros 22 elementos del vector representan a cada uno de estos indicadores en posición de determinar compras, de manera que si en una solución en particular el primer elemento tiene un valor de 1, la Media Móvil Simple será utilizada para generar señales compra.

Algo similar sucede para los elementos comprendidos entre las posiciones 23 y 44 del vector de soluciones, solo que cuando se presente un 1, indicará que el indicador será empleado para generar señales de venta.  En la Tabla 2 se aprecia el indicador asociado a cada posición del vector.

Tabla 2.  Posición de los indicadores dentro de la solución actual
Table 2. Position of the indicators inside of current solution

Cada solución representa, entonces, una combinación de indicadores que se ponen a operar en el mercado para generar señales de compra y de venta de manera conjunta.  Para que se genere una señal de compra, todos aquellos indicadores activos en una solución (es decir, aquellos que tienen un valor de uno en su posición), correspondientes a las posiciones entre 1 y 22, deben llegar a un estado de compra, o dicho de otra manera, todos los indicadores deben comprobar la señal de compra ejercida por uno de ellos.  El día del periodo de análisis en el que se presente dicha situación, se realizará un compra, de acuerdo al modelo de inversión explicado anteriormente.

Con las señales de venta ocurre lo mismo.  Aquellos elementos comprendidos entre 23 y 44 que tomen un valor de 1 serán empleados de manera conjunta para generar señales de venta cuando en un periodo todos ellos presenten un estado de venta.  De tal manera que posterior a una señal de compra, solo se cerrará la posición hasta que todos los indicadores hayan confirmado la señal de venta.

4.5.2.2 Atributos.
Se entiende como atributo, para esta simulación, el cambio de valor para un determinado elemento en una solución en particular, por ejemplo, si en una solución el ultimo elemento cambió su valor de 0 a 1, esta modificación es un atributo de la dicha solución.

4.5.2.3 Movimiento y generación del vecindario.
Un movimiento es precisamente el cambio de valor para un elemento de la solución.  Es decir, modificar un atributo para generar otra solución genera un movimiento.  Por lo tanto, una solución vecina a la solución actual, es precisamente aquella que se alcanza al cambiar el valor de un elemento de la solución actual.  De acuerdo con esto, el vecindario de la solución actual estará compuesto por 43 soluciones, cada una de las cuales se diferencia en el valor de uno de los elementos.

4.5.2.4 Listas Tabú.
Se generaron para este análisis una lista tabú por atributos y una lista tabú por soluciones visitadas.  La primera de ellas tiene una longitud de 10 elementos, en la cual se recopilan todos aquellos movimientos que generaron una nueva solución actual, es decir, si para llegar a la solución actual fue necesario cambiar de 1 a 0 el valor del elemento 10, dicho elemento no podrá volverse a cambiar de valor hasta que haya pasado un periodo de 10 iteraciones (es decir, el periodo tabú es de 10 iteraciones).

La segunda lista tabú almacena todas las soluciones visitadas (soluciones actuales), las cuales no pueden ser retomadas durante el transcurso de la búsqueda tabú, a menos que sean óptimos locales y bajo las condiciones que se explican en el apartado 4.5.2.6 Intensificación y Diversificación basadas en frecuencias.

4.5.2.5 Criterios de aspiración.
Siempre que una solución que presenta un atributo considerado como tabú genere una rentabilidad mayor a la solución actual y no exista ninguna otra solución en el vecindario que presente esta característica, se permitirá realizar el movimiento considerado tabú.

4.5.2.6 Estrategias de Intensificación y Diversificación basadas en frecuencias.
Para mejorar el desempeño de la búsqueda, se desarrollaron una estrategia de intensificación y una de diversificación.  La primera solución de la búsqueda se genera de manera aleatoria; a partir de ella, se generan nuevas soluciones de manera iterativa y se va pasando a las que mejoren la rentabilidad dentro de cada vecindario.  Cuando se llegue a un vecindario donde no se encuentre un movimiento de mejora, es decir que se encontró un óptimo local, se retoma la búsqueda desde la solución inicial y se realiza una nueva exploración donde sólo se permite la participación de elementos que hayan mostrado frecuencias superiores al 50% (Intensificación), claro está que no se permite volver a soluciones visitadas en el pasado.

Cuando se llegue a la situación donde la única solución que genera una rentabilidad mayor a la mostrada por la solución actual es alcanzada por la introducción de un elemento con una frecuencia baja, se permitirá la entrada de este elemento.

Al llegar a un vecindario donde ninguna de las soluciones mejora la rentabilidad de la solución actual (es decir que se encontró un nuevo óptimo), la búsqueda se reiniciará desde la misma solución desde la cual se reinició en el proceso de Intensificación, pero en este caso se comienzan a generar soluciones con la participación de elementos que presenten una frecuencia inferior al 20% (Diversificación local). 

Cuando en el desarrollo de dicho proceso se llega a un nuevo óptimo local, se genera una nueva solución de forma aleatoria y se reinicia el proceso repitiendo el proceso que se acabó de describir.

 

5. RESULTADOS

A continuación se presentan los resultados obtenidos en las 4 simulaciones que tratan de dar respuesta a las 3 preguntas de investigación planteadas los cuales motivaron el desarrollo de este segundo texto, y encontrando patrones importantes para ser tenidos en cuenta a la hora de diseñar Sistemas de Operación.

5.1 Combinación de un seguidor de tendencia y un oscilador mediante el uso del VHF y el ADX.
Los indicadores que mostraban rendimientos negativos al ser probados de manera individual [ver Zuluaga y Velásquez (2005)], logran tener rendimientos en algunas de las combinaciones, al emplearse el VHF para determinar periodos de tendencia y de trading (véase Figura 1).  En términos generales, los indicadores logran obtener rendimientos mayores en alguna de sus combinaciones, aunque como sucede con el Estocastico de Lane o el Índice de Demanda, algunos otros ven resignadas sus ganancias.


Figura 1.
Combinaciones utilizando el filtro VHF, sin costos no activo libre riesgo
Figure 1. Combinations using the VHF filter, without costs risk-free

Al emplear el ADX, se aprecia como todos los indicadores mejoran su desempeño, excepto la ROC y el Índice de Demanda y en el caso particular de ser combinados con el Índice de Demanda la mejora es ostensible; todos alcanzan rendimientos superiores al 49%, algunos incluso superiores al 60% como es el caso de las Medias Dobles Simples, las Dobles Ponderadas y el TRIX. (véase Figura 2)


Figura 2.
Combinaciones utilizando el filtro ADX, sin costo ni activo libre de riesgo
Figure 2. Combinations using the ADX filter, without without costs risk-free

A pesar del mejoramiento del rendimiento de algunos indicadores, queda la sensación de que el efecto generado es una compensación de aquellos indicadores que tienen un buen desempeño, sobre las bajas rentabilidades generadas por aquellos que no operan tan bien.

5.2 Operación durante los periodos de teóricamente mejor desempeño.
Los indicadores que habían presentado rentabilidades negativas al ser empleados individualmente, mejoraron levemente al utilizarse en los periodos para los que son diseñados; pero aquellos que habían tenido un rendimiento positivo especialmente los más altos, vieron significativamente disminuida su rentabilidad, como es el caso del Oscilador de Precio, el Momentum y el Índice de Demanda, los tres que habían obtenido las mayores rentabilidades (véase Figura 3).


Figura 3.
Rendimientos obtenidos para los indicadores VHF y ADX
Figure 3. Obtained returns  for VHF and ADX indicators

La utilización de indicadores Filtros puede resultar importante, de forma que se combinen dos indicadores de alto desempeño de cada uno de estos grupos, de manera que los bajos rendimientos en algunos periodos de uno de ellos sean cubiertos por los buenos desempeños del otro.  Aunque se arriesgue a perder ganancias más altas, se cubre de los malos desempeños de un único indicador.

Se aprecia también un mejor rendimiento en la mayoría de indicadores al emplearse el ADX en vez del VHF. En algunos la diferencia es superior al 15%, como es el caso del índice de Demanda, el BVF, el TRIX, entre otros.

5.3 Combinaciones de un seguidor de tendencia y un oscilador ante costos de transacción e inversión en activos libres de riesgo.
Al incluir en este análisis los costos de transacción y la inversión en el activo libre de riesgo (Figura 4), se aprecia como para todos los indicadores, salvo el Índice de Demanda, existe una combinación con un rendimiento mejor, o al menos igual al presentado de forma individual.


Figura 4.
Combinaciones utilizando el filtro VHF, con costos e inversión libre de riesgo
Figure 4. Combinations using the VHF filter, without costs and investrment risk-free

Con el ADX, nuevamente casi todos los indicadores encuentran mejoras significativas con al menos una combinación respecto al desempeño mostrado individualmente (Figura 5). Solo el Momentum y el Índice de Demanda ven reducidas sus rentabilidades, aunque el segundo de ellos en una mínima proporción a diferencia del primero que si sufre una disminución considerable.


Figura 5.
Combinaciones utilizando el ADX, con costos e inversión libre de riesgo
Figure 5. Combinations using the ADX filter, with costs and investment risk-free

5.4 Optimización Combinatoria
Para complementar el estudio de la aplicabilidad de los Indicadores Técnicos en el Mercado Cambiario Colombiano, es necesario analizar si las combinaciones de varios de ellos, sin la presencia de indicadores Filtros, pueden generar buenas rentabilidades.

Como se explicó anteriormente (Sección 4.4 Optimización Combinatoria), el trabajo inicialmente se intentó desarrollar para todas las posibles combinaciones de los 44 indicadores (los 22 originales empleados para generar señales de venta y de compra independientemente), pero a pesar de la ayuda de la Búsqueda Tabú, después de varias pruebas de 2000 iteraciones a partir de soluciones aleatorias, se apreció que existían gran cantidad de soluciones que generaban rentabilidades iguales cero o muy bajas, especialmente las que implican la utilización de grandes cantidad de indicadores para generar las señales de compra o de venta, debido a la dificultad de que 10, 12 y más indicadores estén en el mismo estado (en compra o en venta) al tiempo.  Además, debido a que son permisibles los movimientos de no mejora, la búsqueda se quedaba enfrascada en vecindarios muy amplios en los cuales la entrada o salida de un indicador a una posición de compra o de venta no generaba soluciones mejores, especialmente en aquellos donde existen muchos indicadores activos, demandando demasiado tiempo para encontrar soluciones de mayor rentabilidad.

Ante dicha situación, lo primero que se intentó fue impedir recurrir a movimientos de no mejora; pero lo que se logró es que se encontraran óptimos locales más rápido y que pasara la búsqueda a otras zonas al generar nuevas soluciones aleatoriamente, pero muchas de estas zonas no poseían soluciones satisfactorias.

Esto obligó, entonces, a que se recurriera a la opción de eliminar los indicadores que presentaron un bajo desempeño en los análisis anteriores, de manera que se limitara la posibilidad de: primero, caer en soluciones que utilicen gran cantidad de indicadores, y segundo, de generar tantas soluciones de bajo desempeño, mejorando en términos generales el espacio muestral; claro está que bajo el riesgo de suprimir combinaciones que generen buena rentabilidad, aunque aparentemente se ve muy complicado que los indicadores que en pruebas anteriores tuvieron un pobre desempeño, motiven la producción de combinaciones exitosas.

Los indicadores eliminados fueron:  la Media Móvil Simple, la Media Ponderada, la Media Exponencial, el Movimiento Parabólico (SAR), el %R de Larry Williams, el RSI, el RVI, NVI, el PVI, el OVC. En la Tabla 3 se aprecia como quedaron conformadas las nuevas soluciones.   El nuevo espacio muestral está conformado por 224 soluciones, es decir, 16’777.216 posibles combinaciones y los vecindarios de las soluciones van a estar formados, entonces, por 23 soluciones.

Tabla 3.  Posición de los indicadores dentro de la solución actual
Table 3. Position of the indicators inside of current solution

Luego de realizar los cambios mencionados se realizaron corridas de pruebas de 2000 iteraciones, en las cuales se comenzaron a ver resultados.

En la Tabla 4 se aprecian algunos óptimos locales de una de estas corridas.  Como se puede apreciar, la máxima rentabilidad alcanzada por este proceso de búsqueda fue de 23.69% con una solución conformada por Medias Simples Dobles, Medias Ponderadas Dobles, el Oscilador de Precio y el Momentum para generar señales de compra, y Medias Exponenciales Dobles, el Oscilador de Precio, el MACD, la ROC, el Estocástico, el Estocástico Lento y el Índice de Demanda empleados para originar señales de venta.  Al observar el óptimo que presentó la segunda mejor rentabilidad, se puede ver que los indicadores que conforman la parte de la generación de señales de venta son prácticamente los mismos, a excepción del BVF que es incluido por esta solución; pero también se aprecia que la estructura de compra es algo diferente.  Si se continúa el ejercicio y se mira el tercer mejor óptimo, se puede ver como está solución presenta mayores diferencias con respecto a las otras, por lo que se puede concluir que soluciones con estructuras distintas pueden presentar rendimientos muy semejantes.

Tabla 4. Óptimos locales para una Búsqueda Tabú de 2.000 iteraciones
Table 4. Local optima for Tabu Search with 2.000 iterations

Es más, cada uno de los valores de rendimientos de los óptimos pueden ser alcanzados por distintas soluciones, siendo también óptimos en otras regiones del espacio muestral (recordando que no se están permitiendo los movimiento de no mejora), como se puede apreciar en la tercera columna de la Tabla 4 (Número de óptimos con igual rendimiento).  Dicha columna presenta el número de óptimos que también originaron dicha rentabilidad.  Con el fin de reducir la extensión de la información presentada para evitar saturaciones, solo se presentan los óptimos de algunos niveles de rentabilidad y para cada nivel se muestran solo uno de los que lo alcanzaron: el que presenta menor cantidad de indicadores, debido a que siempre es preferible, operacionalmente hablando, trabajar con el menor número de ellos.

Si se observa la fila de la rentabilidad de valor 18.27%, se puede ver que ésta es alcanzada por 56 soluciones óptimas distintas, lo cual confirma lo planteado en las pruebas de la búsqueda con 44 indicadores, donde se afirmaba que existían zonas del espacio muestral muy extensas que presentaban una rentabilidad muy similar, justificando la decisión de impedir los movimientos de no mejora, aunque también el encontrar tanto óptimos de igual rentabilidad se ha originado precisamente por esta misma medida, dado que cuando la búsqueda llegar a una solución sin un vecino que mejore su rentabilidad, se retoma en las estrategias de intensificación y diversificación, la solución inicial que desató la trayectoria hasta este óptimo, generando nuevas trayectorias que convergen en óptimos en la misma zona.  Además la extensión de estas zonas pudo producir que al reiniciar de soluciones distintas, determinadas aleatoriamente, algunas trayectorias convergiera a óptimos en ellas.

Por ende, puede afirmarse que el efecto de la decisión de sacar del análisis los indicadores de bajo desempeño y el impedir los movimiento de no mejora, es el de reducir el tamaño de las extensas zonas de estancamiento de la rentabilidad, además sacó del espacio muestral zonas (también de gran tamaño) que no presentaban rendimientos significativos, y aunque aumentó el número de óptimos por cada rentabilidad presentada, llevó a la búsqueda a dejar de divagar por estos vecindarios sin logran una mejora, debido a que redujo la longitud de las trayectorias a través de ellos.

Posteriormente se realizó una simulación en la cual se llevaron a cabo 10.000 iteraciones, en la cual se apreció un comportamiento similar a la de la prueba anterior.  La rentabilidad mayor obtenida en esta simulación fue de 29,49%, la cual fue alcanzada por cuatro óptimos diferentes  (ver Tabla 5).

Tabla 5. Óptimos de mayor rendimiento, Búsqueda Tabú de 10.000 iteraciones
Table 5. Best optimal points. Tabu Search using 10.000 iterations

Luego de realizada una simulación de 10.000 iteraciones la búsqueda solo pudo converger hasta un óptimo con una rentabilidad de 29,49%, la cual es cercana a la mostrada en la simulación anterior (23.69%) donde sólo se habían realizado 2000 iteraciones, lo que muestra que gran cantidad de soluciones generan rentabilidades entre 20% y 30% y que es necesario emplear mayores recursos (computacionales y tiempo) para lograr una solución con una mejora significativa.

En la Tabla 6 se presentan algunas soluciones visitadas en una tercera simulación realizada, la cual comprende 2500 iteraciones.  Esta simulación comprueba el hecho que la Búsqueda converge fácilmente a una rentabilidad alrededor del 29%.  También puede apreciarse, como en los resultados de las otras simulaciones, que la Búsqueda genera una importante cantidad de óptimos con entre 9 y 13 indicadores activos que presentan las mejores rentabilidades, de lo que puede deducirse que en términos generales, combinaciones de entre 4 y 7 indicadores empleados para confirmar entre ellos señales de compra o de venta (recuerde que son entre 9 y 13 indicadores, pero unos generan señales de venta y los otros de compra), genera rentabilidad debido a que dichas señales se obedecen cuando todos los indicadores están de acuerdo, es decir, cuando la señal es muy clara, por lo que se reduce el efecto de la volatilidad del mercado, aunque se ven reducidas las ganancias comparadas con las que se pueden generar con la utilización de los indicadores individualmente.  Esta situación es fruto de la demora para que todos los indicadores confirmen la señal, lo que genera la perdida de la primera parte de la posición disminuyendo las posibles rentabilidades.

Tabla 6. Algunas soluciones para una tercera simulación con 2.500 iteraciones
Table 6. Any solutions for the third simulation using 2.500 iterations

Pero también se aprecia en la Tabla 6 que no es suficiente el hecho de que sean varios los indicadores empleados para garantizar que se obtienen rendimientos.  En la primera fila de dicha tabla se presenta una solución conformada por 15 indicadores, la cual genera una perdida del 0.92%.  Es posible que este hecho sea el resultado del desfase en la generación de los periodos de compra y de venta de los indicadores, de manera que una determinada combinación de ellos (como la de esta solución), genere muy pocas señales o de muy corta duración, por lo que la inversión se realiza en muy pocos periodos y no se alcanza a acumular ganancias.

En cuanto a los indicadores es difícil concluir, debido a que combinaciones con diferencias considerables logran obtener rendimientos similares.  Lo recomendable es procurar que esas combinaciones, a la hora de generar un Sistema de Operación, estén construidas con aquellos indicadores que como el Momentum, la ROC, el Oscilador de Precio, el Índice de Demanda o las Medias Dobles, especialmente las Exponenciales, han mostrado obtener rentabilidades en los análisis elaborados en este trabajo, lo cual se puede confirmar al observar las filas dos, tres y cuatro de la Tabla 6 donde se presentan soluciones con 4, 5 y 6 indicadores activos que generan una rentabilidad del 22.56%.

 

6. CONCLUSIONES Y TRABAJO FUTURO

La utilización de indicadores determinantes de periodos de tendencia y de trading, especialmente del ADX, mejoran en general la rentabilidad cuando se generan combinaciones de seguidores de tendencia y osciladores, comparándola con la obtenida de manera individual, aunque en el caso de los indicadores que individualmente generan un alto rendimiento,  la reducen.  Este tipo de combinaciones reduce la volatilidad de la rentabilidad que se puede obtener con los indicadores de manera individual. 

Al emplearse estos mismos indicadores (VHF y ADX) para determinar los periodos teóricamente adecuados para el funcionamiento de los indicadores, no se obtiene un sistema de operación adecuado, debido a que se disminuye la rentabilidad ostensiblemente.

Las estrategias basadas en la utilización simultanea de un gran número de indicadores (diez y más) para que determinen señales de compra y venta no generan rentabilidades por la dificultad que todos estén en la misma condición (compra o venta) al mismo tiempo.

Gran cantidad de combinación de varios indicadores diferenciados de forma que algunos determinen señales de compra y otros de venta, generan rentabilidades; pero al igual que sucede con el ADX y el VHF,  se disminuye los valores extremos al disminuir la volatilidad de la rentabilidad, lo que libra de la obtención de pérdidas, pero que cohíbe la posibilidad de obtener grandes ganancias.

Es difícil concluir sobre la mejor combinación, pero es recomendable que sean realizadas con base a indicadores como el Índice de Demanda, el Oscilador de Precio, el Momento, el ROC, o las Medias Móviles Dobles, especialmente las Exponenciales; los cuales mostraron el mejor desempeño en la mayor parte de los análisis realizados.

Con el propósito de generar la mayor cantidad de información sobre el mercado y sobre las herramientas para generar estrategias de inversión, es pertinente el estudio de parámetros que den mayor importancia a los movimientos de largo plazo a la hora de construir los indicadores, de manera que se determine si la reducción de los efectos de los movimientos de corto plazo permite generar mayores ganancias en el Mercado Cambiario Colombiano.

Otro aspecto importante de considerar en estudios posteriores sería la utilización de estrategias mas construidas de negociación como la inclusión de niveles de stop-loss o de bandas, entre muchas otras; así como el análisis sobre otras herramientas del Análisis Técnico, como las Velas Japonesas, las Ondas de Eliot y las Bandas de Bollinger.

También es importante recomendar la utilización de otras herramientas de Inteligencia Artificial como los Algoritmos Genéticos y las Redes Neuronales, de manera que se puedan realizar estudios sobre los instrumentos del Análisis Técnico, especialmente sobre una amplia gama de combinaciones de ellos, al ser aplicadas a los mercados financieros colombianos.

 

7. BIBLIOGRAFÍA        [ Links ][2]DÍAZ FERNÁNDEZ, Adenso et al. Optimización Heurística y Redes Neuronales. Madrid, España: Paraninfo, 1996. 235 p.         [ Links ][3]GLOVER, Fred. Búsqueda Tabú. En: DÍAZ FERNÁNDEZ, Adenso et al. Optimización Heurística y Redes Neuronales. Madrid, España: Paraninfo, 1996. p. 105-142.         [ Links ][4]Future paths for integer programming and links to artificial intelligence. En Computers and Operations Research. [online]. Vol. 13, No 5 (1986). [cited 6 of December of 2004]. p 533-549. Available from Internet: http://spot.colorado.edu/~Glover/publications.html. [5]MELIÁN, Belén. Búsqueda Tabú. En: Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial. [en línea]. No 19 (2003). [citado el 6 de diciembre de 2004]. p 29-48. ISSN: 1137-3601 Disponible en Internet: http://sensei.lsi.uned.es:8000/cgi-bin/aepia/porArea.pl.         [ Links ][6]ISAKOV, Dušan y HOLLISTEIN, Marc. Application of simple technical trading rules to Swiss stock prices. Is it profitable? [online]. s.1.: International Center for Financial Asset Management and Engineering (FAME), 1999. [cited 30 of October of 2004]. Available from Internet: http://www.fame.ch/index.cfm?page=/fame/faculty_research/research_paper_series/complete_list/paper_2. [7]MELIÁN, Belén; MORENO PÉREZ, José A y MORENO VEGA, J. Marcos. Metaheurísticas : Una Visión Global. En: Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial. [en línea]. No 19 (2003). [citado el 6 de diciembre de 2004]. p 7-28. ISSN: 1137-3601 Disponible en Internet: http://sensei.lsi.uned.es:8000/cgi-bin/aepia/porArea.pl.         [ Links ]