Share on twitter
Share on linkedin
Share on telegram
Share on facebook
Share on whatsapp
Share on email

Introducción a la econometría

La econometría es la rama de la economía que basa sus estudios en modelos matemáticos y estadísticos. Esta rama es la que, generalmente, los quants o analistas cuantitativos usan a la hora de trabajar. Todo análisis cuantitativo requiere del uso de la estadística. Algunas definiciones que podemos encontrar en el diccionario de Oxford:

– Estudio que reúne, clasifica y recuenta todos los hechos que tienen una determinada característica en común, para poder llegar a conclusiones a partir de los datos numéricos extraídos.

– Ciencia que utiliza conjuntos de datos numéricos para obtener, a partir de ellos, inferencias basadas en el cálculo de probabilidades.

Definiciones de Oxford Languages

Es decir, la estadística es un conjunto de operaciones y tratamientos que le damos a los datos con el fin de obtener conclusiones y realizar inferencias (predicciones), basándonos en el cálculo de probabilidades.

Durante esta entrada y las siguientes, trataré de explicar todo lo necesario para poder realizar nuestros análisis de datos financieros con rigurosidad, basándonos en evidencias empíricas y obteniendo conclusiones que nos ayuden en la toma de decisiones. En ningún caso pretendo que nos especialicemos en estadística, ni mucho menos, en ocasiones basar nuestro análisis únicamente en modelos estadísticos puede costarnos muy caro. La estadística funciona muy bien para interpretar, gracias a diferentes cálculos y a gráficos podemos llegar a muchas conclusiones sin apenas realizar un estudio en profundidad. Sin embargo, falla muy a menudo en cuanto a predicciones, ya que los modelos matemáticos distan mucho de la realidad y predecir el futuro con datos del pasado en materia social no funciona.

Aclarado esto, en la entrada de hoy vamos a centrarnos únicamente en la parte de la estadística descriptiva. Esta es la rama de la estadística que trata de darle un significado a un conjunto de datos. Es quizás la parte más bonita de la estadística, ya que permite obtener de un conjunto de datos gigante y a través de cuatro cálculos y dos gráficos información muy detallada y clara de lo que está pasando en esos datos. Los datos siempre están contando una historia, siempre hay una situación, una tendencia y el analista tiene que saber ver esa historia, entender la situación y identificar la tendencia.

Diferencias entre población y muestra

Vamos a plantear un problema, de forma que sea comprensible para todo el mundo. Supongamos que queremos saber la proporción de personas rubias que hay en el mundo. Los más brutos habréis pensado en ponernos a contar a todas las personas rubias del mundo y dividirlo entre el total de personas en el mundo, fácil. Sin embargo, es una tarea operativamente muy complicada, te llevaría años terminar de contar y para entonces habrán fallecido personas que antes habías contado, y que ya no deberías de contar, y que habrán nacido otras que no habías contado previamente. Además, supondría un coste muy elevado tener a una persona viajando por todo el mundo, hospedándose durante semanas y pagando sus gastos más un salario que compense ese trabajo. Es una tarea imposible de realizar y muy cara.

Frente a este problema, surgen los conceptos de población y muestra. Siguiendo con el ejemplo, nuestra población lo componen la totalidad de personas en el mundo, mientras que la muestra será un conjunto de personas que deberemos de escoger aleatoriamente y que deberá de ser representativa de la población. Nuestra muestra puede ser España, por ejemplo.

Como digo, son conceptos que se tratan específicamente en la estadística inferencial por lo que más adelante veremos más en detalle esto de población y muestra.

Variables y datos

La estadística, como cualquier problema matemático necesita de unas variables y unos datos, sin ellos no podría funcionar. Las variables sería la característica que varía fruto de nuestro estudio. Por poner otro ejemplo, supongamos que queremos saber los ingresos de una empresa durante los últimos 5 años. La variable sería precisamente eso, los ingresos, que cambia en cada uno de esos años.

Por otro lado, los datos serán todas aquellas observaciones o valores que toman las variables. Serían la cantidad de euros ingresados por esa empresa en cada año.

La clave de la estadística es operar con estos datos para entender lo que la variable que estamos estudiando nos está diciendo. Si comparamos la evolución de la variable en esos 5 años y vemos que cada vez toma un valor menor, podemos ver que los datos apuntan a una tendencia bajista en sus ingresos. Esta es la forma en que variables y datos se relacionan.

Tipos de escalas de medida

Una vez aclarado lo que es un dato y la necesidad de operar con él para poder obtener conclusiones respecto nuestra variable, es hora de utilizar diferentes escalas de medición. Las escalas de medición son las diferentes formas en que unos datos se pueden ordenar u organizar. Esto nos permite clasificar las variables acorde a la naturaleza de los datos que puede tomar la propia variable. Generalmente, nos encontramos con cuatro tipos de escalas de medida:

  • Escala nominal: Se utiliza cuando el dato generalmente se corresponde con una etiqueta o un dato no cuantitativo. Volviendo al ejemplo de la proporción de rubios en el mundo, nuestra variable será medida en una escala nominal ya que el dato que puede tomar será: rubio, moreno, pelirrojo. Estos datos tienen la desventaja de que no podemos ordenar ni comparar los datos que toma la variable, ni realizar operaciones matemáticas. No nos proporciona ningún tipo de información estadística.
  • Escala ordinal: Esta escala se utiliza cuando los datos pueden someterse a un orden concreto. Para entenderlo, volvamos al ejemplo de los ingresos los últimos 5 años de una empresa. Nosotros podemos medir estos datos en una escala ordinal simplemente situando primero los años donde los ingresos hayan sido más elevados. Aquí no tenemos la desventaja de ordenar los datos, pero seguimos sin poder realizar operaciones matemáticas con ellos. Simplemente nos dice que un dato es mejor que otro.
  • Escala de intervalo: Este tipo de escala comparte los beneficios de comparabilidad de la escala ordinal y además incluye una nueva característica como es que la distancia entre dos datos va a ser siempre la misma. Si nos fijamos en un intervalo numérico, por ejemplo, la distancia del 1 al 2 es la misma que del 101 al 102. Así, si consideramos como variable la temperatura de una persona, sabemos que 38º es mayor que 37º, y además la diferencia entre los 38º y los 37º va a ser siempre la misma durante todo el intervalo. La desventaja es que un valor 0 no implica la ausencia de dato, lo cual supone que una temperatura de 30º a pesar de ser el doble de 15º numéricamente, realmente no implica el doble de temperatura.
  • Escala de razón: Finalmente, tenemos la escala de razón. Esta escala de medida es la más detallada y la que más operaciones nos permite realizar. Son datos que se pueden comparar, donde la diferencia entre los valores se mantendrá siempre constante y que parten del 0. El ejemplo más utilizado para esto es comparar el dinero que tienen diferentes empresas en caja. Si la empresa A tiene 500.000 € y la empresa B tiene 250.000 €, sabemos que A tiene más dinero que B y podemos decir también que la empresa A tiene el doble de dinero que la empresa B.

Distribución por frecuencias

Una forma muy utilizada en la estadística para analizar un conjunto de datos es agrupar los datos por rangos bien sea por intervalos de tiempo o por grupos y calcular la frecuencia de cada uno de esos rangos. Esta forma de agrupar los datos es muy potente, especialmente si graficamos los resultados de estos. Nos permite identificar más o menos por donde estará la media de la muestra, si sus datos están muy dispersos o muy concentrados en torno la media – la varianza – y conceptos como la kurtosis o el skew que veremos más adelante.

¿Cómo se construye la distribución por frecuencias?

Los pasos para construir una distribución por frecuencias son siempre los mismos, independientemente de los datos que estemos tratando. Estos son:

  • Paso 1: Definir el intervalo. Lo primero que tenemos que saber es cómo queremos agrupar nuestros datos. Este rango o intervalo tiene que tener un límite superior y un límite inferior y en él entrarán todos los datos que estén dentro de esos limites. Estos intervalos tienen que ser mutuamente excluyentes, es decir, un dato no puede estar en dos intervalos en el mismo momento. De esta forma, un intervalo no puede cruzarse con otro, supongamos que creamos un intervalo donde nuestros datos son ingresos anuales que va desde los 100 mil € y los 149 mil €. En este caso, nuestro siguiente intervalo tendrá que ir desde los 150 mil € en adelante. Otra cosa a tener en cuenta a la hora de crear intervalos es que la diferencia entre el limite inferior y el superior de los intervalos sea siempre constante. Volviendo al ejemplo de antes, no sería recomendable poner el limite superior de los 150 mil € en los 500 mil €. Finalmente, el número de intervalos tiene que reflexionarse con detenimiento ya que un número excesivamente bajo de intervalos supondrá que los datos están excesivamente agrupados y se perdería información importante. Por otro lado, si hacemos demasiados intervalos, los datos no estarían lo suficientemente agrupados y su información no será relevante.
  • Paso 2: Rellenar los intervalos. Una vez los intervalos han sido creados, simplemente hay que rellenarlos con los datos, respetando los limites superior e inferior de cada intervalo.
  • Paso 3: Contar las observaciones. Finalmente, una vez los intervalos han sido creados y rellenados es hora de contar el número de observaciones.
EJEMPLO

Supongamos que tenemos esta serie de observaciones donde nuestra variable es la rentabilidad anual de una empresa en bolsa.

10,4%22,5%11,1%-12,4%
9,8%17,0%2,8%8,4%
34,6%-28,6%0,6%5,0%
-17,6%5,6%8,9%40,4%
-1,0%-4,2%-5,2%21,0%
Datos obtenidos de: Kaplan Schweser 2020 CFA Program Exam Prep
IntervalosObservacionesFrecuencia absoluta
-30% < R < -19,9%-28,6%1
-20% < R < – 9,99%-17,6%, -12,4%2
-10% < R < – 0,1%– 5,2% , -4,2%, -1,0%3
0% < R < 9,9%9,8%, 8,9%, 8,4%, 5,6%, 5,0%, 2,8%, 0,6%7
10% < R < 19,9%17,0%, 11,1%, 10,4%3
20% < R < 29,9%22,5%, 21,0%2
30% < R < 39,9%34,6%1
40% < R < 49,9%40,4%1
Total20
Datos obtenidos de: Kaplan Schweser 2020 CFA Program Exam Prep

Como vemos, la metodología es sencilla y, aunque aparentemente no sea muy útil ya que la información en tablas nunca parece útil, simplemente haciendo un gráfico donde se vea la frecuencia absoluta podremos saber mucho sobre los datos:

Simplemente viendo esto, ya podemos ver que la mayoría de datos están entre una rentabilidad del 0% y del 10%. También vemos que es raro ver rentabilidades por debajo del -20% y por encima del 40%. De esta forma, podemos estimar que la rentabilidad media rondará el 5% y con muy poca probabilidad superará una rentabilidad del 40% ni del -20%.

Otra forma de ver estos datos es a través de la frecuencia relativa, que nos proporcionaría aún más información. Únicamente tendremos que dividir el número de observaciones de cada intervalo entre el número de intervalos totales.

IntervalosFrecuencia absolutaFrecuencia relativa
-30% < R < -19,9%15%
-20% < R < – 9,99%210%
-10% < R < – 0,1%315%
0% < R < 9,9%735%
10% < R < 19,9%315%
20% < R < 29,9%210%
30% < R < 39,9%15%
40% < R < 49,9%15%
Total20100%
Datos obtenidos de: Kaplan Schweser 2020 CFA Program Exam Prep

Así podemos hacer afirmaciones muy parecidas a las anteriores, pero con mayor precisión, como por ejemplo: El 35% de las observaciones están en el intervalo del 0% al 10% y tan solo un 5% de ellas está por debajo del 20% o por encima del 40%.

Conclusión

Con lo visto en la entrada de hoy, hemos comenzado a entrar en el mundo del análisis cuantitativo, conceptos como los vistos hoy se utilizan a diario en análisis de datos financieros y son completamente necesarios. Estos forman la base de lo que veremos en posteriores entradas, sobre todo cuando lleguemos al apartado de estadística inferencial, que será la que nos permita hacer predicciones basándonos en variables como la media, la varianza, la desviación típica, el skew, la kurtosis, entre otros. Estos últimos conceptos son los que trataremos en la próxima entrada

¿Conocías el concepto de econometría? ¿Sabías de la utilidad que tiene la estadística en el mundo financiero? ¿Alguna vez habías oído hablar de estos conceptos? Puedes contestar a estas preguntas en la caja de comentarios y decirme tu opinión al respecto de todo esto o comentarme alguna duda que te haya quedado o posible tema que te gustaría ver en La Ruta del Financiero.

Kevin González

Kevin González

Analista financiero en Gesem AV. Graduado en ADE en la Universidad de Alicante. Master en FIntech y Blockchain en la Universidad Europea.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *