[1] 1 4 1 2 5 3 6 2 3 3
Una función matemática es una regla que asigna a cada elemento de un conjunto de entrada exactamente un elemento de un conjunto de salida.
Una función \(f\) se representa como:
\[ \begin{align*} f : X &\rightarrow Y \\ x &\rightarrow f(x) \end{align*} \]
Donde:
Considera la función \(f(x) = x^2\). El conjunto de entrada son los números reales \(\mathbb{R}\) y el de salida los reales positivos. Esta función se denota así:
\[ \begin{align*} f : X &\longmapsto Y \\ x &\longmapsto x^2 \end{align*} \]
Para el desarrollo de técnicas de inferencia estadística, es conveniente relacionar directamente los resultados de un experimento aleatorio con números reales, ya que con tal asociación el análisis de las características de interés es más productivo.
Dependiendo de si la variable resultante es discreta (solo pueden adoptar un número finito o una infinidad enumerable de valores) o continua (los valores están asociados con una escala continua de medición), es posible describir su comportamiento probabilístico a partir de la función de probabilidad o de la función de densidad, respectivamente.
Además, por medio de estas funciones es posible calcular todo tipo de medidas (e.g., tendencia central) a nivel poblacional. En este contexto, tales medidas se denominan parámetros.
Una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio.
Así una variable aleatoria \(X\) es una función cuyo dominio es \(\Omega\) y recorrido \(\mathbb{R}\), que asigna un único número real a cada resultado del espacio muestral \(\Omega\) de un experimento aleatorio.
\[ \begin{align*} f : \Omega &\longmapsto \mathbb{R} \\ \omega &\longmapsto X(\omega) \end{align*} \]
Las variables aleatorias pueden ser de dos tipos dependiendo su recorrido: discretas o continuas.
Discretas: Cuando su recorrido es numerable. Un buen ejemplo de variables discretas son los conteos, como el número de casos incidentes de SarsCov2 en un mes determinado.
Continuas: Cuando su recorrido es no numerable, es decir cuando entre dos valores de la variable hay infinitos posibles valores de ésta, como por ejemplo la longitud(m) y la temperatura \(\left({ }^{\circ} \mathrm{C}\right)\).
Las variables aleatorias se simbolizan, generalmente, con letras mayúsculas \(X, Y\) y \(Z\). Se utiliza su correspondiente letra minúscula (en este caso \(x, y, z\) ) para designar sus posibles valores. Por ejemplo, si \(X\) representa la v.a. “número de caras obtenido” que pueden resultar al lanzar una moneda tres veces consecutivas, entonces, sus valores son \(x=0,1,2,3\).
Al arrojar dos dados, sabemos que la suma \(X\) de los puntos que caen hacia arriba debe ser un número entero entre 2 y 12, pero no podemos predecir que valor de \(X\) que aparecerá en el siguiente ensayo, por lo que decimos que \(X\) es una variable aleatoria que toma valores entre 2 y 12.
Así:
\[ \Omega=\{(c, c, c),(c, c, s),(c, s, c),(c, s, s),(s, c, c) \]
\[ \quad\quad,(s, c, s),(s, s, c),(s, s, s)\} \]
y \(X\) es una v.a. discreta con valores: \[ X((c, c, c))=3, X((c, c, s))=2, X((c, s, c))=2, X((s, c, c))=2, \\ X((s, s, c))=1, X((s, c, s))=1, X((c, s, s))=1 \mathrm{ y } X((s, s, s))=0 \]
La función de probabilidad o función másica de probabilidad de una variable aleatoria discreta describe teóricamente la forma en que varían los resultados de un experimento aleatorio. Intuitivamente se trataría de una lista de los resultados posibles de un experimento con las probabilidades que se esperarían ver asociadas con cada resultado.
Es decir, nos da todas las probabilidades de todos los posibles resultados que podrían obtenerse cuando se realiza un experimento aleatorio.
La función de densidad de una variable aleatoria \(X\) se denota \(f_X (x)\).
Cualquier función de probabilidad satisface que:
Continuando con el ejemplo anterior, se tiene que la función de densidad de la variable es: \[ \begin{aligned} & f_X(0)=\mathrm{P}(X=0)=\operatorname{Pr}((s, s, s))=\frac{1}{8}=0.125, \\ & f_X(1)=\mathrm{P}(X=1)=\operatorname{Pr}(\{(c, s, s),(s, c, s),(s, s, c)\})=\frac{3}{8}=0.375, \\ & f_X(2)=\mathrm{P}(X=2)=\operatorname{Pr}(\{(s, c, c),(c, c, s),(c, s, c)\})=\frac{3}{8}=0.375, \\ & f_X(3)=\mathrm{P}(X=3)=\operatorname{Pr}((c, c, c))=\frac{1}{8}=0.125 . \end{aligned} \]
Además, se observa que:
\[ \begin{aligned} \sum_{k=1}^4 f_X\left(x_k\right) &= f_X(0)+f_X(1)+f_X(2)+f_X(3) \\ &=0.125+0.375+0.375+0.125=1 \end{aligned} \]
Con \(x_1=0, x_2=1, x_3=2 \text { у } x_4=3\).
La siguiente figura presenta el gráfico de la función de densidad la variable \(X\)
La función de distribución (\(F_X\)) es aquella que calcula la probabilidad acumulada hasta un punto \(x\). Describe la probabilidad de que una variable aleatoria \(X\) sujeta a cierta distribución de probabilidad, se sitúe en la zona de valores menores o iguales a \(x\).
Una función de distribución \(F_X\) de una v.a. discreta \(X\) satisface que:
\(0 \leq F_X(x) \leq 1\).
\[\mathrm{P}(X>x)=1-F_X(x) \text { y } \mathrm{P}(X \geq x)=1-F_X\left(x^{-}\right) .\] donde \(x^{-}\)representa el máximo valor que puede asumir \(X\) estrictamente menor que \(x\).
Volviendo al ejemplo 2, se tiene que: \[ \begin{aligned} & F_X(0)=\mathrm{P}(X \leq 0)=f_X(0)=\frac{1}{8}=0.125 \\ & F_X(1)=\mathrm{P}(X \leq 1)=f_X(0)+f_X(1)=\frac{1}{8}+\frac{3}{8}=\frac{4}{8}=\frac{1}{2}=0.5 \\ & F_X(2)=\mathrm{P}(X \leq 2)=f_X(0)+f_X(1)+f_X(2)=\frac{1}{8}+\frac{3}{8}+\frac{3}{8}=\frac{7}{8}=0.875 \\ & F_X(3)=\mathrm{P}(X \leq 3)=f_X(0)+f_X(1)+f_X(2)+f_X(3)=\frac{1}{8}+\frac{3}{8}+\frac{3}{8}+\frac{1}{8}=\frac{8}{8}=1 . \end{aligned} \]
El valor esperado de una variable aleatoria \(X\) discreta, denotado por \(E(X)\), representa el centro de gravedad de la distribución de \(X\).
Por ejemplo, si \(X\) toma los valores \(\{0,1,2,3\}\), entonces
\[ E(X) = \sum_{k=0}^3 k\ \mathrm{P}(X = k)\] \[= 0\ \mathrm{P}(X = 0) + 1\ \mathrm{P}(X = 1) + 2\ \mathrm{P}(X = 2) + 3\ \mathrm{P}(X = 3) \]
En general,
\[ E(X) =\sum_{k=0}^n k\ f_X(k) \]
Note que entonces \(E(X)\) es el promedio de los valores que puede tomar \(X\) ponderados por las probabilidades de cada uno de esos valores.
La media muestral tiende a \(E(X)\) a medida que aumenta el tamaño de la muestra.
El valor esperado es lineal: \(E(aX + b) = aE(X) + b\)
Sea \(X\) la variable aleatoria que representa el resultado de lanzar un dado. Es decir, toma los valores \(k=1, 2, \ldots, 6\), cada uno con probabilidad \(f_X(k) = \frac{1}{6}\). El valor esperado de \(X\) es:
\[ E(X) = \sum_{k=1}^6 k\ f_X(k) = \] \[ = 1\ \frac{1}{6} + 2\ \frac{1}{6} + 3\ \frac{1}{6} + 4\ \frac{1}{6} + 5\ \frac{1}{6} + 6\ \frac{1}{6} \]
\[ =\frac{1}{6}(1+2+3+4+5+6) = \frac{1}{6}21=\frac{21}{6} = 3.5 \]
Además, pondremos a prueba la propiedad de la media. A continuación se presentan los resultados obtenidos de lanzar un dado diez veces:
[1] 1 4 1 2 5 3 6 2 3 3
Calcule ahora, el promedio de los dos primeros valores, luego el de los tres primeros, a continuación el de los cuatro primeros, y así sucesivamente hasta calcular el promedio del los 10 primeros valores, es decir, todos.
El resultado es el siguiente:
[1] 1.000000 2.500000 2.000000 2.000000 2.600000 2.666667 3.142857 3.000000
[9] 3.000000 3.000000
Observe que a medida que se agregan más lanzamientos del dado al promedio, éste se va acercando al valore esperado (3.5). Si se calcula el promedio de 100 lanzamientos aleatorios, se obtiene:
[1] 3.52
con mil lanzamientos…
Entonces concluimos que el valor esperado de \(X\) es ese “promedio en el infinito” de la variable aleatoria.
\(\newcommand{\Var}{\mathrm{Var}}\) Así como la media muestral tiende al valor esperado \(E(X)\), la varianza muestral también tiende a un parámetro de la variable aleatoria, puntualmente a la varianza de la variable aleatoria: \(\Var(X)\). Se define así:
\[ \operatorname{Var}(X) = \sum_{k=0}^n (k - E(X))^2 f_X(k) \]
¿Qué similitudes identifica con la fórmula del valor esperado?
¿Qué similitudes identifica con la fórmula de la varianza muestral?
Sea \(X\) la variable aleatoria que representa el resultado de lanzar un dado. Es decir, toma los valores \(k=1, 2, \ldots, 6\), cada uno con probabilidad \(f_X(k) = \frac{1}{6}\). Sabiendo que \(E(X)=3.5\), la varianza de \(X\) es:
\[ \operatorname{Var}(X) = \sum_{k=1}^6 (k - 3.5)^2\ \frac{1}{6} \] \[ = (1 - 3.5)^2\frac{1}{6} +(2 - 3.5)^2\frac{1}{6} + \cdots + (6 - 3.5)^2\frac{1}{6} \]
\[ = \frac{1}{6}\left[(1 - 3.5)^2 + \cdots + (6 - 3.5)^2\right] \]
\[ = \frac{1}{6}17.5 = 2.91\bar{6} \]
De la misma manera en que se hizo con el valor esperado, verificaremos que la varianza muestral se acerca cada vez más a la varianza de la variable aleatoria a medida que se lanza más veces el dado:
La función de densidad de una variable aleatoria continua es similar a como definimos a la función de probabilidad anteriormente para variables discretas, también describe teóricamente la forma en que varían los resultados de un experimento aleatorio y se denota \(f_X(x)\).
Sin embargo, cuando la variable aleatoria es continua hay infinitos valores posibles de la variable y por ende, la probabilidad de obtener un valor puntual es cero, esto es:
\[P(X=x)=0, \quad \text{ para todo } x \in \mathbb{R} \]
Consideremos la variable aleatoria \(X :=\) “estatura en metros de los estudiantes del curso de estadística social fundamental”. Suponiendo que sigue una distribución de probabilidad específica, la probabilidad de que algún estudiante mida entre 1.55m y 1.63m está dada por la siguiente área:
La probabilidad de que algún estudiante mida entre 1.55m y 1.63m sería
Al igualque en el caso discreto, en el caso continuo la función de distribución (\(F_X\)) es aquella que calcula la probabilidad acumulada hasta un punto \(x\). Describe la probabilidad de que una variable aleatoria real \(X\) sujeta a cierta distribución de probabilidad se sitúe en la zona de valores menores o iguales a \(x\). También se denota \(F_X(x)\)
Siguiendo con el ejemplo anterior, calculemos la probabilidad acumulada hasta la estatura 1.61m, es decir, la probabilidad de que algún estudiante tenga esta estatura o menos.
Así, la probabilidad de que algún estudiante mida 1.61m o menos es:
Estos conceptos en el caso de variables aleatorias son análogos, sin embargo no se presenta la definción matemática puesto que implica conceptos matemáticos externos de los objetivos del curso.
Buitrago, L., & Sosa, J. (s.f.). Introducción a la Estadística. Recuperado de https://rpubs.com/jcsosam/803558
Cohen, B. H., & Lea, R. B. (2004). Essentials of statistics for the social and behavioral sciences. John Wiley & Sons.
Rangel, J. (2022). Introducción a la estadística descriptiva [Diapositivas de presentación].
Peña, D. (2014). Fundamentos de estadística. Alianza editorial.