2  Método de Momentos

Nota: El contenido de esta sección es una adaptación al formato Quarto del capítulo 2 sección 2 del libro Introducción a la Estadística Inferencial de Luis Rincón (2019).

El método de momentos es una técnica estadística utilizada para encontrar estimadores de los parámetros de una distribución de probabilidad a partir de los momentos muestrales y fue propuesto por Karl Pearson a principios del siglo XX.

Consideremos nuevamente que \(f(x; \theta)\) es la función de densidad o de probabilidad de una variable aleatoria \(X\) que depende de un parámetro desconocido \(\theta\). Antes de desarrollar el método de momentos es necesario recordar algunos conceptos.

Definición 2.1 Sea \(k\geq 1\) un entero. El \(k\)-ésimo momento de una variable aleatoria \(X\), si existe, es el número \(E(X^k)\).

A los números \(E(X), E(X^2), E(X^3), \ldots\) se les llama momentos poblacionales. En las expresiones de estas cantidades aparece el parámetro o vector de parámetros \(\theta\), los cuales son de interés.

Por otro lado, supongamos que \(X_1, X_2, \ldots, X_n\) es una muestra aleatoria de tamaño \(n\) de la distribución en estudio. Aunque fue enunciada en la sección anterior, se brinda una vez más la definición de momento muestral, pues es fundamental para el desarrollo del método de momentos.

Definición 2.2 Sea \(k\geq 1\) un entero. El \(k\)-ésimo momento muestral de una muestra aleatoria \(X_1, X_2, \ldots, X_n\) es la variable aleatoria

\[M_k = \frac{1}{n} \sum_{i=1}^n X_i^k.\]

Ahora sí estamos en condiciones de enunciar el método de momentos.

TipMétodo de Momentos

El método de momentos consiste en igualar los momentos muestrales con los correspondientes momentos poblacionales y resolver la ecuación, o sistema de ecuaciones resultante, para el parámetro o vector de parámetros, cuando ello sea posible.

Se igualan tantos momentos muestrales y poblacionales como parámetros haya que estimar. A continuación se muestran algunos ejemplos del método de momentos.

Ejemplo 2.1 Sea \(X_1, \dots, X_n\) una muestra aleatoria de la distribución \(\text{Ber}(\theta)\), en donde \(\theta \in (0, 1)\) es un parámetro desconocido. El primer momento poblacional es \(E(X) = \theta\). La igualación de este momento con el primer momento muestral produce la ecuación \(\hat{\theta} = \overline{X}\). Observe que al escribir esta identidad hemos escrito \(\hat{\theta}\) en lugar de \(\theta\).

Si \(x_1, \ldots, x_n\) son los valores numéricos observados, entonces \(\hat{\theta} = \overline{x}\) es el valor estimado para \(\theta\) por el método de momentos.


Ejemplo 2.2 Sea \(X\) una variable aleatoria continua con función de densidad

\[\begin{equation} f(x, \theta) = \begin{cases} \theta x^{\theta-1} & \text{si } 0 < x < 1, \\ 0 & \text{en otro caso}, \end{cases} \end{equation}\]

en donde \(\theta > 0\) es un parámetro desconocido. Supongamos que contamos con una muestra aleatoria \(X_1, \ldots, X_n\) de esta distribución. Puede comprobarse que \(E(X) = \theta/(1 + \theta)\). La igualación de esta esperanza con la media muestral produce la ecuación \(\hat{\theta}/(1 + \hat{\theta}) = \overline{X}\). Observe nuevamente que al escribir esta identidad hemos escrito \(\hat{\theta}\) en lugar de \(\theta\). Resolviendo para \(\hat{\theta}\) se obtiene el estimador

\[\hat{\theta} = \frac{\overline{X}}{1 - \overline{X}}.\]

Si \(x_1, \ldots, x_n\) son los valores numéricos observados, entonces \(\hat{\theta} = \overline{x}/(1 + \overline{x})\) es el valor estimado para \(\theta\) por el método de momentos.


En los ejemplos anteriores sólo ha habido un parámetro por estimar. En el siguiente ejemplo consideraremos un caso importante en donde es necesario estimar dos parámetros.

Ejemplo 2.3 Encontraremos estimadores para los parámetros \(\mu\) y \(\sigma^2\) de una distribución normal mediante el método de momentos. Como se necesitan estimar dos parámetros, se usan los dos primeros momentos. El primer y segundo momentos poblacionales son \(E(X) = \mu\) y \(E(X^2) = \sigma^2 + \mu^2\). La igualación respectiva de estas cantidades con los dos primeros momentos muestrales produce el sistema de ecuaciones

\[\hat{\mu} = \bar{X},\] \[\hat{\sigma}^2 + \hat{\mu}^2 = \frac{1}{n}\sum_{i=1}^n X_i^2.\]

Al hacer la igualación entre los momentos hemos escrito \(\hat{\mu}\) en lugar de \(\mu\) y \(\hat{\sigma}^2\) en lugar de \(\sigma^2\). Se trata ahora de resolver este sistema de ecuaciones para \(\hat{\mu}\) y \(\hat{\sigma}^2\). La primera ecuación es explícita, mientras que la segunda se puede reescribir como sigue

\[\hat{\sigma}^2 = \left(\frac{1}{n}\sum_{i=1}^n X_i^2\right) - \bar{X}^2\]

\[= \frac{1}{n}\sum_{i=1}^n (X_i - \bar{X})^2\]

\[= \frac{n-1}{n}S^2.\]

De esta manera hemos obtenido estimadores por el método de momentos para los dos parámetros de la distribución normal. Si \(x_1, \ldots, x_n\) son las observaciones obtenidas, entonces las estimaciones, por el método de momentos, son

\[\hat{\mu} = \frac{1}{n}\sum_{i=1}^n x_i,\] \[\hat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i - \bar{x})^2.\]


En el siguiente ejemplo se muestran algunos problemas técnicos que pueden surgir al aplicar el método de momentos.

Ejemplo 2.4 Sea \(X\) una variable aleatoria continua con función de densidad \(\text{unif}(-\theta, \theta)\), en donde \(\theta > 0\) es un parámetro desconocido. Aplicar el método de momentos para encontrar un estimador para \(\theta\) requiere conocer el primer momento de esta distribución. Puede comprobarse que el primer momento es nulo, de modo que la igualación del primer momento poblacional y el primer momento muestral no produce una ecuación útil de la cual pueda obtenerse un estimador para \(\theta\). Se propone entonces igualar los segundos momentos. Como \(E(X^2) = \theta^2/3\), se obtiene la ecuación

\[\frac{1}{3}\hat{\theta}^2 = \frac{1}{n}\sum_{i=1}^n X_i^2,\]

de donde se obtiene el estimador

\[\hat{\theta} = \sqrt{\frac{3}{n}\sum_{i=1}^n X_i^2}.\]


2.1 Observaciones Generales

Mostrados ya algunos ejemplos del método de momentos para estimar parámetros, haremos ahora algunas observaciones generales que es bueno tener presente cuando se haga uso de este método.

  • Aplicación. El método de momentos puede aplicarse sin distinción alguna tanto para distribuciones discretas como continuas.

  • Uso de los momentos. La idea fundamental del método hace uso del hecho de que, bajo ciertas condiciones, la sucesión de momentos \(E(X), E(X^2), \ldots\) determina de manera única a la distribución de probabilidad. Observemos que, en general, en las expresiones de estos momentos aparece el parámetro \(\theta\). Por otro lado, la igualación de estos momentos con los momentos muestrales no es extraña, pues por la ley de los grandes números cuando el tamaño de muestra \(n\) es grande, el \(k\)-ésimo momento muestral es cercano (en algún sentido) al \(k\)-ésimo momento poblacional. Por ejemplo, para los dos primeros momentos tenemos que

    \[\frac{1}{n}\sum_{i=1}^n X_i \approx E(X),\] \[\frac{1}{n}\sum_{i=1}^n X_i^2 \approx E(X^2).\]

    Así, los momentos muestrales son usados para determinar, de manera aproximada, la distribución de probabilidad.

  • Existencia de los momentos. El método de momentos presupone que existen y que se pueden encontrar expresiones sencillas para los momentos de la distribución en estudio, y que éstas dependen del parámetro o vector de parámetros a estimar. Estas condiciones no necesariamente se cumplen. Por ejemplo, puede comprobarse que la siguiente distribución no posee ningún momento finito para \(\theta > 0\),

    \[\begin{equation} f(x; \theta) = \begin{cases} \theta x^{-2} & \text{si } x \geq \theta, \\ 0 & \text{en otro caso}. \end{cases} \end{equation}\]

    En este caso el método de momentos no puede aplicarse.

  • Solución al sistema de ecuaciones. El método presupone que la ecuación o sistema de ecuaciones resultante de la igualación de los momentos muestrales y poblacionales tiene una única solución y que ésta es sencilla de encontrar. En general, esto no es así. Cuando se tienen dos o más parámetros, el sistema de ecuaciones puede no ser sencillo de resolver, puesto que las ecuaciones no son necesariamente lineales. Y suponiendo que es posible resolver el sistema de ecuaciones, las expresiones que se encuentran pueden no tener una forma compacta o sencilla. Por ejemplo, considere el caso de la distribución hipergeométrica \(\text{hipergeo}(N, K, n)\), en donde los tres parámetros son desconocidos. El sistema de ecuaciones resultante no es fácil de resolver.

  • Valores del parámetro. El método de momentos no garantiza que el estimador encontrado tome valores en el espacio parametral correspondiente. Por ejemplo, si un parámetro toma valores enteros, el método de momentos no necesariamente produce un estimador con valores enteros. Por ejemplo, si consideramos que el parámetro \(p\) es conocido en la distribución \(\text{bin}(k, p)\) y deseamos estimar el parámetro desconocido \(k\) mediante el método de momentos, entonces es inmediato encontrar la solución \(\hat{k} = \bar{X}/p\), lo que no necesariamente produce un valor entero.

2.2 Tablas de Estimadores

En las siguientes tablas se muestran los estimadores por el método de momentos para los parámetros de algunas distribuciones conocidas. Se ha supuesto que \(X_1, \ldots, X_n\) es una muestra aleatoria de tamaño \(n\). Para hacer las fórmulas cortas se utiliza la siguiente notación cuando ambos momentos aparecen en la fórmula:

\[m_1 = \frac{1}{n}\sum_{i=1}^n X_i, \quad m_2 = \frac{1}{n}\sum_{i=1}^n X_i^2.\]

Es necesario notar que se indica únicamente el resultado producido por el método de momentos, sin garantizar que el estimador tome valores en el espacio parametral correspondiente. Por su complejidad, se ha omitido de estas tablas la distribución hipergeométrica \(\text{hipergeo}(N, K, n)\).

\[\begin{equation} \begin{array}{|l|c|l|} \hline \textbf{Distribución} & \textbf{Parámetro(s)} & \textbf{Estimador(es)} \\ \hline \text{unif}\{1, \ldots, k\} & k \in \{1, 2, \ldots\} & \hat{k} = 2\bar{X} - 1 \\ \hline \text{Ber}(p) & p \in (0, 1) & \hat{p} = \bar{X} \\ \hline \text{bin}(k, p) & k \in \{1, 2, \ldots\} & \hat{k} = \frac{m_1^2}{m_1 - (m_2 - m_1^2)} \\ & p \in (0, 1) & \hat{p} = 1 - \frac{m_2 - m_1^2}{m_1} \\ \hline \text{geo}(p) & p \in (0, 1) & \hat{p} = \frac{1}{1 + \bar{X}} \\ \hline \text{bin neg}(r, p) & r \in \{1, 2, \ldots\} & \hat{r} = \frac{m_1^2}{m_2 - m_1^2 - m_1} \\ & p \in (0, 1) & \hat{p} = \frac{m_1}{m_2 - m_1^2} \\ \hline \text{Poisson}(\lambda) & \lambda \in (0, \infty) & \hat{\lambda} = \bar{X} \\ \hline \end{array} \end{equation}\]

Tabla 2.1: Algunos estimadores por el método de momentos (Distribuciones Discretas)

\[\begin{equation} \begin{array}{|l|c|l|} \hline \textbf{Distribución} & \textbf{Parámetro(s)} & \textbf{Estimador(es)} \\ \hline \text{unif}(a, b) & a < b & \hat{a} = \frac{4m_1^2 - 3m_2}{2m_1 - 1} \\ & & \hat{b} = \frac{3m_2 - 2m_1}{2m_1 - 1} \\ \hline \text{exp}(\lambda) & \lambda \in (0, \infty) & \hat{\lambda} = \frac{1}{\bar{X}} \\ \hline \text{gama}(\gamma, \lambda) & \gamma \in (0, \infty) & \hat{\gamma} = \frac{m_1^2}{m_2 - m_1^2} \\ & \lambda \in (0, \infty) & \hat{\lambda} = \frac{m_1}{m_2 - m_1^2} \\ \hline N(\mu, \sigma^2) & \mu \in (-\infty, \infty) & \hat{\mu} = \bar{X} \\ & \sigma^2 \in (0, \infty) & \hat{\sigma}^2 = \frac{n-1}{n}S^2 \\ \hline \text{beta}(a, b) & a \in (0, \infty) & \hat{a} = \frac{m_1(m_1 - m_2)}{m_2 - m_1^2} \\ & b \in (0, \infty) & \hat{b} = \frac{(1 - m_1)(m_1 - m_2)}{m_2 - m_1^2} \\ \hline \chi^2(k) & k \in (0, \infty) & \hat{k} = \bar{X} \\ \hline t(k) & k \in (0, \infty) & \hat{k} = \frac{2m_2}{m_2 - 1} \\ \hline F(a, b) & a \in (0, \infty) & \hat{a} = \frac{2m_1^2}{m_1^2 - m_2(2 - m_1)} \\ & b \in (0, \infty) & \hat{b} = \frac{2m_1}{m_1 - 1} \\ \hline \end{array} \end{equation}\]

Tabla 2.2: Algunos estimadores por el método de momentos (Distribuciones Continuas)