\documentclass{article}
\usepackage{amsmath, amssymb}
\usepackage{amsthm}
\usepackage{fullpage}\usepackage{palatino}
\newtheorem*{remark}{Observación}

\begin{document}
\raggedright
\section*{Normalidad asintótica del estadístico de Wilcoxon}
(por ChatGPT, DeepSeek y Claude)
\subsection*{1. Planteamiento}

Sea $X_1,\dots,X_n$ una muestra i.i.d. de una variable continua con mediana $M$ bajo $H_0$.

Definimos:
\[
Y_i = X_i - M, \quad \varepsilon_i = \mathbf{1}(Y_i > 0).
\]

Bajo $H_0$ y continuidad:
\[
\varepsilon_i \sim \text{Bernoulli}(1/2), \quad \text{i.i.d.}
\]

Sea $R_i$ el rango de $|Y_i|$. El estadístico de Wilcoxon es:
\[
T^+ = \sum_{i=1}^n R_i \varepsilon_i.
\]

\bigskip

\textbf{Idea clave:}
\begin{itemize}
\item Los signos $\varepsilon_i$ son independientes.
\item Los rangos $R_i$ son dependientes (forman una permutación).
\item \textbf{Los rangos y los signos son independientes entre sí.}
\end{itemize}

\medskip

\textbf{Justificación de la independencia rangos-signos.}

\medskip

\textit{Paso 1: para una sola variable, signo y valor absoluto son independientes.}

Sea $Y$ una variable aleatoria con densidad $f$ continua y simétrica
alrededor de cero, es decir, $f(y) = f(-y)$ para todo $y$.
Queremos probar que $\varepsilon = \mathbf{1}(Y>0)$ y $|Y|$ son independientes.

Basta comprobar que, para todo boreliano $A \subseteq (0,\infty)$:
\[
\mathbb{P}(\varepsilon = 1,\; |Y| \in A)
\;=\;
\mathbb{P}(\varepsilon = 1)\cdot \mathbb{P}(|Y| \in A).
\]

Calculamos cada factor:
\begin{align*}
\mathbb{P}(\varepsilon = 1,\; |Y| \in A)
&= \mathbb{P}(Y \in A)
 = \int_A f(y)\,dy, \\[4pt]
\mathbb{P}(\varepsilon = 0,\; |Y| \in A)
&= \mathbb{P}(Y \in {-A})
 = \int_{-A} f(y)\,dy
 = \int_A f(-y)\,dy
 = \int_A f(y)\,dy,
\end{align*}
donde hemos usado el cambio de variable $y \mapsto -y$ y la simetría
$f(-y)=f(y)$. Sumando:
\[
\mathbb{P}(|Y| \in A) = 2\int_A f(y)\,dy.
\]

Por tanto:
\[
\mathbb{P}(\varepsilon = 1)\cdot \mathbb{P}(|Y| \in A)
= \frac{1}{2} \cdot 2\int_A f(y)\,dy
= \int_A f(y)\,dy
= \mathbb{P}(\varepsilon = 1,\; |Y| \in A). \qquad \checkmark
\]

El mismo argumento da $\mathbb{P}(\varepsilon=0,\,|Y|\in A) = \mathbb{P}(\varepsilon=0)\cdot\mathbb{P}(|Y|\in A)$,
con lo que queda probada la independencia entre $\varepsilon$ y $|Y|$.

\medskip

\textit{Paso 2: del par individual al vector completo.}

Aplicando el resultado anterior a cada $Y_i$, obtenemos que $\varepsilon_i$
y $|Y_i|$ son independientes para cada $i$. Dado que los pares
$(|Y_i|, \varepsilon_i)$ son i.i.d., el vector de rangos
$(R_1,\dots,R_n)$ —que es función únicamente de $(|Y_1|,\dots,|Y_n|)$—
es independiente del vector de signos $(\varepsilon_1,\dots,\varepsilon_n)$.
Este hecho es el cimiento de toda la demostración: permite condicionar en
los rangos y tratar los signos como variables aleatorias libres.

\bigskip

\subsection*{2. Centramos el estadístico}

Definimos variables centradas:
\[
\xi_i := \varepsilon_i - \tfrac{1}{2}.
\]

Entonces:
\[
\mathbb{E}[\xi_i] = 0, \quad \mathrm{Var}(\xi_i) = \tfrac{1}{4}.
\]

Reescribimos:
\[
T^+ = \sum_{i=1}^n R_i \left(\xi_i + \tfrac{1}{2}\right)
= \sum_{i=1}^n R_i \xi_i + \tfrac{1}{2} \sum_{i=1}^n R_i.
\]

Como:
\[
\sum_{i=1}^n R_i = \frac{n(n+1)}{2},
\]

obtenemos:
\[
T^+ - \mathbb{E}(T^+) = \sum_{i=1}^n R_i \xi_i.
\]

\bigskip

\textbf{Interpretación:} hemos reducido el problema a estudiar una suma de variables centradas.

\bigskip

\subsection*{3. Estrategia: condicionar en los rangos}

Fijamos los rangos $(R_1,\dots,R_n)$.

Entonces:
\begin{itemize}
\item Los $R_i$ son constantes.
\item Las $\xi_i$ siguen siendo i.i.d.
\end{itemize}

Por tanto:
\[
S_n := \sum_{i=1}^n R_i \xi_i
\]

es una suma de variables independientes (condicionalmente).

\bigskip

\textbf{Idea clave:}
\begin{center}
\emph{Aunque globalmente hay dependencia, condicionalmente tenemos independencia.}
\end{center}

\bigskip

\subsection*{4. Varianza}

\[
\mathrm{Var}(S_n \mid R) 
= \sum_{i=1}^n R_i^2 \mathrm{Var}(\xi_i)
= \frac{1}{4} \sum_{i=1}^n R_i^2.
\]

Como los rangos son una permutación de $1,\dots,n$:
\[
\sum_{i=1}^n R_i^2 = \sum_{r=1}^n r^2 
= \frac{n(n+1)(2n+1)}{6}.
\]

Luego:
\[
\sigma_n^2 := \mathrm{Var}(S_n \mid R)
= \frac{n(n+1)(2n+1)}{24}.
\]

\bigskip

\subsection*{5. Aplicamos Lindeberg}

Definimos:
\[
X_{n,i} := R_i \xi_i.
\]

Queremos aplicar el Teorema Central del Límite de Lindeberg al array triangular
$\{X_{n,i}\}_{i=1}^n$, condicionado en $R$.

\bigskip

\textbf{Paso 1: infinitesimalidad uniforme.}

\[
|X_{n,i}| = R_i |\xi_i| \le \frac{R_i}{2} \le \frac{n}{2},
\qquad
\sigma_n \sim c\, n^{3/2},
\]

por lo que:
\[
\frac{\max_i |X_{n,i}|}{\sigma_n} = O(n^{-1/2}) \to 0.
\]

Ningún término domina la suma: todos los sumandos son asintóticamente
negligibles respecto a la desviación típica total.

\bigskip

\textbf{Paso 2: verificación de la condición de Lindeberg.}

Para cualquier $\varepsilon > 0$, acotamos la suma de Lindeberg usando el
resultado del Paso~1. Dado que $|X_{n,i}| \le n/2$ con probabilidad 1
(condicionado en $R$), el evento $\{|X_{n,i}| > \varepsilon\,\sigma_n\}$
solo puede ocurrir cuando $n/2 > \varepsilon\,\sigma_n$, es decir, para $n$
suficientemente grande el indicador es idénticamente cero. Sin embargo, es
más instructivo dar la cota explícita que vale para todo $n$:

\begin{align*}
\frac{1}{\sigma_n^2}
\sum_{i=1}^n 
\mathbb{E}\!\Big[
X_{n,i}^2 \,\mathbf{1}(|X_{n,i}| > \varepsilon \sigma_n)
\;\Big|\; R
\Big]
&\;\le\;
\frac{1}{\sigma_n^2}
\sum_{i=1}^n 
\mathbb{E}\!\Big[
|X_{n,i}| \cdot |X_{n,i}| \,\mathbf{1}(|X_{n,i}| > \varepsilon \sigma_n)
\;\Big|\; R
\Big] \\[6pt]
&\;\le\;
\frac{\max_i |X_{n,i}|}{\varepsilon\,\sigma_n}
\cdot
\frac{1}{\sigma_n^2}
\sum_{i=1}^n \mathbb{E}\!\Big[X_{n,i}^2 \;\Big|\; R\Big] \\[6pt]
&\;=\;
\frac{\max_i |X_{n,i}|}{\varepsilon\,\sigma_n}
\cdot 1 
\;\longrightarrow\; 0,
\end{align*}
donde hemos usado que $\mathbf{1}(|X_{n,i}| > \varepsilon\sigma_n) \le
|X_{n,i}|/(\varepsilon\sigma_n)$ en la segunda desigualdad, y que
$\sigma_n^{-2}\sum_i\mathbb{E}[X_{n,i}^2\mid R]=1$ por definición de
$\sigma_n^2$ en la última igualdad. La condición de Lindeberg queda así
verificada.

\bigskip

\subsection*{6. Conclusión (CLT condicional)}

Por el Teorema Central del Límite de Lindeberg (para arrays triangulares):
\[
\frac{S_n}{\sigma_n}
\;\Big|\; R
\;\xrightarrow{d}\;
\mathcal{N}(0,1).
\]

\bigskip

\subsection*{6b. De la convergencia condicional a la incondicional}

Hemos demostrado que, para casi toda realización fija de los rangos
$(R_1,\dots,R_n)$ —y en particular para cualquier permutación de
$\{1,\dots,n\}$, que es lo que los rangos siempre son—,

\[
\frac{S_n}{\sigma_n} \;\Big|\; R \;\xrightarrow{d}\; \mathcal{N}(0,1).
\]

Es decir, para todo $t \in \mathbb{R}$:
\[
\lim_{n\to\infty} \mathbb{P}\!\left( \frac{S_n}{\sigma_n} \le t \;\middle|\; R \right) = \Phi(t),
\]
donde $\Phi$ es la función de distribución normal estándar.
Queremos probar que la convergencia es también incondicional.

\medskip

\textbf{Justificación.}
Por la ley de probabilidad total, para cada $n$ y cada $t$:

\[
\mathbb{P}\!\left( \frac{S_n}{\sigma_n} \le t \right)
= \mathbb{E}\!\left[ \mathbb{P}\!\left( \frac{S_n}{\sigma_n} \le t \;\middle|\; R \right) \right].
\]

La variable aleatoria $Y_n := \mathbb{P}\!\left( \frac{S_n}{\sigma_n} \le t \mid R \right)$ está acotada entre 0 y 1, y converge puntualmente (para casi toda realización de $R$) a $\Phi(t)$ cuando $n\to\infty$.

Aplicamos el \textbf{teorema de convergencia dominada}:

\[
\lim_{n\to\infty} \mathbb{E}[Y_n]
= \mathbb{E}\!\left[ \lim_{n\to\infty} Y_n \right]
= \mathbb{E}[\,\Phi(t)\,]
= \Phi(t).
\]

Por tanto:
\[
\lim_{n\to\infty} \mathbb{P}\!\left( \frac{S_n}{\sigma_n} \le t \right) = \Phi(t) \quad \forall\, t,
\]

que es precisamente la convergencia en distribución a $\mathcal{N}(0,1)$.

\medskip

\begin{remark}
Este argumento funciona porque el límite condicional $\Phi(t)$ es
\emph{constante} (no depende de la realización de $R$) y la función de
distribución límite es continua, lo que evita problemas en los puntos de
discontinuidad. Así, la normalidad asintótica se traslada del mundo
condicional al incondicional.
\end{remark}

\bigskip

\subsection*{7. Resultado final}

\[
\boxed{
\frac{T^+ - \dfrac{n(n+1)}{4}}
{\sqrt{\dfrac{n(n+1)(2n+1)}{24}}}
\;\xrightarrow{d}\;
\mathcal{N}(0,1)
}
\]

\bigskip

\subsection*{8. Idea final (para recordar)}

\begin{center}
\emph{
La normalidad aparece porque:\\[4pt]
independencia signos-rangos (por simetría)
$+$ independencia condicional en los signos
$+$ pesos controlados
$+$ Lindeberg.
}
\end{center}

\end{document}