\documentclass[12pt,a4paper]{article}

% ── Codificación y lengua ──────────────────────────────────────────────────────
\usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}
\usepackage[spanish]{babel}

% ── Matemáticas ────────────────────────────────────────────────────────────────
\usepackage{amsmath, amssymb, amsthm}
\usepackage{mathtools}          % \coloneqq, etc.

% ── Tipografía y diseño ────────────────────────────────────────────────────────
\usepackage{lmodern}
\usepackage[margin=2.5cm]{geometry}
\usepackage{microtype}
\usepackage{setspace}
\onehalfspacing

% ── Entornos de teorema ────────────────────────────────────────────────────────
\newtheorem{theorem}{Teorema}[section]
\newtheorem{lemma}[theorem]{Lema}
\newtheorem{proposition}[theorem]{Proposición}
\newtheorem{corollary}[theorem]{Corolario}
\theoremstyle{definition}
\newtheorem{definition}[theorem]{Definición}
\newtheorem{remark}[theorem]{Observación}

% ── Macros ─────────────────────────────────────────────────────────────────────
\newcommand{\R}{\mathbb{R}}
\newcommand{\E}{\mathbb{E}}
\newcommand{\Var}{\operatorname{Var}}
\newcommand{\Cov}{\operatorname{Cov}}
\newcommand{\N}{\mathbb{N}}
\newcommand{\Prob}{\mathbb{P}}
\newcommand{\iid}{\stackrel{\text{iid}}{\sim}}
\newcommand{\dto}{\xrightarrow{\,d\,}}
\newcommand{\pto}{\xrightarrow{\,p\,}}
\newcommand{\sgn}{\operatorname{sgn}}
\newcommand{\ind}{\mathbf{1}}          % función indicadora

% ──────────────────────────────────────────────────────────────────────────────
\title{\textbf{Distribución asintótica del estadígrafo $T^+$\\
de los rangos signados de Wilcoxon}}
\author{claude.ai}

% ──────────────────────────────────────────────────────────────────────────────

\begin{document}
\maketitle
\tableofcontents
\bigskip

% ══════════════════════════════════════════════════════════════════════════════
\section{Planteamiento y notación}
% ══════════════════════════════════════════════════════════════════════════════

Sea $X_1, \ldots, X_n$ una muestra aleatoria simple procedente de una
distribución continua $F$ simétrica respecto a la mediana $\theta_0$.
El contraste de hipótesis es
\[
  H_0 : \theta_0 = 0 \quad \text{frente a} \quad H_1 : \theta_0 \neq 0.
\]

\begin{definition}[Rangos y estadígrafo $T^+$]
Bajo $H_0$, se trabaja con las observaciones $X_1,\ldots,X_n$ directamente
(ya centradas en cero).
\begin{enumerate}
  \item Sea $R_i$ el \emph{rango} de $|X_i|$ entre $|X_1|,\ldots,|X_n|$
        (se supone que no hay empates c.s., lo cual se garantiza por la
        continuidad de $F$).
  \item Sea $\varepsilon_i = \sgn(X_i) \in \{-1,+1\}$.
  \item El \textbf{estadígrafo de Wilcoxon de rangos signados} es
        \[
          T^+ \coloneqq \sum_{i=1}^{n} R_i \,\ind(\varepsilon_i = +1)
          = \sum_{i=1}^{n} R_i \,\ind(X_i > 0).
        \]
\end{enumerate}
\end{definition}

% ══════════════════════════════════════════════════════════════════════════════
\section{Independencia rangos–signos y representación clave}
% ══════════════════════════════════════════════════════════════════════════════

El resultado estructural fundamental es el siguiente.

\begin{lemma}[Independencia rangos–signos bajo $H_0$]
\label{lem:indep}
Si $F$ es continua y simétrica respecto a $0$, entonces:
\begin{enumerate}
  \item[(a)] El vector de rangos $(R_1,\ldots,R_n)$ y el vector de signos
             $(\varepsilon_1,\ldots,\varepsilon_n)$ son \emph{mutuamente
             independientes}.
  \item[(b)] Los signos $\varepsilon_1,\ldots,\varepsilon_n$ son variables
             aleatorias i.i.d.\ con $\Prob(\varepsilon_i = +1) = \tfrac{1}{2}$.
\end{enumerate}
\end{lemma}

\begin{proof}[Demostración (esquema)]
Como $F$ es simétrica en $0$, para cada $i$ los eventos $\{X_i > 0\}$ y
$\{X_i < 0\}$ tienen probabilidad $\tfrac{1}{2}$ y son independientes del
valor absoluto $|X_i|$, pues la función de densidad satisface $f(x)=f(-x)$.
Más formalmente, la transformación $(X_i)\mapsto(|X_i|,\sgn(X_i))$ es
bimeasurable y la medida imagen se factoriza como el producto de la
distribución de $|X_i|$ (que determina los rangos) y la distribución de
$\sgn(X_i)$ (uniforme en $\{-1,+1\}$). La simetría implica que esta
factorización se mantiene para el vector completo, de modo que el $\sigma$-álgebra
generada por los rangos y la generada por los signos son independientes.
\end{proof}

\begin{remark}
El lema garantiza que los rangos son siempre la colección $\{1,\ldots,n\}$
(solo se redistribuyen entre los $i$'s) y que los signos actúan como
«máscaras» aleatorias independientes.
\end{remark}

\begin{proposition}[Representación por sumas independientes]
\label{prop:repr}
Bajo $H_0$, el estadígrafo $T^+$ tiene la misma distribución que
\[
  T^+ \stackrel{d}{=} \sum_{j=1}^{n} j\, Z_j,
\]
donde $Z_1,\ldots,Z_n \iid \operatorname{Bernoulli}\!\bigl(\tfrac{1}{2}\bigr)$
son independientes entre sí.
\end{proposition}

\begin{proof}
Por el Lema~\ref{lem:indep}(a), dado que $(R_1,\ldots,R_n)$ es una
permutación aleatoria uniforme de $\{1,\ldots,n\}$ independiente de los
signos, el vector $\bigl(R_{\sigma(1)},\ldots,R_{\sigma(n)}\bigr)$ tiene la
misma distribución para cualquier permutación $\sigma$ inducida por los
signos. En consecuencia,
\[
  T^+ = \sum_{i=1}^{n} R_i\,\ind(\varepsilon_i=+1)
        \stackrel{d}{=} \sum_{j=1}^{n} j\,\ind(\varepsilon_{\pi(j)}=+1),
\]
donde $\pi$ es la permutación que ordena los valores absolutos.  Definiendo
$Z_j \coloneqq \ind(\varepsilon_{\pi(j)}=+1)$, la independencia de rangos y
signos del Lema~\ref{lem:indep} implica que los $Z_j$ son i.i.d.\
$\operatorname{Bernoulli}(\tfrac{1}{2})$ independientes de los rangos; los
pesos $j$ pasan a ser constantes deterministas, con lo que se obtiene la
representación enunciada.
\end{proof}

% ══════════════════════════════════════════════════════════════════════════════
\section{Esperanza y varianza de $T^+$}
% ══════════════════════════════════════════════════════════════════════════════

\begin{proposition}[Momentos exactos de $T^+$]
\label{prop:momentos}
Bajo $H_0$,
\[
  \E[T^+] = \frac{n(n+1)}{4},
  \qquad
  \Var(T^+) = \frac{n(n+1)(2n+1)}{24}.
\]
\end{proposition}

\begin{proof}
Usando la representación de la Proposición~\ref{prop:repr} y
$\E[Z_j]=\tfrac{1}{2}$, $\Var(Z_j)=\tfrac{1}{4}$:

\medskip
\noindent\textbf{Esperanza.}
\[
  \E[T^+]
  = \sum_{j=1}^{n} j\,\E[Z_j]
  = \frac{1}{2}\sum_{j=1}^{n} j
  = \frac{1}{2}\cdot\frac{n(n+1)}{2}
  = \frac{n(n+1)}{4}.
\]

\noindent\textbf{Varianza.}
Como los $Z_j$ son \emph{independientes}, no hay términos de covarianza cruzada:
\[
  \Var(T^+)
  = \sum_{j=1}^{n} j^2\,\Var(Z_j)
  = \frac{1}{4}\sum_{j=1}^{n} j^2
  = \frac{1}{4}\cdot\frac{n(n+1)(2n+1)}{6}
  = \frac{n(n+1)(2n+1)}{24}.
\]
En ambos casos se ha utilizado la independencia mutua de los $Z_j$,
consecuencia directa del Lema~\ref{lem:indep}.
\end{proof}

% ══════════════════════════════════════════════════════════════════════════════
\section{Normalidad asintótica: Teorema Central del Límite de Lindeberg}
% ══════════════════════════════════════════════════════════════════════════════

\subsection{El TCL de Lindeberg}

Recordamos la versión clásica del teorema que utilizaremos.

\begin{theorem}[TCL de Lindeberg, 1922]
\label{thm:lindeberg}
Sea $\{X_{n,j} : 1\le j\le k_n\}_{n\ge 1}$ un array de variables aleatorias
reales con $X_{n,1},\ldots,X_{n,k_n}$ independientes para cada $n$,
$\E[X_{n,j}]=0$ y $\sigma_{n,j}^2 \coloneqq \Var(X_{n,j}) < \infty$.
Denótese $s_n^2 \coloneqq \sum_{j=1}^{k_n}\sigma_{n,j}^2 > 0$.
Si se cumple la \textbf{condición de Lindeberg}: para todo $\varepsilon>0$,
\[
  L_n(\varepsilon)
  \coloneqq \frac{1}{s_n^2}\sum_{j=1}^{k_n}
    \E\!\Bigl[X_{n,j}^2\,\ind\bigl(|X_{n,j}|>\varepsilon s_n\bigr)\Bigr]
  \xrightarrow{n\to\infty} 0,
\]
entonces
\[
  \frac{1}{s_n}\sum_{j=1}^{k_n} X_{n,j} \dto \mathcal{N}(0,1).
\]
\end{theorem}

\subsection{Aplicación a $T^+$}

Definamos el array de sumandos centrados.

\begin{definition}
Para $1\le j\le n$, sea
\[
  X_{n,j} \coloneqq j\Bigl(Z_j - \tfrac{1}{2}\Bigr),
\]
de modo que $\E[X_{n,j}]=0$ y
\[
  \sigma_{n,j}^2 = j^2\,\Var\!\Bigl(Z_j-\tfrac{1}{2}\Bigr)
                 = j^2\cdot\frac{1}{4} = \frac{j^2}{4}.
\]
La suma $S_n \coloneqq \sum_{j=1}^{n} X_{n,j}$ satisface
\[
  S_n = T^+ - \E[T^+],
\qquad
  s_n^2 = \sum_{j=1}^{n}\frac{j^2}{4} = \frac{n(n+1)(2n+1)}{24} = \Var(T^+).
\]
\end{definition}

\begin{theorem}[Normalidad asintótica de $T^+$]
\label{thm:main}
Bajo $H_0$,
\[
  W_n \coloneqq
  \frac{T^+ - \dfrac{n(n+1)}{4}}{\sqrt{\dfrac{n(n+1)(2n+1)}{24}}}
  \dto \mathcal{N}(0,1)
  \qquad (n\to\infty).
\]
\end{theorem}

\begin{proof}
Por la Proposición~\ref{prop:repr}, $T^+ \stackrel{d}{=}\sum_{j=1}^n j Z_j$
con $Z_j$ i.i.d.\ $\operatorname{Bernoulli}(\tfrac{1}{2})$ independientes.
El array $\{X_{n,j}\}$ definido arriba satisface las condiciones de media cero
e independencia del Teorema~\ref{thm:lindeberg} con $k_n=n$. Solo resta
verificar la condición de Lindeberg.

\medskip
\noindent\textbf{Paso 1: acotación de cada sumando.}

Como $Z_j\in\{0,1\}$, tenemos $Z_j - \tfrac{1}{2} \in \{-\tfrac{1}{2},+\tfrac{1}{2}\}$,
luego
\[
  |X_{n,j}| = j\left|Z_j-\tfrac{1}{2}\right| = \frac{j}{2} \le \frac{n}{2}
  \qquad \forall\, j=1,\ldots,n.
\]

\medskip
\noindent\textbf{Paso 2: comportamiento asintótico de $s_n$.}

\[
  s_n^2 = \frac{n(n+1)(2n+1)}{24} \sim \frac{n^3}{12}
  \quad\Longrightarrow\quad
  s_n \sim \frac{n^{3/2}}{2\sqrt{3}} \quad (n\to\infty).
\]
En particular,
\[
  \frac{n/2}{s_n} \sim \frac{n/2}{n^{3/2}/(2\sqrt{3})}
  = \frac{\sqrt{3}}{n^{1/2}} \xrightarrow{n\to\infty} 0.
\]

\medskip
\noindent\textbf{Paso 3: verificación de la condición de Lindeberg.}

Sea $\varepsilon>0$ arbitrario. Por el Paso~2, existe $n_0=n_0(\varepsilon)\in\N$
tal que, para todo $n\ge n_0$,
\[
  \frac{n}{2} < \varepsilon\, s_n,
\]
es decir, $|X_{n,j}|\le \tfrac{n}{2} < \varepsilon\, s_n$ para todo
$j\in\{1,\ldots,n\}$. Por lo tanto, el evento $\{|X_{n,j}|>\varepsilon s_n\}$
tiene probabilidad cero para cada $j$, y en consecuencia:
\[
  L_n(\varepsilon)
  = \frac{1}{s_n^2}\sum_{j=1}^{n}
    \E\!\bigl[X_{n,j}^2\,\ind(|X_{n,j}|>\varepsilon s_n)\bigr]
  = 0
  \qquad \forall\,n\ge n_0.
\]
La condición de Lindeberg queda verificada (de hecho se cumple
\emph{exactamente a partir de $n_0$}, no solo en el límite).

\medskip
\noindent\textbf{Conclusión.}

El Teorema~\ref{thm:lindeberg} garantiza que
\[
  W_n = \frac{S_n}{s_n}
      = \frac{T^+ - \E[T^+]}{\sqrt{\Var(T^+)}}
  \dto \mathcal{N}(0,1),
\]
lo cual completa la demostración.
\end{proof}

\begin{remark}[Relación con la condición de Lyapunov]
La verificación del Paso~3 es más fuerte que la condición de Lyapunov de
orden $2+\delta$ con $\delta=1$, que exigiría
$\sum_j \E[|X_{n,j}|^3]/s_n^3\to 0$.  En efecto, como cada
$|X_{n,j}|\le n/2$, se tiene
\[
  \frac{1}{s_n^3}\sum_{j=1}^{n}\E\!\bigl[|X_{n,j}|^3\bigr]
  \le \frac{n/2}{s_n^3}\sum_{j=1}^{n}\E\!\bigl[X_{n,j}^2\bigr]
  = \frac{n/2}{s_n^3}\cdot s_n^2 = \frac{n}{2\,s_n}
  \sim \frac{\sqrt{3}}{n^{1/2}} \to 0.
\]
Ambos enfoques coinciden en el resultado; la verificación directa de
Lindeberg es la más transparente en este caso.
\end{remark}

% ══════════════════════════════════════════════════════════════════════════════
\section{Resumen y uso práctico}
% ══════════════════════════════════════════════════════════════════════════════

El Teorema~\ref{thm:main} justifica el siguiente procedimiento asintótico.

\begin{corollary}[Contraste asintótico]
Para $n$ grande, bajo $H_0 : \theta_0 = 0$ y con nivel de significación
$\alpha\in(0,1)$, la región de rechazo bilateral es
\[
  \left|W_n\right| > z_{\alpha/2},
\]
donde $z_{\alpha/2}$ es el cuantil $(1-\alpha/2)$ de la distribución
$\mathcal{N}(0,1)$. El valor-$p$ aproximado del contraste es
\[
  p = 2\,\Prob\bigl(\mathcal{N}(0,1) > |W_n^{\text{obs}}|\bigr)
    = 2\bigl(1 - \Phi(|W_n^{\text{obs}}|)\bigr),
\]
donde $\Phi$ denota la función de distribución acumulada normal estándar.
\end{corollary}

\begin{remark}[Velocidad de convergencia]
La corrección de continuidad (reemplazar $T^+$ por $T^+\pm\tfrac{1}{2}$ según
la dirección del contraste) mejora la aproximación normal para $n$ moderado,
dado que $T^+$ es un estadígrafo entero.
\end{remark}

\end{document}
