\documentclass[11pt]{article}
\usepackage{amsmath, amssymb, amsthm}
\usepackage{geometry}
\usepackage[spanish]{babel}
\geometry{margin=1in}

\title{Teorema de Wilks (caso unidimensional): demostraciones detalladas}
\author{chati}

\newtheorem{theorem}{Teorema}
\newtheorem{lemma}{Lema}
\newtheorem{proposition}{Proposición}

\begin{document}
\maketitle

\section{Planteamiento}
Sean $X_1,\dots,X_n$ i.i.d. con densidad $f(x;\theta)$, $\theta \in \Theta \subset \mathbb{R}$. Definimos
\[
\ell_n(\theta)=\sum_{i=1}^n \log f(X_i;\theta), \quad
\Lambda_n = 2\big(\ell_n(\hat\theta_n)-\ell_n(\theta_0)\big),
\]
donde $\hat\theta_n$ es el estimador de máxima verosimilitud y $H_0: \theta=\theta_0$.

\begin{theorem}[Wilks, caso unidimensional]
Bajo condiciones regulares adecuadas,
\[
\Lambda_n \xrightarrow{d} \chi^2_1.
\]
\end{theorem}

\section{Hipótesis mínimas (formulación precisa)}
Trabajamos bajo las siguientes condiciones locales alrededor de $\theta_0$:
\begin{itemize}
\item[(H1)] (Diferenciabilidad cuadrática en media) Existe una función score $\dot \ell(x,\theta_0)$ tal que
\[
\int \left(\sqrt{f(x;\theta)}-\sqrt{f(x;\theta_0)}-\tfrac{1}{2}(\theta-\theta_0)\dot\ell(x,\theta_0)\sqrt{f(x;\theta_0)}\right)^2 dx = o((\theta-\theta_0)^2).
\]
\item[(H2)] (Información finita y positiva)
\[
I(\theta_0)=\mathbb{E}_{\theta_0}[\dot\ell(X,\theta_0)^2] \in (0,\infty).
\]
\item[(H3)] (Consistencia del MLE)
\[
\hat\theta_n \xrightarrow{P} \theta_0.
\]
\item[(H4)] (Regularidad local para segundas derivadas) Existe $\delta>0$ tal que
\[
\sup_{|\theta-\theta_0|<\delta} \left| \frac{1}{n}\ell_n''(\theta)-\mathbb{E}\ell_1''(\theta) \right| \xrightarrow{P} 0,
\]
y $\theta \mapsto \mathbb{E}\ell_1''(\theta)$ es continua en $\theta_0$.
\end{itemize}

\section{Estructura global de la demostración}
Una expansión de Taylor y la ecuación del score implican
\[
\Lambda_n = \frac{\ell_n'(\theta_0)^2}{-\ell_n''(\bar\theta_n)}(1+o_P(1)).
\]
Por tanto basta demostrar:
\begin{align*}
\frac{1}{\sqrt{n}}\ell_n'(\theta_0) &\Rightarrow N(0,I(\theta_0)), \\
-\frac{1}{n}\ell_n''(\bar\theta_n) &\xrightarrow{P} I(\theta_0).
\end{align*}

La primera es un TCL estándar. La segunda requiere un argumento más fino.

\section{Demostración A: LLN uniforme + consistencia}

Sea
\[
g(x,\theta)=-\frac{\partial^2}{\partial\theta^2}\log f(x;\theta).
\]
Entonces
\[
-\frac{1}{n}\ell_n''(\theta)=\frac{1}{n}\sum_{i=1}^n g(X_i,\theta).
\]

Descomponemos
\[
\frac{1}{n}\sum g(X_i,\hat\theta_n)-\mathbb{E}g(X,\theta_0)=A_n+B_n,
\]
con
\[
A_n=\frac{1}{n}\sum g(X_i,\hat\theta_n)-\mathbb{E}g(X,\hat\theta_n), \quad
B_n=\mathbb{E}g(X,\hat\theta_n)-\mathbb{E}g(X,\theta_0).
\]

\subsection*{Paso 1: $A_n$}
Por (H4) (LLN uniforme local), $A_n\xrightarrow{P}0$.

\subsection*{Paso 2: $B_n$}
Por continuidad de $\theta\mapsto \mathbb{E}g(X,\theta)$ y (H3), $B_n\to 0$.

\subsection*{Conclusión}
\[
-\frac{1}{n}\ell_n''(\hat\theta_n)\xrightarrow{P}I(\theta_0).
\]

\section{Demostración B: vía LAN}

Definimos $h=\sqrt{n}(\theta-\theta_0)$. Bajo (H1) se obtiene la expansión LAN:
\[
\ell_n\left(\theta_0+\frac{h}{\sqrt{n}}\right)-\ell_n(\theta_0)
= h\Delta_n - \frac{1}{2}h^2 I(\theta_0)+o_P(1),
\]
con
\[
\Delta_n=\frac{1}{\sqrt{n}}\ell_n'(\theta_0)\Rightarrow N(0,I(\theta_0)).
\]

El MLE maximiza esta expansión cuadrática:
\[
\hat h_n=\frac{\Delta_n}{I(\theta_0)}+o_P(1).
\]

Sustituyendo:
\[
\Lambda_n=\frac{\Delta_n^2}{I(\theta_0)}+o_P(1)\Rightarrow \chi^2_1.
\]

\section{Comentarios}
La demostración A depende de un LLN uniforme (equicontinuidad estocástica). La B usa estructura LAN y evita controlar derivadas segundas evaluadas en estimadores aleatorios.

\appendix
\section{Apéndice: formulación en lenguaje de Le Cam}

Sea $\mathcal{E}_n=\{P_{\theta}^n: \theta\in\Theta\}$. Bajo (H1)--(H2), la familia es LAN en $\theta_0$ con experimento límite gaussiano:
\[
\mathcal{E}: \{N(hI(\theta_0), I(\theta_0)) : h\in\mathbb{R}\}.
\]

El estadístico de razón de verosimilitudes converge al correspondiente en el experimento límite, que es:
\[
\frac{Z^2}{I(\theta_0)}, \quad Z\sim N(0,I(\theta_0)).
\]

Por el tercer lema de Le Cam, se obtiene la convergencia a $\chi^2_1$.

\section{Referencias}
\begin{itemize}
\item van der Vaart (1998), \textit{Asymptotic Statistics}.
\item van der Vaart \& Wellner (1996), \textit{Weak Convergence and Empirical Processes}.
\item Ferguson (1996), \textit{A Course in Large Sample Theory}.
\item Lehmann \& Romano (2005), \textit{Testing Statistical Hypotheses}.
\end{itemize}

\end{document}
