\message{ !name(contrastes.tex)}
\message{ !name(contrastes.tex) !offset(-2) }
\documentclass[serif]{beamer}
\usetheme{Madrid}
\usepackage{gentium} % error I y II; sin ligadura "fi"
\usepackage[latin1]{inputenc}
\usepackage[spanish]{babel}
\title{Inferencia Estadística}
\subtitle {Contrastes de hipótesis}
\author[López Corral Carleos]{M.T. López, N. Corral, C. Carleos}
\institute[U. Oviedo]{Departamento de Estadística --- Universidad de Oviedo}
\newcommand{\por}{\,\cdot\,}
\begin{document}
\frame[plain]{\titlepage}

\section{Generalidades}

\begin{frame}{Definiciones}
  \begin{block}{Hipótesi}
    Afirmación que se pretende validar o desmentir.
\end{block}
\begin{block}{Hipótesi estadística}
  Hipótesi sobre la distribución de una variable aleatoria:
  \begin{itemize}
  \item sobre algún parámetro del que dependa;
  \item sobre la familia a la que pertenece;
  \item sobre su relación con otra variable.
  \end{itemize}
\end{block}
\begin{block}{Ejemplos}
\begin{itemize}
  \item La estatura media de los varones asturianos de $15$ años es $1.67$ m.
  \item La proporción de afectados por la gripe este otoño es $0.25$.
  \item Tiempo dedicado a estudiar es independiente del dedicado a ver TV.
  \item Un reactivo emite partículas según una distribución de Poisson.
\end{itemize}
\end{block}
\end{frame}

\begin{frame}{Definiciones}
 \begin{block}{Hipótesi paramétrica}
   Si hace referencia a algún parámetro de la distribución.
 \end{block}
 \begin{block}{Hipótesi simple}
   Si especifica totalmente la distribución.
 \end{block}
 \begin{block}{Hipótesi compuesta}
   Si no especifica totalmente la distribución.
 \end{block}
\only<1>{ \begin{block}{Ejemplo}
    Sea $X \equiv B(p)$
    $$
      \begin{array}{ll}
        H \equiv  p = 0.5 & \mbox{ es una hipótesi paramétrica simple} \\
        H \equiv  p \neq 0.25 & \mbox{ es hipótesi paramétrica compuesta}
      \end{array}$$
  \end{block}}
\only<2>{  \begin{block}{Ejemplo}
    Sea $X \equiv N(\mu,\sigma)$ con $\sigma$ desconocida.
    $$
      \begin{array}{ll}
        H \equiv  \mu = 3 &\mbox{ es una hipótesi paramétrica compuesta}\\
        H \equiv  \mu= 7,\sigma=2 &\mbox{ es una hipótesi paramétrica simple}
      \end{array}$$
    \end{block}}
  \end{frame}
\begin{frame}{Definiciones}
  \begin{block}{Hipótesi nula ($H_0$)}
    Hipótesi de referencia, de partida: \emph{En caso de duda, hipótesi nula.}
 \end{block}
 \begin{block}{Hipótesi alternativa ($H_1$)}
    Hipótesi contraria a $H_0$.
 \end{block}
 \begin{block}{Ejemplo}
   Un fabricante desea saber si un nuevo procedimiento de producción
   presenta más estabilidad en el peso del producto que fabrica que
   el utilizado actualmente. Para ello formulará las hipótesis:
   $$
   \begin{array}{l}
     H_0 \equiv \mbox{la estabilidad del peso no mejora} \\
     H_1 \equiv \mbox{la estabilidad del peso mejora}
   \end{array}$$
   o, en contexto estadístico:
   $H_0 \equiv \sigma^2 \ge 0.2$ frente a $H_1 \equiv \sigma^2 < 0.2$.
 \end{block}
\end{frame}
 \begin{frame}{Asimetría entre $H_0$ y $H_1$}
   \begin{block}{Procedimiento}
     \begin{itemize}
     \item No se elige meramente la hipótesi más verosímil.
     \item ¿Hay evidencias suficientes para rechazar $H_0$?
     \item Presunción de inocencia: $H_0\equiv\mbox{inocente}$, $H_1\equiv\mbox{culpable}$.
     \end{itemize}

   \end{block}
   \begin{block}{$H_0$}
     \begin{itemize}
     \item Se rechaza sólo si se observa una gran evidencia en contra.
     \item Nunca se concluye que sea cierta,\\
       sino que no hay evidencias para rechazarla.
     \end{itemize}
   \end{block}
   \begin{block}{$H_1$}
     \begin{itemize}
     \item Si se rechaza $H_0$ se obtiene un resultado \emph{significativo}.
     \end{itemize}
   \end{block}
 \end{frame}

\begin{frame}{Definiciones}
  \begin{block}{Contraste de hipótesis}
    Partición medible del espacio muestral en dos regiones:
    \begin{description}
    \item[región de aceptación] (R.A.) asociada a $H_0$.
    \item[región crítica] (R.C.) asociada a $H_1$.
    \end{description}
  \end{block}
 \begin{block}{Función test}
   Indicatriz de la región crítica:
   \begin{eqnarray*}
     \varphi\colon X(\Omega)^n &\longrightarrow& \mathbb{R}\\
     \vec x  & \longmapsto & \varphi(\vec{x}) = \left\{
                             \begin{array}{ll}
                               1 & \mbox{si $\vec{x} \in \text{R.C.}$} \\
                               0 & \mbox{si $\vec{x} \in \text{R.A.}$}
                             \end{array}\right.
   \end{eqnarray*}
 \end{block}
\end{frame}

\begin{frame}[t]{Definiciones}
  \begin{block}{}
    Cuatro situaciones posibles:\hspace{10em}decisión
    \begin{center}
      \begin{tabular}{c}estado\\de la naturaleza\\(realidad)\end{tabular}
      \begin{tabular}{c|c|c}
        & No rechazar $H_0$ & Rechazar $H_0$ \\ \hline
        $H_0$ cierta & acierto&error I\\ \hline
        $H_0$ falsa  & error II&acierto\\ \hline
      \end{tabular}
    \end{center}
    \uncover<2->{Sea el contraste $H_0\equiv\theta\in\Theta_0$,
      $H_1\equiv\theta\in\Theta_1$.}      
  \end{block}
  \only<1>{
    \begin{block}{Ejemplo}
      Sea el contraste $H_0\equiv \sigma^2\geq0.2\quad
      H_1\equiv \sigma^2<0.2$.

      Consideramos R.C.${}=\left[\hat S^2<0.15\right]$ y  R.A.${}=\left[\hat S^2\geq0.15\right]$.

      Si $\sigma^2=0.2$ pero $\hat S^2=0.13$, cometemos error I.

      Si $\sigma^2=0.1$ pero $\hat S^2=0.16$, cometemos error II.
    \end{block}
}
  \pause
  \only<2-3>{
  \begin{block}{Probabilidad de error de tipo I}
    Probabilidad de rechazar $H_0$ para cierto $\theta \in \Theta_0$:
    \qquad $ P\,(\text{R.C.}\mid \theta) = E_\theta(\varphi)$
  \end{block}
  \pause
  \begin{block}{Probabilidad de error de tipo II}
    Prob.\ de no rechazar $H_0$ para cierto $\theta \in\Theta_1$:
    \qquad $P\,(\text{R.A.}\mid\theta)=1-E_\theta(\varphi)$
  \end{block}}
  \only<4>{
    \begin{block}{Ejemplo}
      Supóngase $X\equiv N(\mu,\sigma)$ y $n=15$.

      Sea el contraste $H_0\equiv \sigma^2\geq0.2\quad
      H_1\equiv \sigma^2<0.2$.

      Consideramos R.C.${}=\left[\hat S^2<0.15\right]$ y  R.A.${}=\left[\hat S^2\geq0.15\right]$.

      Si $\sigma^2=0.2$, $P\,(\text {error I})=
      P\,(\chi^2_{14}<\frac{14\por0.15}{0.2})\approx0.275$.

      Si $\sigma^2=0.1$, $P\,(\text {error II})=
      P\,(\chi^2_{14}\ge\frac{14\por0.15}{0.1})\approx0.102$.
    \end{block}
}
\end{frame}
\begin{frame}{Ejemplo: densidades de $\hat S^2$ bajo $H_0$ y $H_1$}
  \begin{center}
\vspace{-10ex}
    
      \includegraphics[width=0.9\textwidth]{error1.pdf}

      \vspace{-15ex}

      \includegraphics[width=0.9\textwidth]{error2.pdf}

      \vspace{-5ex}

    \end{center}
%  options(OutDec=",");s2=0.2;Den <- function(x) dchisq(14*x/s2,14)*14/s2; pdf("error1.pdf",5,3,bg="transparent");curve(Den,0,0.4,xlab="",ylab="",ylim=c(0,7));abline(v=0.15,col=2);text(c(.17,.13),6.5,c("R.A.","R.C."), col=2);curve(Den,0,0.15,type="h",col=2,add=TRUE,n=501);dev.off();s2=0.1;Den <- function(x) dchisq(14*x/s2,14)*14/s2; pdf("error2.pdf",5,3,bg="transparent");curve(Den,0,0.4,xlab="",ylab="",ylim=c(0,12));abline(v=0.15,col=2);text(c(.17,.13),11,c("R.A.","R.C."), col=2);curve(Den,0.15,.4,type="h",col=2,add=TRUE,n=501);dev.off()
\end{frame}
\begin{frame}{Procedimiento habitual para buscar la región crítica}
\begin{block}{1. Fijar el \emph{nivel de significación}}
  Se trata de una cota para la probabilidad de error de tipo I.

  Se representa por $\alpha$.  

  Para un contraste $H_0: \theta \in \Theta_0$ \quad
  $H_1: \theta \in \Theta_1$ se tiene pues
  $$
  \forall\,\theta\in\Theta_0\qquad
  P\,(\text{error I}) = P\,(\text{R.C.}\mid\theta) \leq \alpha
  $$
  
\end{block}
\begin{block}{2. Minimizar la probabilidad de error II}
  Entre los contrastes que cumplan el nivel de
  significación se busca aquel contraste que hace mínima la probabilidad de
  error de tipo II.
\end{block}
\end{frame}

\begin{frame}{Procedimiento habitual para buscar la región crítica}
  \begin{block}{Consecuencias}
    \begin{itemize}
    \item Criterio muy conservador respecto a $H_0$.
    \item $\alpha$ es un valor pequeño fijado por el investigador,
      como $0.05$ ó $0.01$.
    \item $\alpha$ es cota superior para la probabilidad de error I,\\
      luego está asociado a la región crítica y a $H_0$.
    \item Un resultado muestral es \emph{significativo} 
      al nivel $\alpha$ si está en la R.C.
    \end{itemize}
  \end{block}
\end{frame}
\begin{frame}{Metodología}
 \begin{block}{}
\begin{enumerate}
\item Formular las hipótesis del estudio.
\item Traducirlas a la terminología estadística.
\item Fijar el nivel de significación, $\alpha$.
\item Construir la R.C.
\item Seleccionar la muestra $\vec x$.
\item Rechazar $H_0$ si $\vec x \in \text{R.C.}$
\end{enumerate}
\end{block}
\end{frame}

\begin{frame}{Metodología}
\begin{block}{Construcción de un buena R.C.}
  \begin{itemize}
  \item Se construye antes de analizar los resultados experimentales.
  \item $\vec x\in\text{R.C.}$ en caso de que $P(\vec x\mid H_0) \ll P(\vec x\mid H_1)$.
  \item Se expresa en función del \emph{estadístico del contraste}, \\
    que mide las discrepancias de $\vec x$ respecto a $H_0$.
  \item La distribución bajo $H_0$ del estadístico del contraste\\
    ha de ser conocida para garantizar el nivel de
    significación.
  \item Tiene en cuenta $H_1$ para que el contraste
    tenga\\ poca probabilidad de error de tipo II.
\end{itemize}
\end{block}
\end{frame}

\begin{frame}{Ejemplo (continuación)}
  \begin{block}{}
    \begin{itemize}
    \item $X$ = peso de piezas ${}\equiv N(\mu,\sigma)$
    \item contraste $H_0\equiv \sigma^2 \geq 0.2$,
      $H_1 \equiv \sigma^2 < 0.2$
    \item nivel de significación $\alpha=0.05$
    \item tamaño muestral $n=15$
    \item estimador de $\sigma^2$:\quad$\hat S^2$
    \item región crítica intuitiva:
      $$ \text{R.C.}
      =\left\{(x_1, \cdots , x_{15})\;\middle|\; \hat{S}^2<c\right\}$$
    \end{itemize}
  \end{block} 
\end{frame}

\begin{frame}{Ejemplo (continuación)}
  \begin{block}{}
    \begin{itemize}
    \item Cálculo de $c$:
      \begin{eqnarray*}
      P\,(\text{R.C.}\mid H_0)&=&P\,(\hat S^2<c\mid H_0)\\
      &=&P\,\left(\frac{(n-1)\hat S^2}{\sigma^2}<\frac{(n-1) c}{\sigma^2}
        \;\middle|\;H_0\right)=\\
            &=&P\,\left(\chi^2_{n-1}<\frac{(n-1) c}{\sigma^2}
                \;\middle|\;\sigma^2\geq0.2\right)\\
            &\leq&P\,\left(\chi^2_{n-1}<\frac{(n-1) c}{0.2}\right)\\
      \end{eqnarray*}
      Tomando $F_{\chi^2_{n-1}}\left(\frac{(n-1)c}{0.2}\right)=\alpha$ entonces
      $c=\frac{0.2}{n-1}F^{-1}_{\chi^2_{n-1}}(\alpha)$.
      \\[2ex]
      En este caso, R.C. = $\left\{\vec x\;\middle|\; \hat S^2<
        \frac{0.2}{14}F^{-1}_{\chi^2_{14}}(0.05)
      \right\} = \left\{\vec x\;\middle|\; \hat S^2< 0.094
      \right\}$.
    \end{itemize}
  \end{block} 
\end{frame}


\begin{frame}{Ejemplo: densidades de $\hat S^2$ bajo $H_0$ y $H_1$}
  \begin{center}
\vspace{-10ex}
    
      \includegraphics[width=0.9\textwidth]{error1e.pdf}

      \vspace{-15ex}

      \includegraphics[width=0.9\textwidth]{error2e.pdf}

      \vspace{-5ex}

    \end{center}
%  umbral=0.094;options(OutDec=",");s2=0.2;Den <- function(x) dchisq(14*x/s2,14)*14/s2; pdf("error1e.pdf",5,3,bg="transparent");curve(Den,0,0.4,xlab="",ylab="",ylim=c(0,7));abline(v=umbral,col=2);text(c(umbral+.02,umbral-.02),6.5,c("R.A.","R.C."), col=2);curve(Den,0,umbral,type="h",col=2,add=TRUE,n=501);dev.off();s2=0.1;Den <- function(x) dchisq(14*x/s2,14)*14/s2; pdf("error2e.pdf",5,3,bg="transparent");curve(Den,0,0.4,xlab="",ylab="",ylim=c(0,12));abline(v=umbral,col=2);text(c(umbral+.05,umbral-.05),11,c("R.A.","R.C."), col=2);curve(Den,umbral,.4,type="h",col=2,add=TRUE,n=501);dev.off()
\end{frame}

\begin{frame}{Definiciones}
  \begin{block}{Contraste unilateral}
    Contraste de hipótesis cuya región de rechazo está formada por una
    cola de la distribución del estadístico de contraste.
  \end{block}
  \begin{block}{Contraste bilateral}
    Contraste de hipótesis cuya región de rechazo está formada por las
    dos colas de la distribución del estadístico de contraste.
  \end{block}
  \begin{block}{Función de potencia}
    % Dado un test $\varphi$, e
    Es la función $\text{Pot}(\theta)$ que devuelve
    la probabilidad de rechazar $H_0$ cuando el parámetro es
    $\theta$, es decir,
    $\text{Pot}(\theta) = P\,(\text{R.C.}\mid\theta)=E_\theta(\varphi)$.
  \end{block}
  \begin{block}{Tamaño de un test}
    % Dado un test $\varphi$, su tamaño e
    Es la mayor potencia bajo $H_0$, es decir, 
    $\sup_{\theta \in \Theta_0}\text{Pot}(\theta)$.
  \end{block}
\end{frame}
\begin{frame}{Ejemplo}
  \begin{block}{contraste
      $H_0\equiv \sigma^2 \geq 0.2$, $H_1 \equiv \sigma^2 < 0.2$}
    \begin{itemize}
    \item Se trata de un contraste unilateral.
    \item 
    $X\equiv N(\mu,\sigma)$, $n=15$, $\alpha=0.05$ $\implies$
    R.C. = $\left\{\vec x\;\middle|\; \hat S^2< 0.094\right\}$
  \item Pot$(\sigma^2) = P\,(\text{R.C.}\mid\sigma^2)=
    P\,(\hat S^2< 0.094\mid\sigma^2) =
    P\,\big(\chi^2_{14}< {14\por0.094 \over \sigma^2}\big)$

    \vspace{-7ex}
    
    \begin{center}
      \includegraphics[width=0.9\textwidth]{potencia.pdf}
      % options(OutDec=",");Pot <- function(sigma2) pchisq(14*.094/sigma2,14); pdf("potencia.pdf",5,3,bg="transparent");parmar=par("mar");par(mar=0.2+parmar);curve(Pot,0,0.4,xlab=expression(sigma^2),ylab=expression(Pot(sigma^2)));abline(v=0.2,col=2);text(c(.22,.18),.7,expression(Theta[0],Theta[1]), col=2);par(mar=parmar);rm(parmar);dev.off()
    \end{center}

    \vspace{-3ex}
    
    \end{itemize}
  \end{block}
\end{frame}

\begin{frame}{Definiciones}
  \begin{block}{Contraste uniformemente más potente}
    \begin{itemize}
    \item Sean dos contrastes $\varphi$ y $\varphi'$.
    \item Nivel de significación $\alpha$
    \item Hipótesis $H_0: \theta \in \Theta_0$ frente a $H_1: \theta \in \Theta_1$
    \end{itemize}
    $\varphi$ es \emph{uniformemente más potente} que $\varphi'$ si
    $$\text{Pot}_{\varphi}(\theta) \geq \text{Pot}_{\varphi'}(\theta) \quad
    \forall \theta \in \Theta_1$$
  \end{block}
\end{frame}
\begin{frame}{Definiciones}
  \begin{block}{El contraste más potente}
    \begin{itemize}
    \item Sean las hipótesis $H_0: \theta \in \Theta_0$ y $H_1: \theta \in \Theta_1$.
    \item Sea $\Phi_{\alpha}$ la clase de todos los contrastes a nivel $\alpha$ para contrastarlas.
    \end{itemize}
    Un test $\varphi_0$ se dice que es \emph{el más potente} para un cierto $\theta_1 \in \Theta_1$ cuando
    $$\text{Pot}_{\varphi_0}(\theta_1) \geq \text{Pot}_{\varphi}(\theta_1) \quad \forall \varphi \in \Phi_{\alpha}$$
  \end{block}
  \begin{block}{El contraste uniformemente más potente}
    $\varphi_0$ es \emph{el uniformemente más potente} si
    $$\text{Pot}_{\varphi_0}(\theta) \geq \text{Pot}_{\varphi}(\theta) \quad
    \forall \theta \in \Theta_1 \quad \forall \varphi \in \Phi_{\alpha}$$
  \end{block}
\end{frame}

\begin{frame}[fragile]{Ejemplo para comparar dos contrastes}
  \begin{block}{Población:\quad$X\equiv N(\mu,\sigma=1)$}
\begin{verbatim}
n <- 25; sigma <- 1; alfa <- 0.05
mu0 <- 5; mu1 <- 5.3 # hipótesis
\end{verbatim}
  \end{block}
  \begin{block}{Contraste 1:\quad$\text{RC}_1 = \left[\bar x > k_1\right]$}
\begin{verbatim}
k1 <- qnorm (1-alfa, mu0, sigma/sqrt(n))
p1 <- 1 - pnorm (k1, mu1, sigma/sqrt(n)) # potencia
\end{verbatim}
  \end{block}
  \begin{block}{Contraste 2:\quad$\text{RC}_2 = \left[\text{mediana}(\vec x) > k_2\right]$}
\begin{verbatim}
nr <- 1e5 # número de repeticiones de Montecarlo
medianas <- replicate (nr, median (rnorm (n, mu0, sigma)))
k2 <- quantile (medianas, 1-alfa, names=FALSE)
p2 <- mean (replicate (nr, median (rnorm (n, mu1, sigma)))
            > k2)
\end{verbatim}
  \end{block}
\end{frame}

\begin{frame}[fragile]{Ejemplo para comparar dos contrastes}
  \begin{block}{Resultado}
\begin{verbatim}
> k1          # frontera de RC1 = [media > k1]
[1] 5.328971
> k2          # frontera de RC2 = [mediana > k2]
[1] 5.407272
> p1          # potencia de contraste 1
[1] 0.4424132
> p2          # potencia de contraste 2
[1] 0.33336
\end{verbatim}
  \end{block}
\end{frame}

\begin{frame}[fragile]{Ejemplo para comparar dos contrastes}
  \begin{block}{Población:\quad$X\equiv N(\mu,\sigma=1)$}
\begin{verbatim}
n <- 25; sigma <- 1; alfa <- 0.05
mu0 <- 5; mu1 <- 5.3 # hipótesis
\end{verbatim}
  \end{block}
  \begin{block}{Otra forma de expresar la RC$_1$}
    $$\frac{\bar X-\mu_0}{\sigma:\sqrt n}\;\stackrel{H_0}{\equiv}\;N(0,1)$$
    $$\text{RC}_1=\left[\frac{\bar x-\mu_0}{\sigma:\sqrt n} > z_{1-\alpha}\right]$$
\begin{verbatim}
z1menosAlfa <- qnorm (1-alfa) # 1,644854
## potencia:
p1 <- 1 - pnorm (z1menosAlfa, (mu1-mu0)/sigma*sqrt(n))
\end{verbatim}
  \end{block}
\end{frame}

\begin{frame}[fragile]{Ejemplo para comparar dos contrastes}
  \begin{block}{$H_0\colon\mu=5\quad H_1\colon\mu>5$}
    \footnotesize
\begin{verbatim}
n <- 25; sigma <- 1; alfa <- 0.05
mu0 <- 5
potencias <- function (mu1, nr=1e4)
{
    k1 <- qnorm (1-alfa, mu0, sigma/sqrt(n))
    p1 <- 1 - pnorm (k1, mu1, sigma/sqrt(n))
    medianas <- replicate (nr, median (rnorm (n, mu0, sigma)))
    k2 <- quantile (medianas, 1-alfa, names=FALSE)
    p2 <- mean (replicate (nr, median (rnorm (n, mu1, sigma)))
                > k2)
    c (p1, p2)
}
mus <- seq (5, 7, .1)
ps <- sapply (mu1s, potencias)
plot  (mus, ps[1,], type="l", lwd=2, ylab="potencia")
lines (mus, ps[2,], col=2,    lwd=2)
legend ("bottomright", c("media","mediana"), col=1:2, lwd=2)
\end{verbatim}
  \end{block}
\end{frame}

\begin{frame}
  \centering\includegraphics[height=\textheight]{media-na.pdf}
\end{frame}

\begin{frame}{Definiciones} 
\begin{block}{Nivel crítico o P-valor}
  \begin{itemize}
    \item Dada una realización muestral $\vec x = (x_1,\ldots,x_n)$,\\ es el
      menor nivel de significación $\alpha$ para el que se rechaza $H_0$.
    \item Probabilidad, bajo $H_0$, de obtener una muestra más ``rara'' que $\vec x$.\\
      (En realidad, al menos tan ``rara'' como $\vec x$.)
    \end{itemize}
  \end{block}
  \begin{block}{Uso del P-valor}
    \begin{itemize}
    \item Se calcula después de tener los datos muestrales $\vec x$.
    \item Mide la ``compatibilidad'' de $\vec x$ con $H_0$.
    \item P-valor alto $\implies$ $p>\alpha$ $\implies$ no se rechaza $H_0$.
    \item P-valor bajo $\implies$ $p\le\alpha$  $\implies$ se rechaza $H_0$.\\
      (Resultado significativo a nivel $\alpha$.)
    \end{itemize}
  \end{block}
\end{frame}

\begin{frame}[fragile]{Ejemplo para calcular P-valor}
  \begin{block}{Población: $X\equiv N(\mu,\sigma=1)$}
    \begin{itemize}
    \item hipótesis: \quad$H_0\colon\mu=5$, \quad$H_1\colon\mu>5$
    \item $n=25$, \quad$\alpha=0.05$
    \item RC = $\left[\bar x > k\right]$ 
    \item $\alpha = 0.05 = P\left[\text{RC}\mid H_0\right] = P\left[N\left(5,\frac1{\sqrt{25}}\right)>k\right]$
    \end{itemize}
\begin{verbatim}
n <- 25; sigma <- 1; alfa <- 0.05; mu0 <- 5
k <- qnorm (1-alfa, mu0, sigma/sqrt(n)) # k=5.328971
\end{verbatim}
    \begin{itemize}
    \item Sean dos muestras con medias muestrales $\bar x=5.4$ y $\bar x=10$.
    \end{itemize}
\begin{verbatim}
pv1 <- 1 - pnorm (5.4, mu0, sigma/sqrt(n)) # pv1=0.02275013
pv2 <- 1 - pnorm ( 10, mu0, sigma/sqrt(n)) # pv2=0
\end{verbatim}
  \end{block}
\end{frame}

\begin{frame}[fragile]{Ejemplo para calcular P-valor}
  \begin{block}{Población: $X\equiv N(\mu,\sigma=1)$}
    \begin{itemize}
    \item hipótesis: \quad$H_0\colon\mu=5$, \quad$H_1\colon\mu\neq5$
    \item $n=25$, \quad$\alpha=0.05$
    \item RC = $\left[\left|\bar x-5\right| > k\right]$\qquad $\bar X-5\stackrel{H_0}\equiv N\left(0,\frac1{\sqrt{25}}\right)$
    \item $\alpha = 0.05 = P\left[\text{RC}\mid H_0\right] = P\left[\left|N\left(0,\frac1{\sqrt{25}}\right)\right|>k\right]$
    \end{itemize}
\begin{verbatim}
n <- 25; sigma <- 1; alfa <- 0.05; mu0 <- 5
k <- qnorm (1-alfa/2, 0, sigma/sqrt(n)) # 0.3919928
\end{verbatim}
    \begin{itemize}
    \item Sea una muestra con media muestral $\bar x=5.4$.
    \end{itemize}
\begin{verbatim}
pv <- 2 * (1 - pnorm (5.4-mu0, , sigma/sqrt(n))) # pv=0.0455 
\end{verbatim}
  \end{block}
\end{frame}

\begin{frame}{P-valor como variable aleatoria}
  \begin{block}{Proposición}
    Si
    \begin{itemize}
    \item $H_0$ es simple,
    \item $T$, el estadístico del contraste, es continuo, y
    \item la R.C. puede expresarse como $\{\vec x\mid T(\vec x)>c\}$,
    \end{itemize}
    entonces el P-valor $P_V$ sigue una distribución uniforme, $P_V\stackrel{H_0}{\equiv}U(0,1)$.
  \end{block}
  \begin{block}{Demostración}
    Para cada muestra $\vec x$, sea $t=T(\vec x)$. Entonces el P-valor es
    $$
    P_V(\vec x) = P[T>t\mid H_0]=1-P[T\le t\mid H_0]=1-P[T\le T(\vec x)\mid H_0]=1-F_T\bigl(T(\vec x)\bigr)
    $$
    $$F_T(T)\equiv U(0,1)\implies1-F_T(T)\equiv U(0,1)\implies P_V\equiv U(0,1)$$
  \end{block}
\end{frame}

\begin{frame}
  {P-valor como variable aleatoria}
  \begin{block}{Proposición}
    ...el P-valor $P_V$ sigue una distribución uniforme, $P_V\stackrel{H_0}{\equiv}U(0,1)$.
  \end{block}
  \begin{block}{Demostración con más detalle}
    $$F_0(t)=P\left[T\le t\mid H_0\right]$$
    $$F_0(T)=F_0[T(\vec X)]\;\stackrel{H_0}{\equiv}\;U(0,1)$$
    $$
    \begin{array}{rccl}
      P_V\colon&X(\Omega)^n&\longrightarrow&[0;1]\\
               &\vec x     &\longmapsto    &p_v=P[T>T(\vec x)\mid H_0]=1-F_0[T(\vec x)]
    \end{array}
    $$
    \begin{eqnarray*}
      % F_{P_V}(a)=
      P[P_V\le a\mid H_0] &=& P\bigl[1-F_0[T(\vec X)]\le a\mid H_0\bigr] = P\bigl[F_0[T(\vec X)]\ge 1-a\mid H_0\bigr]\\
                          &=& P[U(0,1)\ge 1-a] = 1 - P[U(0,1) < 1-a] \\
                          &=& 1 - (1-a) = a \implies P_V\;\stackrel{H_0}\equiv\;U(0,1)
    \end{eqnarray*}
  \end{block}
\end{frame}

\begin{frame}{P-valor como variable aleatoria}
\begin{block}{Interpretación}
    \begin{itemize}
    \item Bajo $H_0$, dado un nivel de significación $\alpha\in(0;1)$,
      $$F_{\text{P-valor}\mid H_0}(\alpha)=
      P_{H_0}(\text{P-valor}\le\alpha)=P(\text{rechazar }H_0\mid H_0\text{ cierta})=\alpha$$
      $\implies$ P-valor $\equiv U(0,1)$
    \item Por tanto, bajo $H_0$ pueden aparecer P-valores pequeños.
    \item Pero bajo $H_1$ esos P-valores pequeños son mucho más problables.
    \item Por eso se rechaza $H_0$ si la muestra produce un P-valor pequeño.
    \end{itemize}
\end{block}
\end{frame}

\begin{frame}{P-valor como variable aleatoria}
\begin{block}{Interpretación}
    \begin{itemize}
    \item
      $P_V(\vec X) < \alpha \iff T(\vec X)> t_{1-\alpha}$
      \begin{center}
        \includegraphics[width=.9\textwidth]{pval1.pdf}
      \end{center}
    \item $F_{P_V(\vec X)}(\alpha)=P[P_V(\vec X)<\alpha]=P[T(\vec X)>t_{1-\alpha}]=\alpha$
    \end{itemize}
\end{block}
\end{frame}

\section{Contrastes en poblaciones gausianas}

\begin{frame}{Contrastes en poblaciones gausianas, $\sigma=\sigma_0$}
\begin{block}{$H_0\colon \mu=\mu_0,\quad H_1\colon \mu\not=\mu_0$}
  $$\text{Estadístico de contraste:}\qquad E=
  \frac{\bar{X}-\mu_0}{\sigma_0/\sqrt{n}} \quad\stackrel{H_0}{\equiv}\quad N(0,1)$$
  $$\text{R.C.} = \left\{\vec x \;\Big|% \;{\frac{\bar{x}-\mu_0}{\sigma_0/\sqrt{n}}}
  \left|E\right|
    > z_{1-\frac\alpha2} \,\right\}\quad\text{con}\quad z_{1-\frac\alpha2}= F^{-1}_{ N(0,1)}\left(1-\frac\alpha2\right)$$
\end{block}
\begin{block}{$H_0: \mu \le \mu_0, \quad H_1: \mu >\mu_0$}
  $$E \stackrel{H_0}{\equiv} N(0,1)+c\quad\text{con}\quad c=\frac{\mu - \mu_0}{\sigma_0/\sqrt{n}} \le 0
  \qquad \text{R.C.}= \left\{\vec x\; \Big|\; E > z_{1-\alpha} \,\right\}$$
\end{block}
\begin{block}{$H_0: \mu \ge \mu_0,\quad H_1: \mu < \mu_0$}
  $$E \stackrel{H_0}{\equiv} N(0,1)+c\quad\text{con}\quad c=\frac{\mu - \mu_0}{\sigma_0/\sqrt{n}} \ge 0
  \qquad \text{R.C.}= \left\{\vec x\; \Big|\; E < z_{\alpha} \,\right\}$$
\end{block}
\end{frame}

\begin{frame}{Contrastes en poblaciones gausianas, $\sigma=\sigma_0$}
  \begin{block}{$H_0\colon \mu \le \mu_0 \quad H_1\colon \mu >\mu_0$\quad en detalle}
    $$
    \text{R.C.}= \left\{\vec x\; \Big|\; \bar x > k\,\right\}
    \qquad P(\text{R.C.})\le\alpha \qquad\frac{\bar{X}-\mu}{\sigma_0/\sqrt{n}}\;\stackrel{}{\equiv}\;N(0,1)
    $$
    El valor de $k$ se calcula en la frontera de $H_0$, es decir, $\mu_0$:
    \begin{eqnarray*}
      \alpha&=&P\left[\bar X > k\;|\;\mu=\mu_0\right]=
                P\left[\frac{\bar X-\mu_0}{\sigma_0/\sqrt n} > \frac{k-\mu_0}{\sigma_0/\sqrt n}\;\Big|\;\mu=\mu_0\right]=\\
            &=&P\left[N(0,1) > \frac{k-\mu_0}{\sigma_0/\sqrt n}\right]
    \end{eqnarray*}
    ¿Qué ocurre con $P(\text{R.C.}\mid\mu)$ en el resto de $\mu$ de $H_0$?
  \end{block}
\end{frame}

\begin{frame}{Contrastes en poblaciones gausianas, $\sigma=\sigma_0$}
  \begin{block}{$H_0\colon \mu \le \mu_0 \quad H_1\colon \mu >\mu_0$\quad en detalle}
    Sea $\mu<\mu_0$.  Entonces
    \begin{eqnarray*}
      P\left[\bar X > k\;|\;\mu\right]
      &=&P\left[\frac{\bar X-\mu}{\sigma_0/\sqrt n} > \frac{k-\mu}{\sigma_0/\sqrt n}\;\Big|\;\mu\right]=\\
      &=&P\left[N(0,1) > \frac{k-\mu}{\sigma_0/\sqrt n}\right]\\
      &<&P\left[N(0,1) > \frac{k-\mu_0}{\sigma_0/\sqrt n}\right]=\alpha\\
    \end{eqnarray*}
    \vspace{-2ex}Por tanto,
    $$
    \forall\mu\in H_0,\quad P(\bar X>k\mid\mu)\leq\alpha
    $$
    El tamaño del contraste es
    $$
    \sup_{\mu\in H_0}P(\text{R.C.}\mid\mu) = P(\text{R.C.}\mid\mu_0) = \alpha
    $$
  \end{block}
\end{frame}

\begin{frame}{Contrastes en poblaciones gausianas, $\sigma$ desconocida}
  \begin{block}{$H_0\colon \mu=\mu_0,\quad H_1\colon \mu\not=\mu_0$}
    $$
    \text{Estadístico  del contraste:}\qquad
    \frac{\bar{X}-\mu_0}{\hat{S}/\sqrt{n}}\stackrel{H_0}{\equiv}t_{n-1}
    $$

    $$
    \text{R.C.} = \left\{\vec x\;\Big|\left|\;
        \frac{\bar{x}-\mu_0} {\hat{s}/\sqrt{n}}\right| > t_{1-\frac\alpha2}\,\right\}\quad
    \text{con}\quad t_{1-\frac\alpha2}= F^{-1}_{ t_{n-1}}\left(1- \frac\alpha2\right)
    $$
  \end{block}
\end{frame}

\begin{frame}{Contrastes en poblaciones gausianas}
  \begin{block}{$H_0\colon \sigma^2=\sigma_0^2\quad H_1\colon \sigma^2\not=\sigma_0^2$}
      $$
      \text{Estadístico  del contraste:}\qquad
      \frac{(n-1)\hat{S}^2}{\sigma_0^2} \;\stackrel{H_0}{\equiv}\; \chi_{n-1}^2
      $$
      
      $$
      \text{R.C.} =
      \left\{\vec x \;\Big|\;\frac{(n-1)\hat{s}^2}{\sigma^2_0} < \chi_{\frac\alpha2} \right\} \bigcup
      \left\{\vec x \;\Big|\;\frac{(n-1)\hat{s}^2}{\sigma^2_0} > \chi_{1-\frac\alpha2} \right\}
      $$
      
      $$\chi_{\alpha}= F^{-1}_{\chi^2_{n-1}}(\alpha)$$
    \end{block}
  \end{frame}
\section{Contrastes en otras poblaciones}
\begin{frame}{Contrastes sobre una proporción}
  \begin{block}{$H_0\colon p=p_0  \quad H_1\colon p\not=p_0$}
    $$X\equiv B(1,p)\qquad \hat p=\bar X$$
    $$\text{Estadístico  del contraste:}\qquad
    \frac{\hat{p}-p_0}{\sqrt{\frac{p_0(1-p_0)}n}}
    \;\stackrel{H_0}{\cong}\; N(0,1)$$
    $$\text{R.C.} =
    \left\{\vec x\;\Big|\; \left|\frac{\hat{p}-p_0}{\sqrt{\frac{p_0(1-p_0)}n}}\right| > z_{1-\frac\alpha2}\right\}$$
    $$ z_{1-\frac\alpha2}= F^{-1}_{N(0,1)}\left(1-\frac\alpha2\right) $$
\end{block}
\end{frame}

\begin{frame}{Contrastes sobre la media de la distribución de Poisson}
  \begin{block}{$H_0\colon \lambda=\lambda_0  \quad H_1\colon \lambda \not=\lambda_0$}
    $$
    \text{Estadístico  del contraste:}\quad
    \frac{\bar{X}-\lambda_0}{\sqrt{\lambda_0/n}}
    \;\stackrel{H_0}{\cong}\; N(0,1)
    $$
    $$
    \text{R.C.} =
    \left\{\vec x \;\Big|\; \left|\frac{\bar{x}-\lambda_0}{\sqrt{\lambda_0/n}}\right| > z_{1-\frac\alpha2}\right\}
    $$
    $$ z_{1-\frac\alpha2}= F^{-1}_{N(0,1)}\left(1-\frac\alpha2\right) $$
\end{block}
\end{frame}

\section{Contrastes de dos muestras}

\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos conocidos}
    $$H_0\colon\quad\mu_X=\mu_Y\iff\mu_X-\mu_Y =0\qquad H_1\colon \mu_X\not=\mu_Y$$
    $$
    \text{Estadístico:}\quad
    \frac{\bar{X}-\bar{Y} - (\mu_X-\mu_Y)}{\sqrt{\frac{\sigma_X^2}{n_X}+\frac{\sigma_Y^2}{n_Y} }}\equiv N(0,1)
    $$
  \end{block}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    Previamente, contraste de igualdad de varianzas:
    $$H_0\colon \sigma^2_X =\sigma^2_Y\quad H_1\colon \sigma^2_X\not=\sigma^2_Y$$
    $$
    \text{Estadístico  del contraste:}\quad
    \frac{\hat{S}_X^2}{\hat{S}_Y^2}\stackrel{H_0}\equiv F_{n_X-1, n_Y-1}
    $$
 \end{block}
\end{frame}

\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    $$H_0\colon\quad\mu_X=\mu_Y\iff\mu_X-\mu_Y =0\qquad H_1\colon \mu_X\not=\mu_Y$$
    Estadístico:
    \begin{itemize}
    \item si $\sigma_X=\sigma_Y$
      $$
      T=\frac{\bar{X}-\bar{Y}}
      {\sqrt{\frac{1}{n_X}+\frac{1}{n_Y}}\sqrt{\frac{(n_X-1)\hat{S}^2_X +(n_Y-1)\hat{S}^2_Y}{n_X+n_Y-2}}}
      \;\stackrel{H_0}\equiv\;t_{n_X+n_Y-2}
      $$
    \item si $\sigma_X\not=\sigma_Y$
      $$
      T=\frac{\bar{X}-\bar{Y}} {\sqrt{\frac{\hat{S}^2_X}{n_X}+\frac{\hat{S}^2_Y}{n_Y}}}
      \stackrel{H_0}\cong t_c  \qquad
      c=\frac{\left(\frac{\hat{S}^2_X}{n_X}+\frac{\hat{S}^2_Y}{n_Y}\right)^2}
      {\frac{\hat{S}^4_X}{n_X^2(n_X-1)}+\frac{\hat{S}^4_Y}{n_Y^2(n_Y-1)}}
      $$
    \end{itemize}
  \end{block}
\end{frame}

\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    \begin{itemize}
    \item si $\sigma_X\not=\sigma_Y$:
      $$
      T=\frac{\bar{X}-\bar{Y}} {\sqrt{\frac{\hat{S}^2_X}{n_X}+\frac{\hat{S}^2_Y}{n_Y}}}
      =\frac{\frac{\bar{X}-\bar{Y}}{\sqrt{\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}}}
      {\frac{\sqrt{\frac{\hat{S}^2_X}{n_X}+\frac{\hat{S}^2_Y}{n_Y}}}
        {\sqrt{\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}}}
      $$
      numerador:
      $$
      {\frac{\bar{X}-\bar{Y}}{\sqrt{\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}}}
      \stackrel{H_0}{\equiv}N(0,1)
      $$
      
      \bigskip denominador: distribución desconocida
    \end{itemize}
  \end{block}
\end{frame}

\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    \begin{itemize}
    \item si $\sigma_X\not=\sigma_Y$: aproximación de Welch-Satterthwaite

      \bigskip Se busca $c$ tal que
      $$
      \frac{\frac{\hat S^2_X}{n_X}+\frac{\hat S^2_Y}{n_Y}}
      {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}
      \quad\cong\quad\frac{\chi^2_c}{c}
      $$
      es decir, tengan misma media y varianza.
    \end{itemize}
  \end{block}  
\end{frame}

\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    \begin{itemize}
    \item si $\sigma_X\not=\sigma_Y$: aproximación de Welch-Satterthwaite

      \bigskip
      $$
      \hat S_X^2,\hat S_Y^2\quad\text{son estimadores insesgados de}\quad\sigma^2_X,\sigma^2_Y
      $$

      $$
      \frac{\hat S^2_X}{n_X}+\frac{\hat S^2_Y}{n_Y}
      \quad\text{es estimador insesgado de}\quad
      \frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}
      $$

      $$
      E\left[\frac{\frac{\hat S^2_X}{n_X}+\frac{\hat S^2_Y}{n_Y}}
        {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}\right] =
      \frac{\frac{E[\hat S^2_X]}{n_X}+\frac{E[\hat S^2_Y]}{n_Y}}
      {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}
      =\frac
      {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}
      {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}=1
      =\frac c c=\frac{E[\chi^2_c]}{c}=E\left[\frac{\chi^2_c}{c}\right]
      $$
    \end{itemize}
  \end{block}  
\end{frame}


\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    \begin{itemize}
    \item si $\sigma_X\not=\sigma_Y$: aproximación de Welch-Satterthwaite
      \begin{eqnarray*}
        \frac{(n-1)\hat S^2}{\sigma^2}\equiv\chi^2_{n-1}
        &\implies&
                   \text{Var}(\hat S^2)=\frac{2(n-1)\sigma^4}{(n-1)^2}=\frac{2\sigma^4}{n-1}\\
        &\implies&
      \text{Var}\left[\frac{\frac{\hat S^2_X}{n_X}+\frac{\hat S^2_Y}{n_Y}}
        {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}\right]
      =2\frac{\frac{\sigma^4_X}{n_X^2(n_X-1)}+\frac{\sigma^4_Y}{n_Y^2(n_Y-1)}}
      {\left(\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}\right)^2}
      \end{eqnarray*}
    \end{itemize}
  \end{block}  
\end{frame}

\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    \begin{itemize}
    \item si $\sigma_X\not=\sigma_Y$: aproximación de Welch-Satterthwaite
      $$
      \text{Var}\left[\frac{\frac{\hat S^2_X}{n_X}+\frac{\hat S^2_Y}{n_Y}}
        {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}\right]
      =2\frac{\frac{\sigma^4_X}{n_X^2(n_X-1)}+\frac{\sigma^4_Y}{n_Y^2(n_Y-1)}}
      {\left(\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}\right)^2}
      $$

      $$
      \text{Var}\left[\frac{\frac{\hat S^2_X}{n_X}+\frac{\hat S^2_Y}{n_Y}}
        {\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}}\right]
      =\text{Var}\left[\frac{\chi^2_c}{c}\right]=\frac{2c}{c^2}=\frac2c
      $$
      
      $$
      c=\frac{\left(\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}\right)^2}
      {\frac{\sigma^4_X}{n_X^2(n_X-1)}+\frac{\sigma^4_Y}{n_Y^2(n_Y-1)}}
      \approx\frac{\left(\frac{\hat{S}^2_X}{n_X}+\frac{\hat{S}^2_Y}{n_Y}\right)^2}
      {\frac{\hat{S}^4_X}{n_X^2(n_X-1)}+\frac{\hat{S}^4_Y}{n_Y^2(n_Y-1)}}
      $$
    \end{itemize}
  \end{block}  
\end{frame}

\begin{frame}{Contrastes para la comparación de medias}
  \begin{block}{Dos poblaciones gausianas independientes, desvíos desconocidos}
    \begin{itemize}
    \item si $\sigma_X\not=\sigma_Y$: aproximación de Welch-Satterthwaite

      \bigskip El valor teórico de $c$,
      $$
      c=\frac{\left(\frac{\sigma^2_X}{n_X}+\frac{\sigma^2_Y}{n_Y}\right)^2}
      {\frac{\sigma^4_X}{n_X^2(n_X-1)}+\frac{\sigma^4_Y}{n_Y^2(n_Y-1)}}
      =\frac{\left(\frac1{n_X}+\frac{\left(\frac{\sigma_Y}{\sigma_X}\right)^2}{n_Y}\right)^2}
      {\frac1{n_X^2(n_X-1)}+\frac{\left(\frac{\sigma_Y}{\sigma_X}\right)^4}{n_Y^2(n_Y-1)}}
      $$
      depende de los desvíos sólo a través del cociente $\frac{\sigma_Y}{\sigma_X}$.
    \end{itemize}
  \end{block}  
\end{frame}

\begin{frame}[fragile]{Contrastes para la comparación de dos proporciones}
\begin{block}{Dos muestras independientes}
  $$H_0\colon p_X=p_Y  \qquad H_1\colon p_X \not=p_Y$$
  $$
  \text{Estadístico  del contraste:}\qquad
  E=\frac{\hat{p}_X-\hat{p}_Y}
  % {\sqrt{\frac{\hat{p}_X(1-\hat p_X)}{n_X} +\frac{\hat p_Y(1-\hat p_Y)}{n_Y}}}
  {\sqrt{\hat{p}(1-\hat p)\left(\frac1{n_X}+\frac{1}{n_Y}\right)}}
  \quad\stackrel{H_0}{\cong}\quad N(0,1)
  $$
  $$\text{con}\quad\hat p = \frac {n_X \hat p_X + n_Y \hat p_Y}{n_X+n_Y}
  \qquad\text{(en {\sf R}, considerar que } E^2\cong\chi^2_1\text{)}$$
\end{block}
\begin{block}{}

\footnotesize
 \begin{verbatim}
 > nx <- 31; ny <- 22; rx <- 25; ry <- 9
 > prop.test(c(rx,ry), c(nx,ny), correct=FALSE) $ p.value
 [1] 0.002955373
 > p <- (rx+ry) / (nx+ny)
 > 2*(1-pnorm(abs((rx/nx-ry/ny)/sqrt((p*(1-p)*(1/nx+1/ny))))))
 [1] 0.002955373
 \end{verbatim}
\end{block}
\end{frame}

\begin{frame}{Tamaño de muestra y potencia}
\begin{block}{Caso gausiano: $X\equiv N(\mu,\sigma_0)$}
  Calcular el mínimo tamaño de muestra $n$ necesario para\\
  detectar una diferencia $d=|\mu_1-\mu_0|$ \\
  con una potencia $1-\beta$ en  el contraste
  $$H_0\colon\mu=\mu_0\quad H_1:\mu\neq\mu_0$$
  a nivel de significación $\alpha$.

  $$
  \text{R.C.} = \left\{\vec x\;\Big|\;
    \left|\frac{\bar x-\mu_0}{\sigma_0/\sqrt{n}}\right| > z_{1-\frac\alpha2} \right\}
  $$
  $$
  n \geq \sigma_0^2\frac{(z_{1-\frac\alpha2} - z_{\beta})^2}{d^2}
  $$
\end{block}
\end{frame}

\begin{frame}{Tamaño de muestra y potencia}
\begin{block}{Caso gausiano: $X\equiv N(\mu,\sigma_0)$}
  Sin pérdida de generalidad, supóngase $\mu_1=\mu_0+d$.
  $$
  \text{R.C.} = \left\{\vec x\;\Big|\;
    \left|\frac{\bar x-\mu_0}{\sigma_0/\sqrt{n}}\right| > z_{1-\frac\alpha2} \right\}
  $$
  $$
  1-\beta=P\left(\text{R.C.}\mid\mu_1\right) =
  P\left[\left|\frac{\bar X-\mu_0}{\sigma_0/\sqrt{n}}\right| > z_{1-\frac\alpha2} \;\middle|\;\mu_1\right]={}
  $$
  $$
  {}=
  P\left[\left|\frac{\bar X-\mu_1+d}{\sigma_0/\sqrt{n}}\right| > z_{1-\frac\alpha2} \;\middle|\;\mu_1\right]=
  P\left[\left|N(0,1)+\frac{d}{\sigma_0/\sqrt{n}}\right| > z_{1-\frac\alpha2} \;\middle|\;\mu_1\right]={}
  $$
  $$
  {}=1-P\left[-z_{1-\frac\alpha2}\le N(0,1)+\frac{d}{\sigma_0/\sqrt{n}} \le z_{1-\frac\alpha2}
    \;\middle|\;\mu_1\right]={}
  $$
  $$
  {}=1-\left[\Phi\left(z_{1-\frac\alpha2}-\frac{d}{\sigma_0/\sqrt{n}}\right)
  -\Phi\left(-z_{1-\frac\alpha2}-\frac{d}{\sigma_0/\sqrt{n}}\right)\right]
  $$
\end{block}
\end{frame}

\begin{frame}{Tamaño de muestra y potencia}
\begin{block}{Caso gausiano: $X\equiv N(\mu,\sigma_0)$}

  En consecuencia
  $$
  \beta=\Phi\left(z_{1-\frac\alpha2}-\frac{d}{\sigma_0/\sqrt{n}}\right)
  -\Phi\left(-z_{1-\frac\alpha2}-\frac{d}{\sigma_0/\sqrt{n}}\right)
  $$
  donde
  $$
  \Phi\left(-z_{1-\frac\alpha2}-\frac{d}{\sigma_0/\sqrt{n}}\right)\approx0
  $$
  Por tanto
  $$
  \Phi\left(z_{1-\frac\alpha2}-\frac{d}{\sigma_0/\sqrt{n}}\right)\approx\beta
  \implies
  z_{1-\frac\alpha2}-\frac{d}{\sigma_0/\sqrt{n}}\approx\Phi^{-1}(\beta)=z_\beta
  $$
  $$\implies
  n\approx\left[\sigma_0\frac{z_{1-\frac\alpha2}-z_\beta}d\right]^2
  $$
\end{block}
\end{frame}

\end{document}
%---------------------------------------------------------------------------------------------------------
%---------------------------------------------------------------------------------------------------------


\section{Contraste de hipótesis simple}
%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block} {Objetivo}
Determinar el test más potente para contrastar dos hipótesis simples al nivel de significación  $\alpha$.
\end{block}
\begin{block}{Lema de Neyman-Pearson (Test no aleatorizados)}
Sea $X$ una v.a. que solo puede tener dos distribuciones $\{F_0 ,\; F_1\}$.
Sean $H_0: X\equiv F_0$ y $H_1: X\equiv F_1$ dos hipótesis simples,  $(X_1,\ldots,X_n)$  una m.a.s.  de X,
  y  $C_0 \subset{\cal X}^n $ tal que
$\{\vec{x} / L_{H_1}(\vec{x})>k L_{H_0}(\vec{x})\} \subset C_0 \subset \{\vec{x} / L_{H_1}(\vec{x}) \geq k L_{H_0}(\vec{x})\}$
 para algún $k>0$ y que verifica $P_{H_0}(C_0)=\alpha$. \\ Entonces $C_0$ es la región crítica asociada a un test con significación $\alpha$ y máxima potencia entre los tests al nivel  de significación $\alpha$.
\end{block}
\end{frame}

%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block} {Test de Neyman Pearson}
Determinar el test más potente para contrastar, con una muestra de tamaño 15 y  al nivel de significación  $0.05$.
\begin{itemize}
  \item Si $ X\equiv N(\mu,2)\quad  H_0: \mu = 3 \quad H_1: \mu = 4$
  \item Si $ X\equiv U(0,\theta) \quad  H_0: \theta = 1 \quad H_1: \theta = 1.5$
  \item Si $ X\equiv B(p) \quad  H_0: p=0.5  \quad H_1: p=0.7$
  \item Si $ X\equiv N(\mu,\sigma)\quad  H_0:X\equiv N(3,2) \quad H_1: X\equiv N(4,1)$
\end{itemize}
\end{block}
\end{frame}
%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block} {Test de Neyman Pearson aleatorizado}
 Sea $X$ una v.a. con distribución $F_0$ 0 $F_1$
Sean $H_0: X\equiv F_0$ y $H_1: X\equiv F_1$ dos hipótesis simples y $(X_1,\ldots,X_n)$
una m.a.s.
\begin{itemize}
\item Cualquier test de la forma
$$\varphi(\vec{x}) =\left\{  \begin{array}{lll}
1 & si& L_{H_1}(\vec{x})>k L_{H_0}(\vec{x})\\
\gamma(\vec{x}) & si & L_{H_1}(\vec{x})=k L_{H_0}(\vec{x})\\
0 & si& L_{H_1}(\vec{x})<k L_{H_0}(\vec{x})
\end{array}\right. \eqno(1)$$
con k$>0$\, es el más potente entre los de su tamaño.
\item Para cada $\alpha \in (0,1)$ existe un test con $\gamma(\vec{x}) = c^{te}$  de la
forma (1) con tamaño $\alpha$.
\item Un test de máxima potencia al nivel
$\alpha$ para contrastar $H_0$ frente a $H_1$ es de la forma
dada.
\end{itemize}
\end{block}
\end{frame}%---------------------------------------------------------------------------------------------------------
\section{Tests unilaterales}

%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block}{Tests unilaterales}
Las hipótesis simples son poco usuales en las aplicaciones reales, más común es plantear \textcolor[rgb]{1.00,0.00,0.00}{contrastes unilaterales}.
$$\left.\begin{array}{ll}
H_0 \equiv & \theta \leq \theta_0 \\
H_1 \equiv & \theta > \theta_0\end{array}\right.  \qquad \left.\begin{array}{ll}
H_0 \equiv & \theta \geq \theta_0 \\
H_1 \equiv & \theta < \theta_0\end{array}\right. $$
\end{block}
existen  test U.M.P. en algunos casos particulares

\vspace{0.5cm}
Una familia de distribuciones $F_{\theta},\,\theta \in \Theta \subset \mathbb{R}$ tiene
\textcolor[rgb]{1.00,0.00,0.00}{razón de verosimilitud monótona} si existe un estadístico unidimensional $T(\vec{x})$ tal que para
$\theta_1 <\theta_2$ entonces $\dfrac{f_{\theta_2}(\vec{x})}{f_{\theta_1}(\vec{x})}$ es una
función no decreciente de $T$ en el conjunto de puntos $\vec{x}$ en los que al menos una de
las verosimilitudes es no nula.

\end{frame}
%---------------------------------------------------------------------------------------------------------
\begin{frame}

 \begin{block}{Teorema de Karlin-Rubin}
Sea $X$ una v.a. con distribución $F_{\theta},\,\theta \in \Theta \subset \mathbb{R}$ y razón
de verosimilitud monótona en $T(\vec{x})$. Entonces se verifica que:
\begin{itemize}
\item Para contrastar $H_0 \equiv  \theta \leq \theta_0 $ frente a
$H_1 \equiv  \theta > \theta_0$  existe un test $\varphi$ de tamaño $\alpha, \alpha \in (0,1)$  y UMP
 de la forma
$$\varphi(\vec{x}) =\left\{  \begin{array}{lll}
1 & si& T(\vec{x})>c\\
\gamma(\vec{x}) & si & T(\vec{x})=c\\
0 & si& T(\vec{x})<c
\end{array}\right. $$
\item Todo test de la forma anterior tiene función de potencia $Pot(\theta) \in (0,1)$
estrictamente creciente.
\item Si otro test $\varphi'$ es tal que $E_{\theta_0}(\varphi') = \alpha$ entonces
$E_{\theta}(\varphi) \leq  E_{\theta}(\varphi')$ para todo $\theta \leq \theta_0 $.
\end{itemize}
\end{block}
\end{frame}
%---------------------------------------------------------------------------------------------------------

\begin{frame}

 \begin{block}{Teorema de Karlin-Rubin}
Sea $X$ una v.a. con distribución $F_{\theta},\,\theta \in \Theta \subset \mathbb{R}$ que tiene
razón de verosimilitud monótona en $T(\vec{x})$. Entonces se verifica que:
\begin{itemize}
\item Para  contrastar $H_0 \equiv  \theta \ge \theta_0 $ frente a $H_1 \equiv  \theta <
\theta_0$  existe un test $\varphi$ de tamaño $\alpha, \alpha \in (0,1)$ y UMP de la forma
$$\varphi(\vec{x}) =\left\{  \begin{array}{lll}
1 & si& T(\vec{x})<c\\
\gamma(\vec{x}) & si & T(\vec{x})=c\\
0 & si& T(\vec{x})>c
\end{array}\right. $$
\item Todo test de la forma anterior tiene función de potencia $Pot(\theta) \in (0,1)$
estrictamente decreciente. \item Para cualquier test $\varphi'$ tal que $E_{\theta_0}(\varphi') =
\alpha$ se cumple que $E_{\theta}(\varphi) \leq  E_{\theta}(\varphi')$ para todo $\theta \ge
\theta_0 $.
\end{itemize}
\end{block}
\end{frame}

%---------------------------------------------------------------------------------------------------------
\section{Test de la razón de verosimilitudes}
%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block}{Tests de la razón de verosimilitudes}
Sea $X$ una v.a. con distribución  $\{F_{\theta},\,\theta \in \Theta \subset \mathbb{R}^k\}$. El contraste $H_0: \theta \in \Theta_0$ frente a $H_1: \theta \in \Theta -\Theta_0$ se basa en el estadístico de la razón de verosimilitudes
$$\Lambda(\vec{x})= \frac{\sup_{\theta \in \Theta_0}f_{\theta}(x_1,\ldots,x_n)}{\sup_{\theta \in \Theta}f_{\theta}(x_1,\ldots,x_n)}$$

\vspace{-0.2cm}
 que verifica por su definición $0 \leq \Lambda \leq 1$.

El test de razón de verosimilitudes (TRV) es
$$\varphi(\vec{x}) =\left\{  \begin{array}{lll}
1 & si& \Lambda  < c\\
\gamma(\vec{x}) & si & \Lambda =c\\
0 & si& \Lambda  >c\end{array}\right. $$

\vspace{-0.2cm} con $c \in (0,1)$ y $\gamma$ ajustados para tener  nivel de significación $\alpha$

\end{block}
\end{frame}

%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block}{Tests de la razón de verosimilitudes}
Sea $X \equiv exp( \lambda) \quad \quad H_0: \lambda=3$ frente a $H_1:\lambda \ne 3 $.,  n=15

Estadístico de la razón de verosimilitudes \small{$$\Lambda(\vec{x})=
\frac{f_{3}(x_1,\ldots,x_n)}{\sup_{\lambda>0}f_{\lambda}(x_1,\ldots,x_n)}= (3 \overline{x})^n \exp(
-n(3\overline{x}-1))$$ }

\vspace{-1cm}
 \begin{figure}[!h]
\begin{center}
    \includegraphics [width=4cm]{trvexp.pdf}
  \end{center}
\end{figure}

\vspace{-0.7cm} TRV $\alpha=0.05$:  c= 0.1443 $RC=\{ \overrightarrow{x} | 3\overline{x}<  0.5735537
\} \cup \{ \overrightarrow{x} | 3\overline{x}> 1.598617\} $


\end{block}
\end{frame}


%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block}{Tests de la razón de verosimilitudes}
Sea $X \equiv exp( \lambda)\quad \quad   H_0: \lambda \le 3$ frente a $H_1:\lambda > 3 $. n=15

\small{    $$\Lambda(\vec{x})= \frac{\sup_{\lambda\le
3}f_{\lambda}(x_1,\ldots,x_n)}{\sup_{\lambda>0}f_{\lambda}(x_1,\ldots,x_n)}=  \left\{
\begin{array}{cc}
      (3 \overline{x})^n  \exp( -n(3\overline{x}-1))& 3 \overline{x}<1\\
      1 &  3 \overline{x}\ge 1\\
    \end{array}  \right.$$}

\vspace{-1cm}
     \begin{figure}[!h]
\begin{center}
    \includegraphics [width=4cm]{trvexp1.pdf}
  \end{center}
\end{figure}

\vspace{-.7cm} TRV $\alpha=0.05$:  c=0.2223 $RC=\{ \overrightarrow{x} | 3\overline{x}<  0.616422
\}$

\end{block}
\end{frame}

%-------------------------------------------------------------------------------------------------------

 \begin{frame}\begin{block}{Convergencia asintótica del TRV}

Sea $X$ una v.a. con distribución perteneciente a una familia $F_{\theta},\,\theta \in \Theta \subset \mathbb{R}$.
y que  verifica las condiciones de regularidad para garantizar la convergencia en probabilidad  y la convergencia en ley del EMV,
 $\sqrt{n}(\hat{\theta} - \theta) \stackrel{\cal L}{\rightarrow} N(0,\sqrt{i(\theta)^{-1}})$.
  El estadístico  $\Lambda(\vec{x})$ para realizar el contraste $H_0: \theta = \theta_0$ frente a $H_1: \theta \neq \theta_0$, verifica que:
$$-2\ln \Lambda(\vec{x}) \stackrel{\cal L}{\rightarrow} \chi^2_1 \mbox{\quad bajo $H_0$}$$
\end{block}
Resultados utilizados en la demostración
\begin{itemize}
\item $X_n \stackrel{{\cal L}}{\rightarrow} X  \Rightarrow  cX_n \stackrel{{\cal L}}{\rightarrow}
cX$
\item $X_n \stackrel{{\cal L}}{\rightarrow} X \quad Y_n - X_n \stackrel{p}{\rightarrow} 0
 \Rightarrow  Y_n \stackrel{{\cal L}}{\rightarrow} X $
\item $X_n \stackrel{{\cal L}}{\rightarrow} X \quad Y_n  \stackrel{p}{\rightarrow} 0 \Rightarrow
X_nY_n \stackrel{p}{\rightarrow} 0 $
\end{itemize}
\end{frame}
%-------------------------------------------------------------------------------------------------------

 \begin{frame}\begin{block}{Convergencia asintótica del TRV}
Sea $X \equiv F_{\theta},\,\theta \in \Theta \subset R^k $. Bajo condiciones de regularidad, el TRV
para contrastar  $$H_0: \theta = \theta_0 \quad  H_1: \theta \neq \theta_0$$ verifica que
$$-2\ln \Lambda(\vec{x}) \stackrel{\cal L}{\rightarrow} \chi^2_k \mbox{\quad bajo $H_0$}$$

 Más en general,bajo condiciones de regularidad, si $ \Theta \subset R^k$ de dimensión k y
$\Theta_0$ es un subconjunto de dimensión r. Para realizar el contraste

$$H_0: \theta \in \Theta_0 \qquad H_1: \theta \in  \Theta-\Theta_0$$
$$-2\ln \Lambda(\vec{x}) \stackrel{\cal L}{\rightarrow} \chi^2_{k-r} \mbox{\quad bajo $H_0$}$$
\end{block}
\end{frame}
%---------------------------------------------------------------------------------------------------------

 \begin{frame}\begin{block}{Ejemplo: TRV homocedasticidad en poblaciones normales }
Sean $X_i \equiv N(\mu_i,\sigma_i)$ $i=1,\ldots,k$ v.a. independientes de las que se extraen m.a.s
de tamaño $n_i$.

Parámetros:  $(\mu_1, \ldots ,\mu_g,\sigma_1^2, \ldots ,
\sigma_k^2)=(\overrightarrow{\mu},\overrightarrow{\sigma^2})$
$$H_0:\sigma_1 = \ldots = \sigma_k \quad H_1: \mbox{ no todas las varianzas son
iguales}$$
\end{block}
$$ \log L(\overrightarrow{x},\overrightarrow{\mu},\overrightarrow{\sigma^2})= \sum_{i=1}^k\log
L(\overrightarrow{x_i},\mu_i,\sigma_i^2)$$ $$=\sum_{i=1}^k \left( \frac{-n_i}{2} \log(2 \pi )-
\frac{n_i}{2} \log(\sigma_i^2)-\frac{1}{2 \sigma_i^2}\sum_j(x_{ij}-\mu_i)^2 \right)$$

\end{frame}

 \begin{frame}{Ejemplo: TRV homocedasticidad en poblaciones normales }
$$ \log L(\overrightarrow{x},\overrightarrow{\mu},\overrightarrow{\sigma^2})\le  \sum_{i=1}^k \left( \frac{-n_i}{2} \log(2 \pi )-
\frac{n_i}{2} \log(s_i^2)-\frac{n_i}{2 }\right)$$ bajo la hipótesis nula
$$ \log L(\overrightarrow{x},\overrightarrow{\mu},\sigma^2\overrightarrow{1})\le  \frac{-n}{2} \log(2 \pi )-\frac{n}{2} \log(s^2)-\frac{n}{2 }$$
$$ s_i^2= \frac{\sum_{j=1}^{n_i} (x_{ij}-\overline{x}_{i.})^2}{n_i}, \quad s^2=\frac{\sum_{i=1}^{k} n_i s_i^2}{n}$$
$$ -2log  \Lambda(x)=- \sum_{i=1}^{k} n_i \log( s_i^2)+ n \log( s^2)= \sum_{i=1}^k \log{ \left(\frac{s^2}{s_i^2}\right)^{n_i}}\stackrel{\cal L}{\rightarrow} _{H_0} \chi^2_{k-1}$$
 \end{frame}

%---------------------------------------------------------------------------------------------------------

 \begin{frame}\begin{block}{Test de Bartlett}

Es una  modificación del anterior TRV  para acelerar la convergencia asintótica, se considera que
la aproximación es válida si $n_i \geq 5$
  $$B=1/c \left( -\sum_ {i=1}^k  (n_i-1) ln (\widehat{s}_i^2) + (n-I) ln(\widehat{s}^2) \right)  \stackrel{\cal L}{\rightarrow} _{H_0}
  \chi^2_{k-1}$$  con
   $$c= \frac{1}{3(k-1)}\left(\sum_{i=1}^k(\frac{1}{n_i-1}) -  \frac{1}{N-k}\right)$$
\end{block}

\end{frame}
%---------------------------------------------------------------------------------------------------------
\section{Tests múltiples}
\begin{frame}
 \begin{block}{Test múltiples}
 $$H_0: \theta \in \Theta_0 =  \theta \in  \displaystyle\cap_{i\in I}\Theta_{0_i}$$ resuelve
los contrastes $$\begin{array}{l}
 H_0^i: \theta \in \Theta_{0_i} \\
 H_1^i: \theta \notin \Theta_{0_i}
\end{array}$$
 La región crítica del test global la podemos
construir como
$$R.C = \bigcup_{i}R.C_i$$
\end{block}
\end{frame}
%---------------------------------------------------------------------------------------------------------

\begin{frame}
 \begin{block}{Test múltiples}
\begin{itemize}
    \item  \textcolor[rgb]{0.98,0.00,0.00}{Bonferroni}: para mantener  el nivel de significación global en $\alpha$,
 se realizan los contrastes simples al nivel de significación $\alpha' =\dfrac{\alpha}{nº contrastes}$

\textbf{Inconveniente}:  poco potentes, tamaño  por debajo de  $\alpha$
\item  Regiones críticas construidas por estadísticos independientes
 $(1- \alpha)= \prod (1-\alpha'_i) \Rightarrow \alpha'= 1- (1-\alpha)^{1/nº contrastes}  $

\item \textcolor[rgb]{0.98,0.00,0.00}{Tests de Unión-Intersección} Si, por ejemplo
$R.C._i = \{\vec{x}\,/\,T_i >c\}$ considera  $R.C. = \{\vec{x}\,/\,\max T_i >c\}$

\textbf{Inconveniente}: búsqueda de la distribución del $\max T_i$

\end{itemize}
\end{block}
\end{frame}
%---------------------------------------------------------------------------------------------------------


 \begin{frame}\begin{block}{Ejemplo: TRV homocedasticidad en poblaciones normales }
Sean $X_i \equiv N(\mu_i,\sigma_i)$ $i=1,\dots,10$ v.a. independientes de las que se extraen m.a.s
de tamaño $m$.\\
$$H_0:\sigma_1^2 = \ldots = \sigma_{10}^2 \Leftrightarrow   \cap_{ij} H_{{ij}_0} \sigma_i^2 =\sigma_j^2 $$

\vspace{-0.3cm}
\begin{itemize}
    \item  \textcolor[rgb]{0.98,0.00,0.00}{Bonferroni}: $\alpha' = alfa/ 45$  las regiones no son independientes
    \item  \textcolor[rgb]{0.98,0.00,0.00}{Tests de Unión-Intersección}
     $$RC= \left\{ \frac{\widehat{s}^2_{(10)}} {\widehat{s}^2_{(1)}} >c \right\}$$
    c se aproxima por la simulación del $ F_{max}=\frac{\widehat{s}^2_{(10)}}{\widehat{s}^2_{(1)}}$ bajo $H_0$
\end{itemize}

\end{block}
\end{frame}
%---------------------------------------------------------------------------------------------------------

\begin{frame}
 \begin{block}{Ejemplo test multiples}
    $X_i\equiv N(\mu_i,\sigma_i) $, i=1,2,3
    $$H_0: \mu_1=3 \cap \mu_2=2 \cap \mu_3=1\quad  H_1: \mu_1 \ne 3 \cup \mu_2\ne 2 \cup \mu_3\ne 1 $$

 $$RC_i=\left \{ \frac{n_i(\overline{x}_i-3)^2}{\widehat{s} _i^2}>c \right\}  \quad c=F^{-1}_{F_{1,n_i-1}}(1-\alpha')$$

  si $\alpha=0.05$ puede considerarse $\alpha'=1-\sqrt[3]{0.95}= 0.0169> 0.05/3$


\end{block}
\end{frame}
%---------------------------------------------------------------------------------------------------------

\begin{frame}
 \begin{block}{Procedimiento de Holm-Bonferroni}
  $H_0= \bigcap_{i=1}^k H_i$,  y se rechazan alguna de ellas(o todas)
 procedimiento secuencial basado en:\\
\noindent $\bullet$ calcular el p-valor correspondiente $p_i$ a cada contraste $H_i$  y  ordenar  $p_{(1)} \le p_{(2)}....\le p_{(k)}$  \\
\noindent $\bullet$ rechazar $\{H_{(1)}, \dots , H_{(m)}\}$ y no rechazar  $\{H_{(m+1)}, \dots , H_{(m)}\} $ si  \\ $$p_{(i)}\le \alpha/(k-i+1),\,  \forall i\le m  \quad  y \quad  p_{(m+1)}>  \alpha/(k-m)$$

Este procedimiento mantiene el nivel de significación global $\alpha$


\end{block}
\end{frame}

%---------------------------------------------------------------------------------------------------------


\begin{frame}
 \begin{block}{Ejemplo}
 Para k poblaciones exponenciales  $X_i\equiv Exp(\lambda_i)$ de las que se dispone de m.a.s. de
 tamaño m para cada población e independientes
 $$H_0:\lambda_1=\lambda_2=\lambda_3= \dots= \lambda_k$$
 $$H_1:\exists i,j \quad \lambda_i\ne \lambda_j$$
\end{block}
\end{frame}





%---------------------------------------------------------------------------------------------------------
\begin{frame}
 \begin{block}{Ejemplo Test múltiples  $X_i\equiv N(\mu,\sigma)$}
 $$H_0: \mu=3 \cap \sigma=2 \qquad  H_1: \mu \ne3 \cup \sigma \ne 2 $$

 $$RC=\left \{ \frac{\sum (x_i-3)^2}{4}>c \right\}  \qquad c=F^{-1}_{\chi^2_n}(1-\alpha)$$
o construir como
$$RC^*  =\left \{ \frac{n(\overline{x}-3)^2}{4}>c_1\right\} \cup \left\{ \frac{\sum (x_i-\overline{x})^2}{4}<c_2\right\}$$

¿\textcolor[rgb]{0.98,0.00,0.00}{como se ajustan} $c_1, \; c_2$ ?

¿Que ventajas tiene la segunda región?
\pause
$c_1=F^{-1}_{\chi^2_1}(1-\alpha') ;\quad c_2=F^{-1}_{\chi^2_{n-1}}(\alpha'/2)$
\end{block}
\end{frame}

\message{ !name(contrastes.tex) !offset(-1372) }
