Duda sobre artículo de la sesión 5

Duda sobre artículo de la sesión 5

de Leandro Hernandez Fernandez Chaves -
Número de respuestas: 1

Buenas tardes ¿cómo están? Consulto por una duda sobre el artículo de "Interval Estimation for a Binomial Proportion" de Brown, Cai y DasGupta, presentado en la sesión 5. 

Para desalentar el uso del criterio utilizado en la época (2001), se citan varios ejemplos que contradicen la "creencia" de que para n "grandes" y p lejos de los límites (0 y 1) la cobertura se aproxima al nivel de confianza deseado. Sin embargo, en los ejemplos se usan n del mismo orden, en particular hay una figura que dejo recortada debajo:




que es comentada de la siguiente manera (dejo el texto traducido):

"Ejemplo 3: Ahora movamos
p realmente cerca del límite, digamos p=0.005. Mencionamos en la introducción que tales
p son relevantes en ciertas aplicaciones prácticas. Dado que p es tan pequeño, ahora uno puede esperar completamente que la probabilidad de cobertura del intervalo estándar sea pobre. La Figura 2 y la Tabla 2.2 muestran que todavía hay sorpresas y de hecho ahora comenzamos a ver un nuevo tipo de comportamiento errático. La oscilación de la probabilidad de cobertura no se muestra hasta que 
n es bastante grande. De hecho, la probabilidad de cobertura hace una lenta ascensión hasta que n=591, y luego cae dramáticamente a 0.792 cuando
n=592. La Figura 2 muestra que después de eso, la oscilación se manifiesta con toda su fuerza, en contraste con los Ejemplos 1 y 2, donde la oscilación comenzó desde el principio".

Sin embargo, si uno mira la figura dos se puede ver cierto patrón, donde si bien hay oscilaciones estas se van "achicando" ¿cómo sabemos que ese patrón no continúa hasta que a partir de un n suficientemente grande la cobertura se aproxima al nivel de confianza dado, con oscilaciones mínimas? Este caso además sería de los "peores" porque p está bastante cerca de 0. Por otra parte, dicen contradecir la "creeencia popular" pero los "n grandes" que usan en los ejemplos son de 4 cifras a lo sumo. 

Si bien luego en el artículo citan algunos criterios que se usan para recomendar el intervalo estándar y los contradicen, esto también aplica en general para n del orden mencionado. La duda que se me genera es qué tan desaconsejable es utilizar el enfoque más común para los casos que trabajamos en el curso (con n=10000,100000,1000000, etc). El artículo parece ser muy vehemente en desestimular dicho uso ("Estaríamos satisfechos si este artículo contribuye a una mayor apreciación de las graves fallas del popular intervalo estándar y a un acuerdo en que no merece ser utilizado en absoluto."), pero los ejemplos que presentan para esto no parecen ser tan concluyentes.

Gracias desde ya.

Saludos

En respuesta a Leandro Hernandez Fernandez Chaves

Re: Duda sobre artículo de la sesión 5

de Hector Cancela -
Hola Leandro,
gracias por tu mensaje y por compartir tus reflexiones a partir de la lectura del trabajo.
Dado el TLC, cuando n tiende a infinito, el intervalo usual basado en la normal (intervalo de Wald en el artículo) es el correcto en el límite.
El artículo muestra las limitaciones que suceden para el caso de estimar "proporciones binomiales" , como es el caso en que hacemos Monte Carlo estándar para estimar un volumen. El efecto que muestran depende de si n "no es tan grande", o si p "es muy pequeño" (cercano a 0 - también se va a dar el mismo problema si p "es muy grande", cercano a 1).
Estas dos cosas están relacionadas. Para p muy pequeño, es necesario que n sea muy muy grande para que la pérdida de precisión del intervalo no sea significativa. Efectivamente en el curso estamos usando valores de n bastante grandes (ya que con las computadoras actuales, tanto en procesador como en memoria, es posible hacerlo), y por lo tanto para valores de p como los del artículo el error cometido con el intervalo de Wald puede ser pequeño. Pero al mismo tiempo, también se está dando que en la práctica, tal como se usan n grandes, también se intenta resolver problemas más exigentes (con valores de p muy pequeños).
Como no conocemos el p de antemano, es difícil saber qué n necesitamos para evitar el problema de la precisión.
En este sentido, el artículo es útil porque propone otros intervalos (como el Agresti-Coull, que es sencillo de usar, y que nos asegura que no tenemos el mismo problema de precisión).
Por lo tanto, si es una recomendación interesante, que sin costo computacional, y con una implementación muy sencilla, nos permite estar "más tranquilos" que estamos haciendo una estimación que es más robusta y no depende entonces tanto de los valores de n y p.

Muchos saludos
Héctor

PD: para algunos problemas, el estimar cada muestra puede ser muy costoso computacionalmente, y entonces el n puede ser pequeño (en el orden de algunos cientos por ejemplo). En esos casos, es aún más importante la recomendación.