images

Introducción a la Estadística Matemática

Introducción a la Estadística matemática

Humberto Llinás Solano

images

Llinás Solano, Humberto.

Introducción a la estadística matemática / Humberto Llinás Solano. — Barranquilla, Col. : Editorial Universidad del Norte, reimp., 2018.

xxxi, 205 p. : il., tablas ; 24 cm.

Incluye referencias bibliográficas (p.197-202) e índice.

ISBN 978-958-741-443-1 (impreso)

ISBN 978-958-741-922-1 (epub)

I. Estadística matemática. II. Probabilidades. 1. Tít.

(519.2 L791em 23 ed.) (CO-BRUNB)

image

Vigilada Mineducación

www.uninorte.edu.co

Km 5, vía a Puerto Colombia, A.A. 1569

Área metropolitana de Barranquilla (Colombia)

image

www.ecoeediciones.com

Carrera 19n.° 63C-32

Bogotá (Colombia)

© Universidad del Norte, 2018 Humberto Llinás Solano

Primera edición, abril de 2014

Primera reimpresión, julio de 2016

Segunda reimpresión, enero de 2018

Coordinación editorial

Zoila Sotomayor O.

Maquetación

Humberto Llinás Solano

Procesos técnicos

Munir Kharfan de los Reyes

Diseño de portada

Andrés Racedo

Corrección de textos

Henry Stein

Desarrollo ePub

Lápiz Blanco S.A.S.

Hecho en Colombia

Made in Colombia

© Reservados todos los derechos. Queda prohibida la reproducción total o parcial de esta obra por cualquier medio reprográfico, fónico o informático, así como su transmisión por cualquier medio mecánico o electrónico, fotocopias, microfilm, offset, mimeográfico u otros sin autorización previa y escrita de los titulares del copyright. La violación de dichos derechos puede constituir un delito contra la propiedad intelectual.

El autor

HUMBERTO LLINÁS SOLANO

Licenciado en Ciencias de la Educación, con énfasis en Matemáticas, Física y Estadística de la Universidad del Atlántico (Colombia). Magister en Matemáticas, convenio Universidad del Valle-Universidad del Norte (Colombia). Doctor en Estadística (Dr. rer. nat.) de la Universidad Johannes Gutenberg de Mainz (Alemania). Desde 1998 se desempeña como profesor de tiempo completo de la Universidad del Norte y forma parte de los grupos de investigación de dicha institución Matemáticas y Enfermedades tropicales. Autor de los siguientes textos1:

Estadística descriptiva y distribuciones de probabilidad (2005, [61])

Estadística inferencial (2006, [62])

Una visión histórica del concepto moderno de integral (como editor, 2006, [52])

Medida e integración (2007, [63])

Applets de estadística (2007, [65])

Introducción a la estadística con aplicaciones en Ciencias Sociales (2012, [66])

Procesos estocásticos con aplicaciones (como coautor, 2013, [1])

Introducción a la teoría de la probabilidad (2014, [67])

1Se cita el título del texto o applet, el año de publicación y la referencia bibliográfica respectiva. Cuando es necesario, un comentario adicional.

Contenido

Prefacio

Introducción

Convenciones y preliminares

1 Preliminares

1.1 Algunas distribuciones de probabilidad

1.1.1 Distribuciones especiales

1.1.2 Relaciones entre algunas distribuciones

1.2 Vectores aleatorios discretos y continuos

1.3 Variables aleatorias independientes

1.4 Convoluciones

1.5 Teoremas de transformación

1.6 Teoremas de convergencias

1.6.1 Propiedades que se cumplen casi seguro

1.6.2 Tipos de convergencia

1.6.3 Ley de los grandes números

1.7 Teorema central del límite

image Breve biografía de J. Bernoulli y A. N. Kolmogorov

image Ejercicios

2 Distribuciones muestrales

2.1 Modelos estadísticos

2.2 Estadísticos y distribuciones muestrales

2.2.1 Estadístico

2.2.2 Distribución muestral

2.3 Distribución muestral de la media

2.4 Distribución muestral de la proporción

2.5 Distribución muestral de la diferencia de medias

2.5.1 El caso de muestras independientes

2.5.2 El caso de muestras dependientes o pareadas

2.6 Distribución muestral de la diferencia de proporciones

2.7 Distribución muestral de la varianza

2.8 Distribución muestral de la razón de varianzas

image Breve biografía de H. Cramér y W. Gosset

image Ejercicios

3 Estimación

3.1 Términos básicos

3.2 Criterios para examinar estimadores

3.2.1 Insesgo

3.2.2 Eficiencia

3.2.3 Varianza mínima

3.2.4 Consistencia

3.2.5 Suficiencia

3.3 Métodos clásicos de estimación

3.3.1 Método de momentos

3.3.2 Método de máxima verosimilitud (ML-estimación)

image Breve biografía de R. Fisher

image Ejercicios

4 Intervalos de confianza

4.1 Introducción

4.1.1 Intervalo de confianza

4.1.2 Intervalo de confianza como estimación

4.2 Intervalos de confianza para la media

4.3 Intervalo de confianza para la proporción

4.4 Intervalos de confianza para la diferencia de dos medias (muestras independientes)

4.4.1 Primer caso: varianzas poblacionales conocidas o desconocidas y muestras grandes

4.4.2 Segundo caso: varianzas poblacionales iguales, desconocidas y muestras pequeñas

4.4.3 Tercer caso: varianzas poblacionales diferentes, desconocidas y muestras pequeñas

4.5 Intervalos de confianza para la diferencia de dos medias (muestras dependientes o pareadas)

4.6 Intervalo de confianza para la diferencia de dos proporciones poblacionales

4.7 Intervalos de confianza para la varianza

4.8 Intervalos de confianza para la razón de varianzas

image Breve biografía de K. Pearson

image Ejercicios

5 Pruebas de hipótesis

5.1 Preliminares

5.1.1 Hipótesis estadística, nula y alternativa

5.1.2 Pasos para realizar una prueba de hipótesis

5.1.3 Criterio del error de tipo I

5.1.4 Criterio del P-valor

5.1.5 Criterio de los errores de tipo I y II

5.1.6 Medición de la potencia de un contraste

5.2 Pruebas de la razón de verosimilitud

5.2.1 Pasos para la prueba de la razón de verosimilitud

5.2.2 Pasos para la LR-prueba en problemas concretos

5.2.3 Ejemplos

image Breve biografía de J. Neyman

image Ejercicios

A Apéndice de resultados

B Apéndice de tablas

1. Distribución binomial

2. Distribución de Poisson

3. Distribución normal estándar

4. Valores críticos para la distribución t

5. Distribución chi-cuadrada

6. Valores críticos para la distribución F

7. Algunas distribuciones discretas

8. Algunas distribuciones continuas

9. Resumen de distribuciones muestrales e intervalos

Bibliografía y referencias

Prefacio

No habrá desarrollo sin educación ni progreso sin cultura.
(ALBERTO ASSA)2

Acerca de este libro

Este libro fue desarrollado a partir de un conjunto de notas de clases sobre la asignatura Estadística Matemática en los programas de postgrados Estadística eIngeniería de la Universidad del Norte, pero está dirigido a un público amplio.

Estructura

Este texto consta de:

Cinco capítulos. En el capítulo 1 se hace un repaso general de los conceptos básicos de la teoría de probabilidad; el 2 lo iniciamos con algunos conceptos básicos y terminologías referentes a las distribuciones de algunos estadísticos; en el 3 planteamos la teoría concerniente a las estimaciones y algunos métodos de estimación; en el 4 explicamos la estimación por intervalos; finalmente, en el 5 exponemos los diferentes procedimientos de pruebas de hipótesis.

Cada sección (y algunos capítulos) comienza con el acontecimiento histórico más importante relacionado con cada capítulo.

Al final de cada capítulo se presenta una serie de ejercicios correspondientes a los temas desarrollados en el mismo. Antes del primer capítulo se introduce una lista de las notaciones más usuales y especiales presentadas en el texto. Obviamente, algunas de las secciones y temas pueden ser omitidos sin que esto haga perder continuidad; ello está sujeto al criterio de la persona que dirija el curso.

Además de desarrollar matemáticamente los aspectos más importantes relacionados con la teoría de la probabilidad, también se presentan muchas citas originales y sugerencias acerca del desarrollo histórico de la misma, así como sus fuentes correspondientes. Por motivos claros, no fue posible presentar una representación detallada de toda la historia. De todas formas, espero que los datos suministrados le permitan al lector tener un enfoque general del desarrollo histórico de la misma, para que se interese por los datos originales.

Para no olvidar la importancia del aspecto humano, se presentan biografías breves de algunos matemáticos (en algunos casos con sus respectivas fotografías) que han contribuido significativamente al desarrollo de los temas tratados en este texto.

Dos apéndices. En el primero se resumen los resultados más importantes del análisis matemático que se aplicaron en los teoremas introducidos en el texto; en el segundo se presentan las tablas estadísticas de uso frecuente, como la binomial, la de Poisson, la normal, t de Student, chicuadrada y F de Fisher.

Una bibliografía en la que se relacionan los documentos y libros consultados, citados o no, usados para la elaboración de este texto.

Un índice de los términos más importantes utilizados en el texto.

Signos convencionales utilizados en este texto

En este texto se citan afirmaciones de la siguiente manera:

Números de dos niveles y encerrados en paréntesis; por ejemplo (2.1), significa números de las ecuaciones. El primer número corresponde al capítulo donde está la ecuación, y el segundo, al número de la ecuación dentro del capítulo.

Todos los números de dos niveles y sin paréntesis (por ejemplo, 2.2) hacen referencia a secciones, tablas y figuras. El primer número alude al capítulo donde está la sección, tabla o figura, y el segundo, al número de la sección, tabla o figura dentro del capítulo.

Todos los números de tres niveles (por ejemplo, 2.3.4) se refieren a definiciones, axiomas, teoremas y ejemplos del texto (como antes, el primer número corresponde al capítulo, el segundo, a la sección de ese capítulo, y el tercero al número de la definición, axioma, teorema y ejemplo dentro de la sección).

Todos los números de tres niveles y acompañados de una letra (por ejemplo, 2.3.1a) hacen referencia a una parte específica de una definición, axioma, teorema y ejemplo dentro del texto, como por ejemplo, a la parte (a).

Números sin paréntesis aluden a pies de páginas y números de ejercicios.

Literaturas y referencias se citan con un número dentro de un corchete, e inclusive, a veces, colocadas después del nombre del autor referenciado; por ejemplo, LLINÁS [61]. En algunas ocasiones, las citas bibliográficas aparecen con más detalles; por ejemplo, LLINÁS [61, pág. 132] significa que lo referenciado se encuentra en la página 132 de [61].

En muchas ocasiones, el nombre y apellido de los matemáticos citados se acompaña de las fechas en que nacieron y murieron (si ese es el caso) y la edad a la que fallecieron. Por ejemplo, JACOB BERNOULLI (1654-1703;49) significa que este matemático nació en 1654 y murió en 1703, a la edad de 49 años.

Teoremas con una frase y/o literatura(s) en paréntesis significa que dicho teorema se conoce con ese nombre y su correspondiente demostración se puede encontrar en la(s) literatura(s) citada(s).

Teoremas, lemas, definiciones, etc., con un nombre de un matemático y/o fecha y/o literatura en paréntesis significa que el correspondiente resultado fue introducido por ese matemático en la fecha indicada y publicado en la literatura citada.

Los símbolos ◀ y ■ indican los finales de un ejemplo y de una demostración, respectivamente.

Algunos apuntes históricos, bibliografías y fotos fueron tomados de ELSTRODT [20] y de la página web citada en [106], respectivamente.

Al lector

Estimado lector:

Trabajé con mucha dedicación para que este libro resultara eficaz a nivel pedagógico y no tuviera errores.

No obstante, si tiene preguntas, observaciones o sugerencias, por favor, póngase en contacto conmigo a través de esta dirección: hllinas@uninorte.edu.co.

Agradecimientos

Mi gratitud a los profesores que, de alguna forma u otra, ayudaron en la revisión de este texto mediante sugerencias y recomendaciones pertinentes.

De igual manera, expreso sinceros agradecimientos a la Editorial Universidad del Norte por darme la oportunidad de publicarlo.

Agradecimiento especial a Greyci y a Brian por escribir gran parte del material en el computador con ayuda del programa MiKTeX.

Finalmente, agradezco a mi madre, esposa e hijos por su apoyo, paciencia, comprensión, amor y ayuda para hacer de este libro una realidad. Lo dedico a ellos.

También lo dedico a los profesores Alberto Assa y Peter Paul Konder y a mi padre, que descansen en paz.

2El profesor Assa nació en Constantinopla (Turquía) en 1909 y falleció en Barranquilla (Colombia) el 14 de marzo de 1996, a los 87 años. Fundó el Instituto de Lenguas Modernas (1952), la organización El Concierto del Mes (1957), la Escuela Superior de Idiomas, la Universidad Pedagógica del Caribe, el Instituto Pestalozzi, la Facultad de Educación de la Universidad del Atlántico y el Instituto Experimental del Atlántico José Celestino Mutis (1970). También fundó el sello editorial Instituto de Lenguas Modernas.

Introducción

Statistics is the grammar of science. (K. PEARSON [76])

Breve sinopsis histórica

El famoso trabajo de T. BAYES (1702-1761;59) publicado en 1763 es conocido como el primero que utiliza la teoría de la probabilidad como un instrumento de razonamiento inductivo, es decir, para argumentar a partir de lo particular a lo general, o de la muestra a la población. Fue publicado postumamente, y no se sabe cuáles hubiesen sido las opiniones de Bayes al respecto si hubiese vivido más tiempo. Se sabe que la razón de su duda para no publicarlo fue que no estaba satisfecho con el postulado requerido para el famoso teorema de Bayes. Aunque muchos rechazan este postulado, también muchos reconocen su grandeza en el análisis de los problemas que debía resolver, debido a que siempre proponía soluciones ingeniosas.

Mientras que BAYES se destacó en la penetración lógica, P. LAPLACE (1749-1827;78) fue inigualable por su dominio de la técnica analítica. Admitió el principio de la probabilidad inversa, fuertemente criticado, en los fundamentos de sus investigaciones. Por otro lado, a él se debe el principio de que la distribución de una cantidad compuesta de partes independientes muestra toda una serie de características (la media, varianza y otras medidas) que son simplemente las sumas de cada característica de las distribuciones de las partes. Esto parece haber sido descubierto posteriormente e independientemente por T. THIELE (1838-1910;72) en 1889, pero los métodos de LAPLACE eran matemáticamente más poderosos que los de THIELE y mucho más influyentes en el desarrollo del tema en Francia e Inglaterra. Un resultado directo del estudio de LAPLACE de la distribución de la resultante de numerosas causas independientes era el reconocimiento de la ley normal de error, ley que generalmente es más atribuida, y con justa razón, a su gran contemporáneo C. GAUSS (1777-1855;78)

GAUSS, por otra parte, se acercó al problema de la estimación estadística en forma empírica, planteando el problema de la estimación no solo en términos de probabilidades sino en términos de otros parámetros cuantitativos. Para este propósito trató de aplicar el método de máxima verosimilitud, aunque intentó derivar y justificar este método con el principio de la probabilidad inversa. Este método fue cuestionado desde un principio porque no tenía conexión real con la probabilidad inversa. Además, GAUSS perfeccionó el ajuste sistemático de las fórmulas de regresión, simple y múltiple, por el método de los mínimos cuadrados (véase [33]), el cual, en los casos en los que sea apropiado, es un ejemplo particular del método de máxima verosimilitud.

En 1872 el geodosista alemán F. HELMERT (1843-1917;74) dio a conocer un buen libro sobre mínimos cuadrados (cuya segunda edición se publicó en 1907), el cual llegó a ser un texto estándar en su época. La primera distribución importante en las pruebas modernas de significancia fue la chi-cuadrada. Fue descubierta por HELMERT como una distribución de la varianza muestral para una distribución normal. Este descubrimiento y otros de sus trabajos fueron descritos en alemán, incluyendo los de él mismo, pero fue desconocido en inglés. La distribución chi-cuadrada fue redescubierta más tarde por K. PEARSON (1857-1936;79) en 1900. Se considera que esta es su gran contribución a los métodos estadísticos.

El estudio de las distribuciones de muestreo exactos de estadística comienza con los trabajos de W. GOSSET (1876-1937;61). En 1905 contactóa K. PEARSON para ir a estudiar en el laboratorio de este, el Galton Eugenics Laboratory, en la University College, en el periodo 1906-07. Durante este tiempo trabajó sobre la convergencia asintótica de Poisson a la binomial y la distribución muestral de la media, desviación estándar y coeficiente de correlación. Más tarde publicó tres importantes trabajos sobre las investigaciones que había realizado durante este año en el laboratorio de PEARSON. Es importante señalar que GOSSET siempre firmó bajo el seudónimo de Student, lo que explica por qué su nombre es menos conocido a pesar de sus importantes resultados en estadística. En 1908 publica su trabajo The Probable Error of a Mean (véase [99]). Allí deriva la distribución t de Student y, por ende, la prueba t al analizar muestras pequeñas para el control de calidad en la fabricación de cervezas. GOSSET descubrió la forma de la distribución t mediante una combinación de trabajos empíricos y matemáticos con números aleatorios, una aplicación inicial del método de Monte Carlo.

También es relevante mencionar los trabajos realizados por R. FISHER (1890-1962;72). En 1919 se convirtió en el estadístico de la Estación Experimental de Rothamsted, cerca de Harpenden (Hertfordshire), e hizo trabajos estadísticos asociados a los experimentos de cultivos de plantas realizadas en ella. Su libro Statistical Methods for Research Workers, publicado en 1925 (véase [27]), fue impreso durante más de 50 años. Sus experimentos de reproducción dieron lugar a teorías sobre la genética dominante que se publicaron en The Genetical Theory of Natural Selection en 1930 (véase [28]). Investigó la relación de los genes de diferentes características y desarrolló métodos de análisis multivariante para responder esas inquietudes. Otro de sus logros más importantes fue el desarrollo del concepto de análisis de la varianza (ANOVA) y el descubrimiento de la llamada distribución F de FISHER3.

Hoy en día se han desarrollado muchas técnicas estadísticas que se aplican en diferentes campos del conocimiento, lo que hace de la Estadística una ciencia muy importante en el desarrollo de la vida.

Listado de algunos estadísticos y probabiĺsticos

Para ver biografías de los personajes listados abajo (organizados en orden alfabético de acuerdo con su primer apellido) puede consultarse [106](b). Al final de los capítulo de este texto se presentan las de J. BERNOULLI, A. KOL-MOGOROV, C. CRAMÉR, R. FISHER, K. PEARSON y J. NEYMAN.

Oskar Johann Viktor Anderson (1887-1960; 73).

Thomas Bayes (1702-1761;59).

Jacob (Jacques) Bernoulli (1654-1705;51).

Irenée-Jules Bienaymé (1796-1878;82)

Ladislaus Josephowitsch Bortkiewicz (1868-1931;63).

Pafnuti Lvóvich Chebyshev (1821-1894;73)

William Gemmell Cochran (1909-1980;71).

Carl Harald Cramér (1893-1985;92).

George Dantzig (1914-2005;91).

Florence Nightingale David (1909-1993;84).

Francis Ysidro Edgeworth (1845-1926;81).

William Feller (1906-1970;64).

Sir Ronald Aylmer Fisher (1890-1962;72).

Francis Galton (1822-1911;89).

Boris Vladimirovich Gnedenko (1912-1995;83).

William Sealy Gosset (1876-1937;61).

Herman Hollerith (1860-1929;69).

William Stanley Jevons (1835-1882;47).

David George Kendall (1918-2007;89).

Maurice George Kendall (1907-1983;76).

Aleksandr Yakovlevich Khinchin (1894-1959;65).

Andrey Nikolaevich Kolmogorov (1903-1987;84).

Pierre-Simon Laplace (1749-1827;78)

Paul Pierre Lévy (1886-1971;85).

Wilhelm Lexis (1837-1914;77).

Yuri Vladimirovich Linnik (1915-1972;57).

Eugene Lukacs (1906-1987;81).

Jerzy Neyman (1894-1981;87).

Florence Nightingale (1820-1910;90).

Karl Pearson (1857-1936;79).

Egon Sharpe Pearson (1895-1980;85).

K. C. Sreedharan Pillai (1920-1985;65).

Siméon Denis Poisson (1781-1840;59).

Lambert Adolphe Jacques Quetelet (1796-1874;78).

Henry Scheffé (1907-1977;70).

Walter Andrew Shewhart (1891-1967;76).

Evgeny Evgenievich Slutsky (1880-1948;68).

Jan Tinbergen (1903-1994;91).

John Wilder Tukey (1915-2000;85).

Abraham Wald (1902-1950;48).

Walter Frank Raphael Weldon (1860-1906;46).

Samuel Stanley Wilks (1906-1964;58).

Wilhelm Winkler (1884-1984;100).

John Wishart (1898-1956;58).

Jacob Wolfowitz (1910-1981;71).

Frank Yates (1902-1994;92).

William John Youden (1900-1971;71).

George Udny Yule (1871-1951;80).

Sociedades estadísticas

Para una descripción detallada de cada sociedad puede consultarse [106](b).

American Statistical Association:

http://www.amstat.org/

Australian Statistical Society:

http://www.statsoc.org.au/

Bulgarian Statistical Society:

http://www.math.bas.bg/~statlab/bsd/

Canadian Statistical Society:

http://www.ssc.ca/

Estonian Statistical Society:

http://www.stat.ee/

Finnish Statistical Society:

http://www.tilastoseura.fi/index_en.html

German Statistical Society:

http://www.dstatg.de/de/startseite/

Korean Statistical Society:

http://www-history.mcs.stand.ac.uk/Societies/Korean_Statistical.html

Royal Statistical Society:

http://www-history.mcs.stand.ac.uk/Societies/Royal_Statistical.html

Statistical Society of Australia:

http://www-history.mcs.stand.ac.uk/Societies/Australian_Statistical.html

Statistical Society of Canada:

http://www-history.mcs.stand.ac.uk/Societies/Canadian_Statistical.html

Swiss Statistical Society:

http://www-history.mcs.stand.ac.uk/Societies/Swiss_Statistical.html

Applets de estadística

En [65] se pueden encontrar diferentes applets relacionados con algunas distribuciones discretas y continuas, y de temas relacionados con el teorema central del límite, la ley de los grandes números, la regresión lineal y tipos de muestreo.

3Se afirma que la distribución F se debe al matemático y estadístico estadounidense GEORGE W. SNEDECOR (1881-1974;93) y que la bautizó F en honor a R. A. FISCHER.

Convenciones y preliminares

Abreviaciones lógicas, abreviaturas y notaciones

Símbolo:

Significado:

A image B

De la afirmación A sigue la afirmación B

A image B

La afirmación A es equivalente a la afirmación B

A := B

Por definición, A es igual a B

A :image B

Por definición, A es válida si y solo si B es válida

B

Para todo B

Fin de una demostración

Fin de un ejemplo

T., L., C., D., P.,

Teorema, lema, corolario, definición, proposición

def., sec.

Definición, sección

resp.

Respectivamente

hip. ind.

Hipótesis de inducción

teo., prop., ec.

Teorema, proposición, ecuación

rac.

Racional

etc.

Etcéetera, así sucesivamente

n → ∞

n tiende hacia el infinito

A image B

B se obtiene de A aplicando E

Aquí E representa un teorema, un corolario, una definición, una igualdad, una desigualdad, una expresión, etc., que ya hemos dado (demostrado). Por ejemplo:

Notación:

Significado:

A image B

Teorema 1.2.3

A image B

Desigualdad, igualdad o expresión (1)

A image B

Parte (a) de un teorema, lema, definición, etc

A image B

Hipótesis de inducción.

Significados análogos tienen notaciones como, por ejemplo, image, etc.

Conjuntos y operaciones de conjuntos

Sean Ω y Ω′ cualesquiera conjuntos. Entonces

xΩ

image

x es elemento de Ω

x image Ω

image

x no es elemento de Ω

image

cardinalidad de Ω, número de elementos de Ω

AΩ

image

image (A es subconjunto de Ω)

AΩ

image

image (A es subconjunto propio de Ω)

{x/c(x)}

image

el conjunto de todos los x tales que cumplen la condición c(x)

Ω = Ω′

image

image (Ω y Ω′ tienen exactamente los mismos elementos)

Ω image Ω′

image

(Ω y Ω′ no tienen exactamente los mismos elementos)

image

:=

{A/A Ω} (conjunto potencia o partes de Ω)

:=

image (conjunto vacío)

Sea C un sistema o una familia de subconjuntos de Ω, es decir, image. Entonces

En el caso C = , sean image, donde I es cualquier conjunto de índices, entonces escribiremos también

Si I = {1,...,n}, hablaremos de una intersección respectivamente unión FINITA, y también escribiremos

pero si I = , entonces hablaremos de una intersección respectivamente unión ENUMERABLE, y en este caso también escribiremos

Dos subconjuntos, A y B, de Ω se llaman DISYUNTOS si A B = . Para cualquier conjunto de índices I, una familia (Ai)iI de conjuntos de C se llama DISYUNTA DOS A DOS si Ai Aj = para todo i, j I con i image j. La familia (Ai)iI C es una DESCOMPOSICIÓN de Ω si image Ai = Ω y esa familia es disyunta dos a dos.

Diremos que image Ai es una UNIÓN DISYUNTA si la familia (Ai)iI es disyunta dos a dos.

La notación (x, y) representa a una pareja ordenada. Definimos el producto cartesiano A1 × ··· × An de los conjuntos A1,...,An Ω como

siendo (x1,...,xn) una n tupla ordenada. En particular, si Ai = A para todo i = 1,...,n, entonces, en vez d image Ai escribiremos simplemente An, es decir, An := A × ··· × (n veces)

Para cualquier conjunto Ω y cualesquiera image, con i I, se cumplen las llamadas LEYES DE DE MORGAN:

Conjuntos numéricos e intervalos

Designaremos con

:= {1, 2, 3, ...}

El conjunto de los números naturales

0 := ∪ {0}

El conjunto de los números naturales con el cero

El conjunto de los números enteros

El conjunto de los números racionales

El conjunto de los números reales

El conjunto de los números complejos

+ := {x/x > 0}

El conjunto de los números reales positivos (análogamente para + y +)

image

El conjunto de los números reales no negativos (análogamente para image)

Sean a, b con a b. Entonces

(a, b) := {x/a < x < b}

El intervalo abierto de a hasta b

(a, b] := {x/a < xa}

El intervalo a, b semiabierto en a

[a, b) := {x/ax < b}

El intervalo a, b semiabierto en b

[a, b] := {x/axb}

El intervalo cerrado de a hasta b

Sean M y N := {a1,...,an} conjuntos numéricos. Entonces

image

Supremo, ínfimo de M

image

Supremo, ínfimo de N

image

Máximo, mínimo de N

image simbolizaremos la llamada PARTE ENTERA de image. Con |x| simbolizaremos el VALOR ABSOLUTO de image.

Diremos que un número real x es POSITIVO si x > 0, NEGATIVO, si x < 0, NO POSITIVO, si x 0, y NO NEGATIVO, si x 0.

Co image simbolizaremos la unidad imaginaria compleja y con Ref z y Im z las PARTES REAL e IMAGINARIA de un número complejo z, respectivamente.

Sucesiones numéricas y de conjuntos

Designaremos con

image

Sucesión numérica de aa,a2,a3,...

image

Supremo, ínfimo de la sucesión (an)n

image

Subsucesión de (an)n

image

La sucesión (an)n converge hacia a

image

Límite superior, límite inferior de (an)n

image

La sucesión (an)n diverge hacia

image

La sucesión (an)n diverge hacia −∞

image

La sucesión (an)n es creciente, decreciente y converge hacia a cuando n → ∞

Los símbolos4 y −∞ no son números. Por esta razón, no podemos hacer cálculos con ellos, pero podemos convenir las siguientes reglas aritméticas:

Para dos sucesiones image de números reales, con image, sean

Análogamente, para cualquier sucesión de subconjuntos image de un conjunto Ω y cualquier image, las notaciones image image tienen, respectivamente, un significado análogo a las notaciones introducidas para una sucesión numérica image.

Funciones

Designaremos con f : A B una función5 o aplicación de A en B. Además6,

y = f(x), xf(x) A cada x A le corresponde un único y B
f(A) Conjunto imagen de A bajo f
f−1(B) Conjunto preimagen de B bajo f
fc f es la función constante c
image Supremo de f
image Infimo de f
image Máximo de f
image Mínimo de f
image Límite de f(x) cuando x tiende a c, donde image
image Límite lateral izquierdo de f(x) cuando x < x0
image Límite lateral derecho de f(x) cuando x > x0
lim f(x) = ∞, lim g(x) = −∞ f diverge hacia , g diverge hacia −∞
image Derivada de f en el punto ζ0
image Derivada lateral derecha (izquierda) de f en ζ0
image n-ésima derivada de f en el punto ζ0
image Sucesión de funciones f1,f2,...

Probabilidad

Símbolo:

Significado:

X image D

X tiene la distribución D

X image Y

X y Y tienen la misma distribución

image

Distribución uniforme discreta

B(1, P)

Distribución de Bernoulli

B(n, p)

Distribución binomial

H(n, M, N)

Distribución hipergeométrica

P(α)

Distribución de Poisson

Bn(n, p)

Distribución binomial negativa

image

Distribución geométrica

image

Distribución uniforme continua

N(μ, σ2)

Distribución normal unidimensional

image

Función gamma, distribución gamma

εxp(β)

Distribución exponencial

X2(n)

Distribución chi-cuadrada

image

Distribución t de Student

F(n, m)

Distribución F de Fisher

image

Distribución normal bidimensional

E(X|Y), E(X|Y = y)

Esperanza condicional

V(X|Y), V(X|Y = y)

Varianza condicional

image

Media aritmética o empírica (def. 1.4.3)

image

Varianza empírica (def. 1.4.3)

image

Convergencia en media de orden r (def. 1.6.5)

“E” P-c.s.

La propiedad E se cumple casi seguro (def. 1.6.3)

image

Convergencia casi segura (def. 1.6.6)

image

Convergencia estocástica o en probabilidad (def. 1.6.7)

image

Xn es asintóticamente equivalente a Yn

image

Convergencia en distribución (def. 1.6.11)

4 El símbolo fue introducido por JOHN WALLIS (1616-1703;87), profesor de la Universidad de Oxford. Fue de uno de los primeros matemáticos que sospechó el concepto de límite.

5 La palabra “functio” fue propuesta por primera vez por GOTTFRIED WILHELM LEIBNIZ (1646-1716;70) y JOHANN BERNOULLI (1667-1748;81).

6 El símbolo y = f(x) fue introducido por LEONHARD EULER (1707-1783;76).

CAPÍTULO 1

Preliminares

1.1 Algunas distribuciones de probabilidad

Je reviens actuellement au cas où les chances p et q de deux événements E et F sont constantes, et je vais considérer la probabilité que dans un nombre μ on m + n d’épreuves, E arrivera au moins m fois et F au plus n fois. Cette probabilité ... la désignant par P ... Je suppose que qF1μimageFμ...ωimage ...... imageimagenμOISSON80